JP5785218B2 - Network system, server, home appliance, program, and home appliance linkage method - Google Patents
Network system, server, home appliance, program, and home appliance linkage method Download PDFInfo
- Publication number
- JP5785218B2 JP5785218B2 JP2013107754A JP2013107754A JP5785218B2 JP 5785218 B2 JP5785218 B2 JP 5785218B2 JP 2013107754 A JP2013107754 A JP 2013107754A JP 2013107754 A JP2013107754 A JP 2013107754A JP 5785218 B2 JP5785218 B2 JP 5785218B2
- Authority
- JP
- Japan
- Prior art keywords
- cpu
- server
- communication device
- command
- home appliance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Computer And Data Communications (AREA)
- Selective Calling Equipment (AREA)
Description
本発明は、複数の家電が連携して動作するネットワークシステム、サーバ、家電、プログラムおよび家電の連携方法に関する。 The present invention relates to a network system, a server, a home appliance, a program, and a home appliance linkage method in which a plurality of home appliances operate in cooperation.
従来、音声を発する電子機器に関する技術が知られている。当該技術は、たとえば、以下のような特許文献に記されている。 2. Description of the Related Art Conventionally, techniques related to electronic devices that emit sound are known. The technique is described in the following patent documents, for example.
特開2008−131402号公報(特許文献1)には、ホームオートメーションシステムが開示されている。特開2008−131402号公報(特許文献1)によると、家庭内機器を相互に有機的に連携し,コントローラからインターフェースユニットを介して端末機器の制御並びにモニタを行うホームオートメーションシステムにおいて,コントローラが端末機器に対して制御を行った場合に動作し,コントローラが端末機器に対して制御を行ったことをその周囲に認知せしめるホームオートメーション制御判別機能を備えたホームオートメーション制御判別手段を,端末機器の近傍に設ける。 Japanese Unexamined Patent Application Publication No. 2008-131402 (Patent Document 1) discloses a home automation system. According to Japanese Patent Application Laid-Open No. 2008-131402 (Patent Document 1), in a home automation system in which home devices are organically linked to each other and control and monitor terminal devices from the controller via an interface unit, the controller is a terminal. A home automation control discriminating means that operates when a device is controlled and has a home automation control discriminating function that recognizes that the controller has controlled the terminal device. Provided.
国際公開第12/131832号パンフレット(特許文献2)には、音声読み上げ装置が開示されている。国際公開第12/131832号パンフレット(特許文献2)によると、音声読み上げ装置は、リモコン操作を受け付けるリモコン入力部と、コンテンツが記憶されているリモート機器に対してリモコン操作に応じた要求を送信し当該要求に対応する応答データを受信する通信部と、リモコン入力部によって受け付けられたリモコン操作に応じた処理および通信部によって受信された応答データに応じた処理を制御する処理制御部と、処理制御部によって制御される処理に関する音声信号を生成する音声生成部と、音声生成部によって生成された音声信号を再生する音声出力部とを備え、処理制御部は、リモコン入力部によって受け付けられたリモコン操作に応じた処理を示す音声信号を、処理が継続している間、音声生成部に繰り返して生成させる。 International Publication No. 12/131832 (Patent Document 2) discloses a speech reading apparatus. According to the pamphlet of International Publication No. 12/131830 (Patent Document 2), the speech reading apparatus transmits a request corresponding to the remote control operation to a remote control input unit that accepts a remote control operation and a remote device that stores content. A communication unit that receives response data corresponding to the request, a process control unit that controls a process according to a remote control operation received by the remote control input unit, and a process according to the response data received by the communication unit, and a process control A sound generation unit that generates a sound signal related to the process controlled by the unit, and a sound output unit that reproduces the sound signal generated by the sound generation unit, and the process control unit receives a remote control operation accepted by the remote control input unit A sound signal indicating a process corresponding to the signal is repeatedly generated in the sound generator while the process continues. Make.
従来の家電は、ユーザに対して情報を伝達するためだけに音声を発するものであった。そのため、ユーザは家電に関して無機質な印象を持ち易かった。 Conventional home appliances emit voice only to convey information to the user. Therefore, the user easily has an inorganic impression regarding home appliances.
本発明は、かかる問題を解決するためになされたものであり、その目的は、ユーザが家電に対してより人間味を感じ易くなる、ネットワークシステム、サーバ、家電、プログラムおよび家電の連携方法を提供することにある。 The present invention has been made to solve such a problem, and an object of the present invention is to provide a network system, a server, a home appliance, a program, and a home appliance linkage method that makes it easier for the user to feel humanity with respect to the home appliance. There is.
この発明のある態様に従うと、第1の家電と第2の家電とを含むネットワークシステムが提供される。第1の家電は、命令を受け付けた時に、第2の家電に対する指示を表す音声を出力する。第2の家電は、指示に対する応答を音声によって出力する。 According to an aspect of the present invention, a network system including a first home appliance and a second home appliance is provided. When the first home appliance receives the command, the first home appliance outputs a voice representing an instruction to the second home appliance. The second home appliance outputs a response to the instruction by voice.
この発明の別の態様に従うと、第1の家電と第2の家電とサーバとを含むネットワークシステムが提供される。サーバは、第1の家電が命令を受け付けたときに、第1の家電に第2の家電に対する指示を表す音声を出力させる。サーバは、第2の家電に、指示に対する応答を音声によって出力させる。 According to another aspect of the present invention, a network system including a first home appliance, a second home appliance, and a server is provided. When the first home appliance receives the command, the server causes the first home appliance to output a voice representing an instruction for the second home appliance. The server causes the second home appliance to output a response to the instruction by voice.
好ましくは、音声指示は、第2の家電を特定するための情報を含む。 Preferably, the voice instruction includes information for specifying the second home appliance.
好ましくは、第1の家電は、第2の家電が指示に対する動作を完了した際に、第2の家電に対する謝辞を表す言葉を音声によって出力する。 Preferably, when the second home appliance completes the operation in response to the instruction, the first home appliance outputs a word representing an acknowledgment for the second home appliance by voice.
好ましくは、第1の家電による指示の音声の出力の完了後に、第2の家電が応答を音声によって出力する。 Preferably, after the output of the instruction voice by the first home appliance is completed, the second home appliance outputs a response by voice.
好ましくは、第1の家電は、命令を受け付けたときに、命令に応じた動作を行う。第2の家電は、指示を受け付けたときに、指示に応じた動作を行う。 Preferably, the first home appliance performs an operation according to the command when receiving the command. The second home appliance performs an operation according to the instruction when the instruction is received.
この発明の別の態様に従うと、家電が提供される。家電は、スピーカと、外部からの命令を受け付けて、命令に応じて家電の各部を制御するとともに、スピーカを介して他の家電に対する指示を表す音声を出力させるプロセッサとを含む。 According to another aspect of the invention, a home appliance is provided. The home appliance includes a speaker and a processor that receives a command from the outside, controls each part of the home appliance in accordance with the command, and outputs a voice representing an instruction to another home appliance through the speaker.
この発明の別の態様に従うと、サーバが提供される。サーバは、第1および第2の家電と通信するための通信インターフェイスと、第1の家電に入力される命令と第2の家電へと出力される指示との対応関係を記憶するためのメモリと、プロセッサとを含む。プロセッサは、第1の家電が命令を受け付けたときに、対応関係を参照し、通信インターフェイスを介して第1の家電に第2の家電に対する指示を表す音声を出力させ、通信インターフェイスを介して、第2の家電に、指示に対する応答を音声によって出力させる。 According to another aspect of the invention, a server is provided. The server includes a communication interface for communicating with the first and second home appliances, a memory for storing a correspondence relationship between an instruction input to the first home appliance and an instruction output to the second home appliance. Processor. When the first home appliance receives the command, the processor refers to the correspondence relationship, causes the first home appliance to output a voice representing an instruction for the second home appliance via the communication interface, and via the communication interface, The second home appliance is caused to output a response to the instruction by voice.
この発明の別の態様に従うと、スピーカとプロセッサとを含む家電を制御するためのプログラムが提供される。プログラムはプロセッサに、命令を受け付けるステップと、命令に応じて家電の各部を制御するステップと、スピーカを介して他の家電に対する指示を表す音声を出力させるステップとを実行させる。 According to another aspect of the present invention, a program for controlling a home appliance including a speaker and a processor is provided. The program causes the processor to execute a step of receiving a command, a step of controlling each part of the home appliance in accordance with the command, and a step of outputting a voice representing an instruction to another home appliance via the speaker.
この発明の別の態様に従うと、通信インターフェイスと、プロセッサと、第1の家電に入力される命令と第2の家電に出力される指示との対応関係を記憶するためのメモリと、を含むサーバを制御するためのプログラムが提供される。プログラムはプロセッサに、第1の家電が命令を受け付けたときに、対応関係を参照し、通信インターフェイスを介して第1の家電に第2の家電に対する指示を表す音声を出力させるステップと、通信インターフェイスを介して、第2の家電に、指示に対する応答を音声によって出力させるステップと、を実行させる。 According to another aspect of the present invention, a server including a communication interface, a processor, and a memory for storing a correspondence relationship between an instruction input to the first home appliance and an instruction output to the second home appliance A program for controlling the program is provided. The program causes the processor to refer to the correspondence relationship when the first home appliance receives an instruction, and to cause the first home appliance to output a voice representing an instruction for the second home appliance via the communication interface; And causing the second home appliance to output a response to the instruction by voice.
この発明の別の態様に従うと、家電の連携方法が提供される。家電の連携方法は、第1の家電が、命令を受け付けるステップと、第1の家電が、命令に応じて第1の家電の各部を制御するステップと、第1の家電が、命令に対応する第2の家電に対する指示を表す音声を出力するステップと、第2の家電が、指示に対する応答を音声によって出力するステップと、を含む。 When another aspect of this invention is followed, the cooperation method of a household appliance is provided. In the home appliance cooperation method, the first home appliance accepts the command, the first home appliance controls each part of the first home appliance in response to the command, and the first home appliance corresponds to the command. A step of outputting a voice representing an instruction to the second home appliance; and a step of the second home appliance outputting a response to the instruction by voice.
以上のように、この発明によれば、家電が家電に対して話しかけるため、ユーザが家電に対してより人間味を感じ易くなる。 As mentioned above, according to this invention, since a household appliance talks with a household appliance, it becomes easy for a user to feel a human feeling with respect to a household appliance.
以下、図面を参照しつつ、本発明の実施形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<第1の実施形態>
<ネットワークシステムの全体構成>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<First Embodiment>
<Overall configuration of network system>
まず、図1〜図6を参照して、本実施形態に係るネットワークシステム1の全体構成について説明する。なお、図1〜図6は、本実施形態にかかるネットワークシステム1の全体構成と動作概要とを示すイメージ図である。 First, the overall configuration of the network system 1 according to the present embodiment will be described with reference to FIGS. 1 to 6 are image diagrams showing an overall configuration and an operation outline of the network system 1 according to the present embodiment.
ネットワークシステム1は、住居またはオフィスなどに配置される複数の家電と、スマートフォン500A,500B,500Cと、サーバ100とを含む。家電としては、たとえば、掃除機200、エアコン300、テレビ400、洗濯機、冷蔵庫、炊飯器、空気清浄器、床暖房、IH(Induction Heating)クッキングヒーターなどが挙げられる。なお、家電には、ホームサーバなどのAV機器が含まれてもよい。 Network system 1 includes a plurality of home appliances arranged in a residence or an office, smartphones 500A, 500B, 500C, and server 100. Examples of the home appliance include a vacuum cleaner 200, an air conditioner 300, a television 400, a washing machine, a refrigerator, a rice cooker, an air cleaner, floor heating, and an IH (Induction Heating) cooking heater. Note that home appliances may include AV devices such as home servers.
複数の家電は、互いにペアリングしており、様々な情報をやり取りする。複数の家電とスマートフォン500A,500B,500Cとがペアリングしてもよい。複数の家電とスマートフォン500A,500B,500Cとは、無線LAN、有線LAN、ルータ、およびインターネットを介して、外部のサーバ100と接続可能である。
<ネットワークシステムの動作概要>
The plurality of home appliances are paired with each other and exchange various information. A plurality of home appliances may be paired with the smartphones 500A, 500B, and 500C. The plurality of home appliances and the smartphones 500A, 500B, and 500C can be connected to the external server 100 via a wireless LAN, a wired LAN, a router, and the Internet.
<Overview of network system operation>
次に、本実施形態に係るネットワークシステム1の動作概要について説明する。はじめに、図1〜図3を参照しながらリビングルームで掃除が開始される際における掃除機200とエアコン300とテレビ400との連携動作について説明する。 Next, an operation outline of the network system 1 according to the present embodiment will be described. First, the cooperative operation of the vacuum cleaner 200, the air conditioner 300, and the television 400 when cleaning is started in the living room will be described with reference to FIGS.
図1を参照して、ユーザが掃除機200に向かって「掃除して」と頼むと、掃除機200はインターネットを介してサーバ100から天気予報などの様々な情報を取得する。天気が良い日には、掃除機200は、「わかりました。天気が良いので窓を開けてはいかがですか?」という音声を発する。掃除機200は、天気が悪い日や花粉の量が多いときには、窓を開けるように促さない方が好ましい。 Referring to FIG. 1, when a user asks the cleaner 200 to “clean”, the cleaner 200 acquires various information such as a weather forecast from the server 100 via the Internet. When the weather is fine, the vacuum cleaner 200 emits a voice saying "I understand. Why don't you open the window because the weather is good?" It is preferable that the vacuum cleaner 200 does not prompt the user to open the window when the weather is bad or the amount of pollen is large.
図2を参照して、ユーザが掃除機200に向かって「嫌です。面倒臭いから。」と言うと、掃除機200は、「エアコンさん、掃除をするからイオンを出して。」という音声を発する。エアコン300は、「掃除機さん、わかった。イオンを出すね。」という音声を発する。エアコン300は、イオンの発生を開始してから、「掃除機さん、今イオンを出し始めたよ。」という音声を発する。掃除機200は、「エアコンさん、ありがとう。掃除が終わったら連絡するね。」という音声を発する。 Referring to FIG. 2, when the user says “I don't like it because it is annoying.” Toward the vacuum cleaner 200, the vacuum cleaner 200 emits a voice saying, “Air conditioning, clean up the ions.” . The air conditioner 300 emits a voice saying “You know, Mr. Vacuum cleaner. The air conditioner 300 starts to generate ions, and then emits a voice saying, “Mr. vacuum cleaner, I have started to emit ions now.” The vacuum cleaner 200 emits a voice saying "Thank you for the air conditioner. I will contact you when the cleaning is over."
図3を参照して、掃除機200は、「テレビさん、掃除をするから音量を上げて。」という音声を発する。テレビ400は、「掃除機さん、わかった。音量を上げるね。」という音声を発する。テレビ400は、音量を上げると、「掃除機さん、音量を上げたよ。」という音声を発する。掃除機200は、「テレビさん、ありがとう。掃除が終わったら連絡するね。」という音声を発する。 With reference to FIG. 3, the vacuum cleaner 200 emits a voice saying “Mr. TV, turn up the volume because you are cleaning.” The television 400 emits a voice saying “You know the vacuum cleaner. When the volume is increased, the television 400 emits a voice “Sound cleaner, volume increased.” The vacuum cleaner 200 emits a voice saying "Thank you, TV. I will contact you when the cleaning is over."
次に、図4を参照しながら、リビングルームで掃除が終了した際における掃除機200とエアコン300とテレビ400の連携動作について説明する。掃除機200は、ユーザに向かって「掃除が終わりました。」という音声を発する。掃除機200は、「エアコンさん、掃除が終わったから、イオンを止めても良いよ。」という音声を発する。エアコン300は、「掃除機さん、OK。じゃあ、止めるね。」という音声を発する。掃除機200は、「エアコンさん、協力してくれてありがとう。」という音声を発する。 Next, the cooperative operation of the vacuum cleaner 200, the air conditioner 300, and the television 400 when cleaning is completed in the living room will be described with reference to FIG. The vacuum cleaner 200 emits a sound “Cleaning is complete” toward the user. The vacuum cleaner 200 emits a voice saying "Air conditioning, you can stop the ions because cleaning is complete." The air conditioner 300 emits a voice saying, “Mr. Vacuum cleaner, OK. The vacuum cleaner 200 emits a voice saying "Thank you for your cooperation, Air Conditioner".
掃除機200は、「テレビさん、掃除が終わったから、音量を元に戻して良いよ。」という音声を発する。テレビ400は、「掃除機さん、OK。じゃあ、音量を元に戻すね。」という音声を発する。掃除機200は、「テレビさん、協力してくれてありがとう。」という音声を発する。 The vacuum cleaner 200 emits a voice saying, “Mr. TV, the volume can be returned to the original level because the cleaning is finished.” The television 400 emits a voice saying, “Mr. Vacuum cleaner, OK. The vacuum cleaner 200 emits a voice saying “Thank you for your cooperation.
次に、図5を参照しながら、ユーザが、イオンの発生を中止させるときの掃除機200とエアコン300の連携動作について説明する。ユーザが、掃除機200に向かって「イオンの発生を止めて。」と命令すると、掃除機200は、「エアコンさん、イオンの発生を止めて。」という音声を発する。エアコン300は、「掃除機さん、OK。イオンの発生を止めるね。」という音声を発する。掃除機200は、「ごめんね、エアコンさん。」という音声を発する。 Next, the cooperative operation of the vacuum cleaner 200 and the air conditioner 300 when the user stops the generation of ions will be described with reference to FIG. When the user instructs the vacuum cleaner 200 to “stop the generation of ions”, the vacuum cleaner 200 emits a voice saying “Air conditioning, stop the generation of ions”. The air conditioner 300 emits a voice saying, “Mr. Vacuum cleaner, OK. The vacuum cleaner 200 emits a voice saying "I'm sorry, Air Conditioner."
次に、図6を参照しながら、エアコン300と洗濯機600の連携動作について説明する。洗濯機600が、「洗濯が終わったよ。」という音声を発する。洗濯機600は、インターネットを介してサーバ100から天気予報などの様々な情報を取得する。天気が悪い日や花粉の量が多きときには、洗濯機600は、「エアコンさん、雨が降っているから、部屋干しするかも、ドライ運転にして。」という音声を発する。エアコン300は、「洗濯機さん、了解。ドライ運転にするね。」という音声を発する。洗濯機600は、「エアコンさん、ありがとう。」という音声を発する。 Next, the cooperative operation of the air conditioner 300 and the washing machine 600 will be described with reference to FIG. The washing machine 600 emits a voice saying “Laundry is finished”. The washing machine 600 acquires various information such as a weather forecast from the server 100 via the Internet. When the weather is bad or the amount of pollen is large, the washing machine 600 emits a voice saying “Air conditioning, it is raining, so the room may be aired or dry.” The air conditioner 300 emits a voice saying “Mr. Washing machine, I understand. The washing machine 600 emits a voice saying “Thank you for the air conditioner”.
このように、本実施形態にかかるネットワークシステム1では、複数の家電同士が会話をするものであって、すなわち、家電が家電に話しかけるものであって、家電が単にユーザに情報を伝達するだけのものではない。また、家電同士が話している間、ユーザは自分に話しかけられていないように感じるために、逆にユーザは家電に関して人間らしさを感じ易くなる。 As described above, in the network system 1 according to the present embodiment, a plurality of home appliances have a conversation with each other, that is, the home appliance talks to the home appliance, and the home appliance simply transmits information to the user. It is not a thing. In addition, while the home appliances are talking to each other, the user feels as if he / she is not speaking to him / her, so the user can easily feel humanity regarding the home appliance.
さらに、家電(第1の家電)が、自身が受け付けた命令に対応して、または自身の動作に対応して、他の家電(第2の家電)に対する指示を表す音声を出力したりするため、両者の音声を聞いているユーザが、複数の家電の連携方法を認識しやすい。また、当該他の家電(第2の家電)が当該家電(第1の家電)に対する応答を音声によって出力したりするため、両者の音声を聞いているユーザが、複数の家電の連携方法を認識しやすい。つまり、ユーザからの命令を受けていない他の家電(第2の家電)がなぜ急に動作を開始したのかについてユーザが理解できない可能性が低減される。 Further, in order for the home appliance (first home appliance) to output a voice representing an instruction to another home appliance (second home appliance) in response to an instruction received by itself or in response to its own operation. It is easy for a user who is listening to both voices to recognize the cooperation method of a plurality of home appliances. In addition, since the other home appliance (second home appliance) outputs a response to the home appliance (first home appliance) by voice, the user listening to both voices recognizes the cooperation method of the plurality of home appliances. It's easy to do. That is, the possibility that the user cannot understand why the other home appliance (second home appliance) that has not received a command from the user suddenly starts operating is reduced.
以下、このような機能を実現するためのネットワークシステム1の各部の具体的な構成について詳述する。
<サーバ100のハードウェア構成>
Hereinafter, a specific configuration of each part of the network system 1 for realizing such a function will be described in detail.
<Hardware Configuration of Server 100>
まず、サーバ100の具体的構成の一態様について説明する。図7は、本実施形態に係るサーバ100のハードウェア構成を表わすブロック図である。図7を参照して、サーバ100は、主たる構成要素として、CPU(Central Processing Unit、単にプロセッサともいう。)110と、メモリ101と、メモリインターフェイス102と、キーボード103と、ディスプレイ104と、通信インターフェイス106と、時計109とを含む。 First, an aspect of a specific configuration of the server 100 will be described. FIG. 7 is a block diagram illustrating a hardware configuration of the server 100 according to the present embodiment. Referring to FIG. 7, server 100 includes, as main components, CPU (Central Processing Unit, also simply referred to as a processor) 110, memory 101, memory interface 102, keyboard 103, display 104, and communication interface. 106 and a clock 109.
CPU110は、メモリ101あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、サーバ100の各部を制御する。CPU110は、メモリ101あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、図1〜図6に示す動作および後述する機能および各ステップを実現する。 The CPU 110 controls each unit of the server 100 by executing a program stored in the memory 101 or an external storage medium. The CPU 110 executes the program stored in the memory 101 or an external storage medium, thereby realizing the operations shown in FIGS. 1 to 6 and the functions and steps described below.
キーボード103は、ユーザからの命令を受け付けて、当該命令をCPU110に入力する。ディスプレイ104は、CPU110から信号に基づいて、文字や画像を出力する。 The keyboard 103 receives a command from the user and inputs the command to the CPU 110. The display 104 outputs characters and images based on signals from the CPU 110.
なお、キーボード103とディスプレイ104は、タッチパネル105であってもよい。タッチパネル105は、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などのいずれのタイプであってもよい。タッチパネル105は、光センサ液晶を含んでもよい。タッチパネル105は、所定時間毎に外部の物体によるタッチパネル105へのタッチ操作を検知して、タッチ座標(座標)をCPU110に入力する。 The keyboard 103 and the display 104 may be a touch panel 105. The touch panel 105 may be any type such as a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. The touch panel 105 may include an optical sensor liquid crystal. The touch panel 105 detects a touch operation on the touch panel 105 by an external object every predetermined time, and inputs touch coordinates (coordinates) to the CPU 110.
メモリ101は、各種のRAM(Random Access Memory)や、各種のROM(Read-Only Memory)などによって実現される。なお、メモリ101は、インターフェイスを介して利用される、USB(登録商標)メモリ、CD、DVD、メモリカード、FD、ハードディスク、磁気テープ、カセットテープ、MO、MD、ICカード、光カード、マスクROM、EPROM、EEPROMなどの記憶媒体などによっても実現される。 The memory 101 is realized by various RAMs (Random Access Memory), various ROMs (Read-Only Memory), and the like. The memory 101 is a USB (registered trademark) memory, CD, DVD, memory card, FD, hard disk, magnetic tape, cassette tape, MO, MD, IC card, optical card, mask ROM used via an interface. It is also realized by a storage medium such as EPROM or EEPROM.
メモリ101は、CPU110によって実行されるプログラム、CPU110によるプログラムの実行により生成されたデータ、キーボード103またはタッチパネル105を介して入力されたデータ、後述するデータベースなどを記憶する。 The memory 101 stores a program executed by the CPU 110, data generated by the execution of the program by the CPU 110, data input via the keyboard 103 or the touch panel 105, a database described later, and the like.
ここで、図8は、本実施形態にかかる制御命令データベース101Aに含まれる情報を示すイメージ図である。図7および図8を参照して、本実施形態に係るメモリ101は、家電に入力され当該家電からサーバ100に伝達される命令と、サーバ100から当該家電および他の家電へと出力される命令と、の対応関係を示す制御命令データベース101Aを格納する。CPU110は、家電に命令が入力された際に、当該命令と当該命令が入力された家電とに基づいて、制御命令データベース101Aを参照して、当該命令に対応する制御データと当該制御データの送信先とを読み出す。CPU110は、通信インターフェイス106を介して、当該送信先に当該制御データを送信する。 Here, FIG. 8 is an image diagram showing information included in the control command database 101A according to the present embodiment. With reference to FIG. 7 and FIG. 8, the memory 101 according to the present embodiment includes a command that is input to a home appliance and transmitted from the home appliance to the server 100, and a command that is output from the server 100 to the home appliance and other home appliances And a control instruction database 101A indicating the correspondence relationship between the When an instruction is input to the home appliance, the CPU 110 refers to the control instruction database 101A based on the instruction and the home appliance to which the instruction is input, and transmits control data corresponding to the instruction and the control data. Read the destination. The CPU 110 transmits the control data to the transmission destination via the communication interface 106.
なお、図1〜図6の動作概要および図8に示すように、本実施形態においては、掃除機200(第1の家電)が発する指示の中に、エアコン300(第2の家電)を特定するための情報が含まれる。また、エアコン300(第2の家電)が掃除機200(第1の家電)からの指示に対応する動作を完了した際には、掃除機200がエアコン300に対して「ありがとう」「ごめんね」「よろしく」などの謝辞や結語を表す言葉を音声で発するものである。 1 to 6 and FIG. 8, in the present embodiment, the air conditioner 300 (second home appliance) is specified in the instruction issued by the cleaner 200 (first home appliance). Information to do. When the air conditioner 300 (second home appliance) completes the operation corresponding to the instruction from the vacuum cleaner 200 (first home appliance), the vacuum cleaner 200 gives “thank you”, “sorry” “ Words that express acknowledgments and concluding words such as "Thank you" are spoken.
また、メモリ101は、複数の家庭およびオフィス毎の、当該家庭およびオフィスに属する家電に関する情報(以下、家電情報101Bという。)を格納する。より詳細には、家電情報101Bは、複数の家庭およびオフィス毎に、当該家庭およびオフィスに属する家電の名前とそのIPアドレスとその機能と他の家電とのペアリングの可否と他の家電とのペアリング状態とを含む。CPU110は、これによって、命令が入力された家電とペアリング中である家電を特定することができる。 In addition, the memory 101 stores information on home appliances belonging to the home and office (hereinafter referred to as home appliance information 101B) for each of a plurality of homes and offices. More specifically, the home appliance information 101B includes, for each of a plurality of homes and offices, the names of home appliances belonging to the homes and offices, their IP addresses, their functions, whether or not they can be paired with other home appliances, and other home appliances. Including pairing status. In this way, the CPU 110 can identify the home appliance that is paired with the home appliance to which the command is input.
CPU110は、メモリインターフェイス102を介して外部の記憶媒体に格納されているデータを読み出して、当該データをメモリ101に格納してもよい。逆に、CPU110は、メモリ101からデータを読み出して、メモリインターフェイス102を介して当該データを外部の記憶媒体に格納してもよい。 The CPU 110 may read data stored in an external storage medium via the memory interface 102 and store the data in the memory 101. Conversely, the CPU 110 may read data from the memory 101 and store the data in an external storage medium via the memory interface 102.
なお、記憶媒体としては、USBメモリ、CD、DVD、メモリカード、FD、ハードディスク、磁気テープ、カセットテープ、MO、MD、ICカード、光カード、マスクROM、EPROM、EEPROMなどの、不揮発的にプログラムおよびその他のデータを格納する媒体が挙げられる。 As a storage medium, non-volatile programs such as USB memory, CD, DVD, memory card, FD, hard disk, magnetic tape, cassette tape, MO, MD, IC card, optical card, mask ROM, EPROM, EEPROM, etc. And other data storage media.
通信インターフェイス106は、アンテナやコネクタによって実現される。通信インターフェイス106は、有線通信あるいは無線通信によって他の装置との間でデータをやり取りする。CPU110は、通信インターフェイス106を介して、他の装置から制御データなどのプログラム、画像データ、テキストデータなどを受信したり、他の装置に制御データなどのプログラム、画像データ、テキストデータを送信したりする。 The communication interface 106 is realized by an antenna or a connector. The communication interface 106 exchanges data with other devices by wired communication or wireless communication. The CPU 110 receives a program such as control data, image data, and text data from another device via the communication interface 106, and transmits a program such as control data, image data, and text data to another device. To do.
具体的には、CPU110は、通信インターフェイス106を利用することによってインターネットを介して、掃除機200、エアコン300、テレビ400、洗濯機600などの複数の家電と複数のスマートフォン500A,500B,500Cとデータを送受信する。CPU110は、通信インターフェイス106を介して、外部のキーボード130およびディスプレイ140とデータを送受信することもできる。 Specifically, the CPU 110 uses the communication interface 106 to transmit data via a plurality of home appliances such as the vacuum cleaner 200, the air conditioner 300, the television 400, and the washing machine 600, and a plurality of smartphones 500A, 500B, and 500C. Send and receive. The CPU 110 can also transmit / receive data to / from the external keyboard 130 and the display 140 via the communication interface 106.
時計109は、CPU110に、現在時刻を出力したり、所定のタイミングからの経過時間を出力したりする。
<掃除機200のハードウェア構成>
The clock 109 outputs the current time to the CPU 110 or outputs the elapsed time from a predetermined timing.
<Hardware configuration of vacuum cleaner 200>
次に、掃除機200の具体的構成の一態様について説明する。図9は、本実施形態に係る掃除機200のハードウェア構成を表わすブロック図である。図9を参照して、掃除機200は、主たる構成要素として、CPU210と、メモリ201と、メモリインターフェイス202と、ボタン203と、ディスプレイ204と、通信インターフェイス206と、スピーカ207と、マイク208と、時計209と、掃除制御回路220とを含む。 Next, an aspect of a specific configuration of the cleaner 200 will be described. FIG. 9 is a block diagram illustrating a hardware configuration of the vacuum cleaner 200 according to the present embodiment. Referring to FIG. 9, the vacuum cleaner 200 includes, as main components, a CPU 210, a memory 201, a memory interface 202, a button 203, a display 204, a communication interface 206, a speaker 207, a microphone 208, A clock 209 and a cleaning control circuit 220 are included.
CPU210は、メモリ201あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、掃除機200の各部を制御する。CPU210は、メモリ201あるいは外部の記憶媒体に記憶されているプログラムやサーバ100から受信する制御データを実行することによって、図1〜図6に示す動作および後述する機能および各ステップを実現する。 The CPU 210 controls each part of the cleaner 200 by executing a program stored in the memory 201 or an external storage medium. The CPU 210 implements the operations shown in FIGS. 1 to 6 and functions and steps described later by executing a program stored in the memory 201 or an external storage medium and control data received from the server 100.
ボタン203は、ユーザからの命令を受け付けて、当該命令をCPU210に入力する。ディスプレイ204は、CPU210から信号に基づいて、文字や画像を出力する。 The button 203 receives a command from the user and inputs the command to the CPU 210. The display 204 outputs characters and images based on signals from the CPU 210.
なお、ボタン203とディスプレイ204は、タッチパネル205であってもよい。タッチパネル205は、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などのいずれのタイプであってもよい。タッチパネル205は、光センサ液晶を含んでもよい。タッチパネル205は、所定時間毎に外部の物体によるタッチパネル205へのタッチ操作を検知して、タッチ座標(座標)をCPU210に入力する。 Note that the button 203 and the display 204 may be a touch panel 205. The touch panel 205 may be any type such as a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. The touch panel 205 may include an optical sensor liquid crystal. The touch panel 205 detects a touch operation on the touch panel 205 by an external object every predetermined time, and inputs touch coordinates (coordinates) to the CPU 210.
メモリ201は、各種のRAMや、各種のROMなどによって実現される。なお、メモリ201は、インターフェイスを介して利用される、USBメモリ、CD、DVD、メモリカード、FD、ハードディスク、磁気テープ、カセットテープ、MO、MD、ICカード、光カード、マスクROM、EPROM、EEPROMなどの記憶媒体などによっても実現される。 The memory 201 is realized by various RAMs, various ROMs, and the like. Note that the memory 201 is a USB memory, CD, DVD, memory card, FD, hard disk, magnetic tape, cassette tape, MO, MD, IC card, optical card, mask ROM, EPROM, EEPROM used via an interface. It is also realized by a storage medium such as
メモリ201は、CPU210によって実行されるプログラムや、CPU210によるプログラムの実行により生成されたデータ、ボタン203またはタッチパネル205を介して入力されたデータ、サーバ100から受信した制御データなどを記憶する。 The memory 201 stores a program executed by the CPU 210, data generated by execution of the program by the CPU 210, data input via the button 203 or the touch panel 205, control data received from the server 100, and the like.
CPU210は、メモリインターフェイス202を介して外部の記憶媒体に格納されているデータを読み出して、当該データをメモリ201に格納してもよい。逆に、CPU210は、メモリ201からデータを読み出して、メモリインターフェイス202を介して当該データを外部の記憶媒体に格納してもよい。なお、外部の記憶媒体は、サーバ100のそれと同様であるため、ここでは例示を繰り返さない。 The CPU 210 may read data stored in an external storage medium via the memory interface 202 and store the data in the memory 201. Conversely, the CPU 210 may read data from the memory 201 and store the data in an external storage medium via the memory interface 202. Since the external storage medium is the same as that of the server 100, the illustration is not repeated here.
通信インターフェイス206は、アンテナやコネクタによって実現される。通信インターフェイス206は、有線通信あるいは無線通信によって他の装置との間でデータをやり取りする。CPU210は、通信インターフェイス206を介して、他の装置から制御データなどのプログラム、画像データ、テキストデータなどを受信したり、他の装置に制御データなどのプログラム、画像データ、テキストデータを送信したりする。 The communication interface 206 is realized by an antenna or a connector. The communication interface 206 exchanges data with other devices by wired communication or wireless communication. The CPU 210 receives a program such as control data, image data, and text data from another device via the communication interface 206, or transmits a program such as control data, image data, and text data to another device. To do.
具体的には、CPU210は、通信インターフェイス206を利用することによってインターネットを介してサーバ100および複数のスマートフォン500A,500B,500Cとデータを送受信する。そして、CPU210は、通信インターフェイス206を利用することによって、直接的に(インターネットを介さずに)、エアコン300・テレビ400・洗濯機600などの複数の他の家電と複数のスマートフォン500A,500B,500Cとデータを送受信することもできる。 Specifically, CPU 210 transmits / receives data to / from server 100 and a plurality of smartphones 500A, 500B, and 500C via the Internet by using communication interface 206. The CPU 210 uses the communication interface 206 to directly (without via the Internet) a plurality of other home appliances such as the air conditioner 300, the television 400, and the washing machine 600 and the plurality of smartphones 500A, 500B, and 500C. You can also send and receive data.
スピーカ207は、CPU210からの信号に基づいて、音声を外部に出力する。マイク208は、外部からの音声を信号に変換し、当該信号をCPU210に入力する。 The speaker 207 outputs sound to the outside based on a signal from the CPU 210. The microphone 208 converts external sound into a signal and inputs the signal to the CPU 210.
時計209は、CPU210に、現在時刻を出力したり、所定のタイミングからの経過時間を出力したりする。 The clock 209 outputs the current time to the CPU 210 or outputs the elapsed time from a predetermined timing.
掃除制御回路220は、CPU210からの信号に基づいて、掃除機200の各部(モータなど)を制御する。
<エアコン300のハードウェア構成>
The cleaning control circuit 220 controls each part (such as a motor) of the cleaner 200 based on a signal from the CPU 210.
<Hardware configuration of air conditioner 300>
次に、エアコン300の具体的構成の一態様について説明する。図10は、本実施形態に係るエアコン300のハードウェア構成を表わすブロック図である。図10を参照して、エアコン300は、主たる構成要素として、CPU310と、メモリ301と、メモリインターフェイス302と、ボタン303と、ディスプレイ304(タッチパネル305でもよい。)と、通信インターフェイス306と、スピーカ307と、マイク308と、時計309と、エアコン制御回路320とを含む。 Next, an aspect of a specific configuration of the air conditioner 300 will be described. FIG. 10 is a block diagram illustrating a hardware configuration of the air conditioner 300 according to the present embodiment. Referring to FIG. 10, an air conditioner 300 includes, as main components, a CPU 310, a memory 301, a memory interface 302, a button 303, a display 304 (or touch panel 305), a communication interface 306, and a speaker 307. A microphone 308, a clock 309, and an air conditioner control circuit 320.
なお、CPU310と、メモリ301と、メモリインターフェイス302と、ボタン303と、ディスプレイ304と、通信インターフェイス306と、スピーカ307と、マイク308と、時計309とは、掃除機200のそれらと同様であるため、ここでは説明を繰り返さない。 Note that the CPU 310, the memory 301, the memory interface 302, the button 303, the display 304, the communication interface 306, the speaker 307, the microphone 308, and the clock 309 are the same as those of the cleaner 200. The description will not be repeated here.
エアコン制御回路320は、CPU310からの信号に基づいて、エアコン300の各部(コンプレッサなど)を制御する。
<テレビ400のハードウェア構成>
The air conditioner control circuit 320 controls each part (such as a compressor) of the air conditioner 300 based on a signal from the CPU 310.
<Hardware configuration of TV 400>
次に、テレビ400の具体的構成の一態様について説明する。図11は、本実施形態に係るテレビ400のハードウェア構成を表わすブロック図である。図11を参照して、テレビ400は、主たる構成要素として、CPU410と、メモリ401と、メモリインターフェイス402と、ボタン403と、ディスプレイ404(タッチパネル405でもよい。)と、通信インターフェイス406と、スピーカ407と、マイク408と、時計409と、テレビ制御回路420とを含む。 Next, an example of a specific configuration of the television 400 will be described. FIG. 11 is a block diagram illustrating a hardware configuration of the television 400 according to the present embodiment. Referring to FIG. 11, a television 400 includes, as main components, a CPU 410, a memory 401, a memory interface 402, a button 403, a display 404 (or touch panel 405), a communication interface 406, and a speaker 407. A microphone 408, a clock 409, and a television control circuit 420.
なお、CPU410と、メモリ401と、メモリインターフェイス402と、ボタン403と、ディスプレイ404と、通信インターフェイス406と、スピーカ407と、マイク408と、時計409とは、掃除機200のそれらと同様であるため、ここでは説明を繰り返さない。 Note that the CPU 410, the memory 401, the memory interface 402, the button 403, the display 404, the communication interface 406, the speaker 407, the microphone 408, and the clock 409 are the same as those of the cleaner 200. The description will not be repeated here.
テレビ制御回路420は、CPU410からの信号に基づいて、テレビ400の各部(RGB制御回路など)を制御する。
<スマートフォン500A,500B,500Cのハードウェア構成>
The television control circuit 420 controls each unit (such as an RGB control circuit) of the television 400 based on a signal from the CPU 410.
<Hardware configuration of smartphones 500A, 500B, 500C>
次に、スマートフォン500A,500B,500Cの具体的構成の一態様について説明する。図12は、本実施形態に係るスマートフォン500A,500B,500Cのハードウェア構成を表わすブロック図である。図12を参照して、スマートフォン500A,500B,500Cは、主たる構成要素として、CPU510と、メモリ501と、メモリインターフェイス502と、タッチパネル505(ボタン503とディスプレイ504であってもよい。)と、通信インターフェイス506と、スピーカ507と、マイク508と、時計509と、スマホ制御回路520とを含む。 Next, an aspect of a specific configuration of the smartphones 500A, 500B, and 500C will be described. FIG. 12 is a block diagram illustrating a hardware configuration of the smartphones 500A, 500B, and 500C according to the present embodiment. Referring to FIG. 12, smartphones 500A, 500B, and 500C communicate with CPU 510, memory 501, memory interface 502, touch panel 505 (may be button 503 and display 504) as main components. An interface 506, a speaker 507, a microphone 508, a clock 509, and a smartphone control circuit 520 are included.
なお、CPU510と、メモリ501と、メモリインターフェイス502と、タッチパネル505(ボタン503とディスプレイ504であってもよい。)と、通信インターフェイス506と、スピーカ507と、マイク508と、時計509とは、図1〜図6に示す動作および後述する機能および各ステップを実現するための主要な構成としては、掃除機200のそれらと同様であるため、ここでは説明を繰り返さない。 Note that the CPU 510, the memory 501, the memory interface 502, the touch panel 505 (the buttons 503 and the display 504), the communication interface 506, the speaker 507, the microphone 508, and the clock 509 are illustrated in the figure. The main configuration for realizing the operations shown in FIGS. 1 to 6 and the functions and steps described later are the same as those of the vacuum cleaner 200, and therefore description thereof will not be repeated here.
スマホ制御回路520は、CPU510からの信号に基づいて、スマートフォン500A,500B,500Cの各部(電話回路など)を制御する。
<洗濯機600のハードウェア構成>
The smartphone control circuit 520 controls each part (such as a telephone circuit) of the smartphones 500A, 500B, and 500C based on a signal from the CPU 510.
<Hardware configuration of washing machine 600>
次に、洗濯機600の具体的構成の一態様について説明する。図13は、本実施形態に係る洗濯機600のハードウェア構成を表わすブロック図である。図13を参照して、洗濯機600は、主たる構成要素として、CPU610と、メモリ601と、メモリインターフェイス602と、ボタン603と、ディスプレイ604(タッチパネル605でもよい。)と、通信インターフェイス606と、スピーカ607と、マイク608と、時計609と、洗濯制御回路620とを含む。 Next, an aspect of a specific configuration of the washing machine 600 will be described. FIG. 13 is a block diagram illustrating a hardware configuration of the washing machine 600 according to the present embodiment. Referring to FIG. 13, washing machine 600 includes, as main components, CPU 610, memory 601, memory interface 602, button 603, display 604 (or touch panel 605), communication interface 606, and speaker. 607, a microphone 608, a clock 609, and a washing control circuit 620.
なお、CPU610と、メモリ601と、メモリインターフェイス602と、ボタン603と、ディスプレイ604と、通信インターフェイス606と、スピーカ607と、マイク608と、時計609とは、掃除機200のそれらと同様であるため、ここでは説明を繰り返さない。 Note that the CPU 610, the memory 601, the memory interface 602, the button 603, the display 604, the communication interface 606, the speaker 607, the microphone 608, and the clock 609 are similar to those of the cleaner 200. The description will not be repeated here.
洗濯制御回路620は、CPU610からの信号に基づいて、洗濯機600の各部(モータなど)を制御する。
<ネットワークシステム1の処理手順>
The washing control circuit 620 controls each part (such as a motor) of the washing machine 600 based on a signal from the CPU 610.
<Processing procedure of network system 1>
次に、本実施形態に係るネットワークシステム1における処理手順について説明する。なお、図14は、本実施形態に係るネットワークシステム1における処理手順を示すシーケンス図である。図15は、本実施形態にかかるスマートフォン500A,500B,500Cの表示画面を示すイメージ図である。 Next, a processing procedure in the network system 1 according to the present embodiment will be described. FIG. 14 is a sequence diagram showing a processing procedure in the network system 1 according to the present embodiment. FIG. 15 is an image diagram showing display screens of the smartphones 500A, 500B, and 500C according to the present embodiment.
図14を参照して、掃除機200のCPU210は、マイク208を介して、ユーザからの音声が入力されたか否かを判断する(ステップS102)。CPU210は、ユーザからの音声が入力された場合(ステップS102にてYESの場合)、ユーザからの命令を認識できるか否かを判断する(ステップS104)。 Referring to FIG. 14, CPU 210 of cleaner 200 determines whether or not a voice from the user is input via microphone 208 (step S <b> 102). CPU210 determines whether the command from a user can be recognized, when the audio | voice from a user is input (in the case of YES in step S102) (step S104).
CPU210は、ユーザからの命令を認識できない場合(ステップS104にてNOの場合)、通信インターフェイス206を介して、入力された音声を示すデータ(たとえば、PCM(pulse code modulation)データ)をサーバ100に送信する(ステップS106)。サーバ100のCPU110は、通信インターフェイス106を介して、掃除機200から音声データを受信する(ステップS107)。サーバ100のCPU110は、受信した音声データに基づいて、ユーザからの命令を認識できるか否かを判断する(ステップS108)。CPU110は、ユーザからの命令を認識できた場合(ステップS108にてYESの場合)、ステップS112からの処理を実行する。 When CPU 210 cannot recognize the command from the user (NO in step S104), CPU 100 transmits data (for example, PCM (pulse code modulation) data) indicating the input voice via communication interface 206 to server 100. Transmit (step S106). CPU 110 of server 100 receives voice data from cleaner 200 via communication interface 106 (step S107). The CPU 110 of the server 100 determines whether or not the command from the user can be recognized based on the received voice data (step S108). CPU110 performs the process from step S112, when the command from a user is recognized (in the case of YES in step S108).
一方、掃除機200のCPU210は、ユーザからの命令を認識できた場合(ステップS104にてYESの場合)、当該命令をサーバ100に送信する(ステップS110)。サーバ100のCPU110は、通信インターフェイス106を介して、掃除機200から命令を受信する(ステップS111)。 On the other hand, when CPU 210 of vacuum cleaner 200 can recognize a command from the user (YES in step S104), it transmits the command to server 100 (step S110). CPU 110 of server 100 receives a command from cleaner 200 through communication interface 106 (step S111).
サーバ100のCPU110は、入力された命令に基づいて、命令の送信元(ここでは掃除機200)と命令とを、タイムラインのレコードとしてメモリ101に格納する(ステップS112)。CPU110は、通信インターフェイス106を介して、スマートフォン500A,500B,500Cにタイムラインのレコードとしてメッセージを送信する(ステップS114)。 Based on the input command, the CPU 110 of the server 100 stores the command transmission source (here, the cleaner 200) and the command as a timeline record in the memory 101 (step S112). The CPU 110 transmits a message as a timeline record to the smartphones 500A, 500B, and 500C via the communication interface 106 (step S114).
スマートフォン500A,500B,500CのCPU510は、通信インターフェイス506を介してメッセージを受信する(ステップS116)。図15に示すように、CPU510は、タッチパネル505に当該メッセージをタイムラインのレコードとして表示させる。 CPU 510 of smartphones 500A, 500B, and 500C receives the message via communication interface 506 (step S116). As illustrated in FIG. 15, the CPU 510 causes the touch panel 505 to display the message as a timeline record.
サーバ100のCPU110は、家電情報101Bを参照して、掃除機200に関連付けられている家電を特定する。たとえば、CPU110は、掃除機200とペアリング中の家電、掃除機200と同じ部屋の家電、または、掃除機200と同じ住所の家電を特定する。ここでは、CPU110は、エアコン300を選択したとする。 CPU110 of the server 100 specifies the household appliance linked | related with the vacuum cleaner 200 with reference to the household appliance information 101B. For example, the CPU 110 specifies a home appliance being paired with the cleaner 200, a home appliance in the same room as the cleaner 200, or a home appliance with the same address as the cleaner 200. Here, it is assumed that CPU 110 has selected air conditioner 300.
CPU110は、通信インターフェイス106を介して、エアコン300との接続を開始する(ステップS118)。エアコン300のCPU310は、通信インターフェイス306を介して、サーバ100との接続を開始する(ステップS120)。このとき、CPU110は、掃除機200とエアコン300とのペアリングを確認したり、両者をペアリングさせたりしてもよい。 CPU 110 starts connection with air conditioner 300 via communication interface 106 (step S118). The CPU 310 of the air conditioner 300 starts connection with the server 100 via the communication interface 306 (step S120). At this time, CPU110 may confirm pairing with the vacuum cleaner 200 and the air conditioner 300, or may make both pair.
CPU110は、メモリ101から、あるいは他のサーバから、各種データ(天気予報など)を取得する(ステップS122)。CPU110は、各種データを参照しながら、制御命令データベース101Aに基づいて、掃除機200が受け付けた命令(第1の家電に対する命令)に応答して動作すべき複数の家電のための一連の制御データ(第2の家電に対する指示)を作成する(ステップS124)。 CPU110 acquires various data (weather forecast etc.) from memory 101 or other servers (Step S122). CPU 110 refers to a variety of data and, based on control command database 101A, a series of control data for a plurality of home appliances that should operate in response to a command received by cleaner 200 (a command for the first home appliance). (Instruction for the second home appliance) is created (step S124).
CPU110は、作成した一連の制御データに基づいて、通信インターフェイス106を介して掃除機200に対する制御データを掃除機200に送信する(ステップS126)。掃除機200のCPU210は、通信インターフェイス206を介してサーバ100から制御データを受信する(ステップS128)。CPU210は、受信した制御データに基づいて、掃除機200の各部を制御する(ステップS130)。CPU210は、制御データに関する制御が完了すると、通信インターフェイス206を介して完了通知をサーバ100に送信する(ステップS132)。サーバ100のCPU110は、通信インターフェイス106を介して完了通知を受信する(ステップS134)。 CPU110 transmits the control data with respect to the cleaner 200 to the cleaner 200 via the communication interface 106 based on the created series of control data (step S126). The CPU 210 of the cleaner 200 receives control data from the server 100 via the communication interface 206 (step S128). CPU 210 controls each part of cleaner 200 based on the received control data (step S130). When the control related to the control data is completed, the CPU 210 transmits a completion notification to the server 100 via the communication interface 206 (step S132). The CPU 110 of the server 100 receives the completion notification via the communication interface 106 (step S134).
CPU110は、完了通知に基づいて、制御を完了した家電(ここでは掃除機200)と制御の内容とを、タイムラインのレコードとしてメモリ101に格納する(ステップS136)。CPU110は、通信インターフェイス106を介して、スマートフォン500A,500B,500Cにタイムラインのレコードとしてメッセージを送信する(ステップS138)。 Based on the completion notification, the CPU 110 stores, in the memory 101, the home appliance that has completed the control (here, the vacuum cleaner 200) and the content of the control as a timeline record (step S136). The CPU 110 transmits a message as a timeline record to the smartphones 500A, 500B, and 500C via the communication interface 106 (step S138).
スマートフォン500A,500B,500CのCPU510は、通信インターフェイス506を介してメッセージを受信する(ステップS140)。図15に示すように、CPU510は、タッチパネル505に当該メッセージをタイムラインのレコードとして表示させる。 CPU 510 of smartphones 500A, 500B, 500C receives the message via communication interface 506 (step S140). As illustrated in FIG. 15, the CPU 510 causes the touch panel 505 to display the message as a timeline record.
CPU110は、作成した一連の制御データに基づいて、通信インターフェイス106を介してエアコン300に対する制御データ(第2の家電に対する指示)をエアコン300に送信する(ステップS142)。エアコン300のCPU310は、通信インターフェイス306を介してサーバ100から制御データを受信する(ステップS144)。CPU310は、受信した制御データに基づいて、エアコン300の各部を制御する(ステップS146)。CPU310は、制御データに関する制御が完了すると、通信インターフェイス306を介して完了通知をサーバ100に送信する(ステップS148)。サーバ100のCPU110は、通信インターフェイス106を介して完了通知を受信する(ステップS150)。 Based on the created series of control data, CPU 110 transmits control data for air conditioner 300 (instruction for the second home appliance) to air conditioner 300 via communication interface 106 (step S142). The CPU 310 of the air conditioner 300 receives control data from the server 100 via the communication interface 306 (step S144). CPU 310 controls each part of air conditioner 300 based on the received control data (step S146). When the control relating to the control data is completed, the CPU 310 transmits a completion notification to the server 100 via the communication interface 306 (step S148). The CPU 110 of the server 100 receives the completion notification via the communication interface 106 (step S150).
CPU110は、完了通知に基づいて、制御を完了した家電(ここではエアコン300)と制御の内容とを、タイムラインのレコードとしてメモリ101に格納する(ステップS152)。CPU110は、通信インターフェイス106を介して、スマートフォン500A,500B,500Cにタイムラインのレコードとしてメッセージを送信する(ステップS154)。 Based on the completion notification, the CPU 110 stores the control-completed home appliance (here, the air conditioner 300) and the control content in the memory 101 as a timeline record (step S152). CPU 110 transmits a message as a timeline record to smartphones 500A, 500B, and 500C via communication interface 106 (step S154).
スマートフォン500A,500B,500CのCPU510は、通信インターフェイス506を介してメッセージを受信する(ステップS156)。図15に示すように、CPU510は、タッチパネル505に当該メッセージをタイムラインのレコードとして表示させる。 CPU 510 of smartphones 500A, 500B, 500C receives the message via communication interface 506 (step S156). As illustrated in FIG. 15, the CPU 510 causes the touch panel 505 to display the message as a timeline record.
サーバ100と掃除機200とエアコン300とスマートフォン500A,500B,500Cとは、作成された一連の制御データに基づいて、掃除機200に入力された命令に対応する、掃除機200に対する全ての制御が完了するまでステップS126〜ステップS140の処理を繰り返し、エアコン300に対する全ての制御が完了するまでステップS142〜ステップS156の処理を繰り返す。
<家電の連携動作>
The server 100, the vacuum cleaner 200, the air conditioner 300, and the smartphones 500A, 500B, and 500C perform all the controls for the vacuum cleaner 200 corresponding to the commands input to the vacuum cleaner 200 based on the series of control data created. The processes in steps S126 to S140 are repeated until completion, and the processes in steps S142 to S156 are repeated until all the controls for air conditioner 300 are completed.
<Cooperation between home appliances>
次に、本実施形態に係るネットワークシステム1における複数の家電の連携動作の一例についてより詳しく説明する。具体的には、図14のステップS102にて掃除機200がユーザから「掃除して。」という命令を受け付けた場合における図14のステップS126以降の繰り返しステップ群(連携ステップ)について詳しく説明する。図16は、本実施形態に係るネットワークシステム1における家電の連携動作の一例の処理手順を示すシーケンス図である。 Next, an example of a cooperative operation of a plurality of home appliances in the network system 1 according to the present embodiment will be described in more detail. Specifically, the repeated step group (cooperation step) after step S126 in FIG. 14 when the cleaner 200 receives an instruction “clean it” from the user in step S102 in FIG. 14 will be described in detail. FIG. 16 is a sequence diagram illustrating an example of a processing procedure of a home appliance cooperation operation in the network system 1 according to the present embodiment.
図16を参照して、CPU110は、掃除機200に対する制御データに含まれる時間に達したか否かを判断する(ステップS1261)。具体的には、CPU110は、時計109を参照して、ステップS124で作成した一連の制御データの実行開始時からの経過時間が、制御データに指定される時間に達したか否かを判断する(ステップS1261)。CPU110は、経過時間が制御データに指定される時間に達した場合(ステップS1261にてYESの場合)、通信インターフェイス106を介して掃除機200に対する制御データを送信する(ステップS1262) Referring to FIG. 16, CPU 110 determines whether or not the time included in the control data for cleaner 200 has been reached (step S1261). Specifically, CPU 110 refers to clock 109 to determine whether the elapsed time from the start of execution of the series of control data created in step S124 has reached the time specified in the control data. (Step S1261). When the elapsed time reaches the time specified in the control data (YES in step S1261), CPU 110 transmits control data for cleaner 200 via communication interface 106 (step S1262).
CPU210は、通信インターフェイス206を介してサーバ100から制御データを受信する(ステップS1263)。CPU210は、スピーカ207に「わかりました。窓を開けてはいかが?」という音声を発生させる(ステップS1264)。CPU210は、マイク208を介して、ユーザからの音声を待ち受ける(ステップS1265)。 CPU 210 receives control data from server 100 via communication interface 206 (step S1263). CPU 210 causes speaker 207 to generate a sound “Okay! How about opening a window?” (Step S1264). CPU 210 waits for a voice from the user via microphone 208 (step S1265).
CPU210は、ユーザからの音声(たとえば、「OK!!」または「嫌です。」)が入力されると(ステップS1265にてYESの場合)、通信インターフェイス206を介して当該音声を表す音声データをサーバ100に送信する(ステップS1266)。サーバ100のCPU110は、通信インターフェイス106を介して掃除機200からの音声データを受信する(ステップS1267)。より詳細には、ここでサーバ100およびスマートフォン500A,500B,500Cとは、図14のステップS136〜ステップS140の処理(図15も参照。)を実行するが、説明が煩雑になるためここでは説明を繰り返さない。 When the voice (for example, “OK !!!!” or “I don't like it”) from the user is input (YES in step S1265), CPU 210 receives voice data representing the voice via communication interface 206. It transmits to the server 100 (step S1266). CPU 110 of server 100 receives voice data from cleaner 200 via communication interface 106 (step S1267). More specifically, the server 100 and the smartphones 500A, 500B, and 500C execute the processing of steps S136 to S140 in FIG. 14 (see also FIG. 15). Do not repeat.
CPU110は、ユーザからの音声が肯定的なものである場合(ステップS1268にてYESの場合)、通信インターフェイス106を介して掃除機200に対する次の制御データを送信する(ステップS1269)。掃除機200のCPU210は、通信インターフェイス206を介して、サーバ100から制御データを受信する(ステップS1270)。CPU210は、掃除制御回路220を介して掃除機200の各部を制御することによって掃除を開始する(ステップS1271)。 CPU110 transmits the next control data with respect to the cleaner 200 via the communication interface 106, when the audio | voice from a user is affirmative (in the case of YES in step S1268) (step S1269). The CPU 210 of the cleaner 200 receives control data from the server 100 via the communication interface 206 (step S1270). CPU210 starts cleaning by controlling each part of the cleaner 200 via the cleaning control circuit 220 (step S1271).
一方、サーバ100のCPU110は、ユーザからの音声が否定的なものである場合(ステップS1268にてNOの場合)、次の制御(ここでは、図8の制御(1)とする)に移行する。すなわち、CPU110は、経過時間が5秒を経過しているか否かを判断する(ステップS1272)。CPU110は、経過時間が5秒を経過している場合(ステップS1272にてYESの場合)、通信インターフェイス106を介して制御(1)のデータを掃除機200に送信する(ステップS1273)。 On the other hand, if the voice from the user is negative (NO in step S1268), CPU 110 of server 100 proceeds to the next control (here, control (1) in FIG. 8). . That is, the CPU 110 determines whether or not the elapsed time has passed 5 seconds (step S1272). CPU110 transmits the data of control (1) to the vacuum cleaner 200 via the communication interface 106, when elapsed time has passed 5 seconds (in the case of YES in step S1272) (step S1273).
掃除機200のCPU210は、通信インターフェイス206を介してサーバ100から制御(1)のデータを受信する(ステップS1274)。CPU210は、スピーカ207に「エアコンさん、掃除をするからイオンを出して。」という音声を発生させる(ステップS1275)。つまり、本実施形態においては、掃除機200(第1の家電)が発する指示の中に、エアコン300(第2の家電)を特定するための情報が含まれる。 The CPU 210 of the cleaner 200 receives the control (1) data from the server 100 via the communication interface 206 (step S1274). The CPU 210 causes the speaker 207 to generate a voice saying “Air conditioner, I'm going to clean out the ions.” (Step S1275). That is, in this embodiment, information for specifying the air conditioner 300 (second home appliance) is included in the instruction issued by the cleaner 200 (first home appliance).
CPU210は、音声の発生が完了すると、通信インターフェイス206を介して制御(1)の完了通知をサーバ100に送信する(ステップS1276)。サーバ100のCPU110は、通信インターフェイス106を介して掃除機200から制御(1)の完了通知を受信する(ステップS1277)。より詳細には、ここでサーバ100およびスマートフォン500A,500B,500Cとは、図14のステップS136〜ステップS140の処理(図15も参照。)を実行するが、煩雑になるためここでは説明を繰り返さない。 When the generation of the sound is completed, the CPU 210 transmits a control (1) completion notification to the server 100 via the communication interface 206 (step S1276). CPU 110 of server 100 receives notification of completion of control (1) from cleaner 200 via communication interface 106 (step S1277). More specifically, the server 100 and the smartphones 500A, 500B, and 500C execute the processes in steps S136 to S140 in FIG. 14 (see also FIG. 15), but the description is repeated here because it becomes complicated. Absent.
サーバ100のCPU110は、次の制御(ここでは、図8の制御(2)とする)に移行する。すなわち、CPU110は、経過時間が10秒を経過しているか否かを判断する(ステップS1278)。CPU110は、経過時間が10秒を経過している場合(ステップS1278にてYESの場合)、通信インターフェイス106を介して制御(2)のデータをエアコン300に送信する(ステップS1279)。 The CPU 110 of the server 100 shifts to the next control (here, control (2) in FIG. 8). That is, CPU 110 determines whether or not the elapsed time has passed 10 seconds (step S1278). If the elapsed time has passed 10 seconds (YES in step S1278), CPU 110 transmits control (2) data to air conditioner 300 via communication interface 106 (step S1279).
エアコン300のCPU310は、通信インターフェイス306を介してサーバ100から制御(2)のデータを受信する(ステップS1280)。CPU310は、スピーカ307に「掃除機さん、わかった。イオンを出すね。」という音声を発生させる(ステップS1281)。CPU310は、音声の発生が完了すると、通信インターフェイス306を介して制御(2)の完了通知をサーバ100に送信する(ステップS1282)。サーバ100のCPU110は、通信インターフェイス106を介してエアコン300から制御(2)の完了通知を受信する(ステップS1283)。より詳細には、ここでサーバ100およびスマートフォン500A,500B,500Cとは、図14のステップS152〜ステップS158の処理(図15も参照。)を実行するが、煩雑になるためここでは説明を繰り返さない。 The CPU 310 of the air conditioner 300 receives control (2) data from the server 100 via the communication interface 306 (step S1280). The CPU 310 causes the speaker 307 to generate a sound “You know, cleaner. I'm going to emit ions” (step S1281). When the generation of the sound is completed, the CPU 310 transmits a control (2) completion notification to the server 100 via the communication interface 306 (step S1282). CPU 110 of server 100 receives notification of completion of control (2) from air conditioner 300 via communication interface 106 (step S1283). More specifically, the server 100 and the smartphones 500A, 500B, and 500C execute the processes in steps S152 to S158 in FIG. 14 (see also FIG. 15), but the description is repeated here because it becomes complicated. Absent.
図16においては、掃除機200に対する1つの制御に関する処理と、エアコン300に対する1つの制御に関する処理とを記載している。しかしながら、サーバ100と掃除機200とエアコン300とスマートフォン500A,500B,500Cとは、掃除機200に入力された命令に対応する、掃除機200に対する全ての(他の複数の)制御が完了するまでステップS1272〜ステップS1277の処理を繰り返し、エアコン300に対する全ての(他の複数の)制御が完了するまでステップS1278〜ステップS1282の処理を繰り返す。 In FIG. 16, the process regarding one control with respect to the cleaner 200 and the process regarding one control with respect to the air conditioner 300 are described. However, the server 100, the cleaner 200, the air conditioner 300, and the smartphones 500 </ b> A, 500 </ b> B, and 500 </ b> C complete all (other) controls on the cleaner 200 corresponding to the command input to the cleaner 200. The processing from step S1272 to step S1277 is repeated, and the processing from step S1278 to step S1282 is repeated until all (other plural) controls for the air conditioner 300 are completed.
このように、本実施形態にかかるネットワークシステム1では、複数の家電が他の家電に対して話しかけるものであって、家電がユーザに情報を伝達するだけのものではない。また、家電同士が話している間は、ユーザは自分に話しかけられていないように感じるために、ユーザは家電に関してより人間らしさを感じ易くなる。
<第2の実施形態>
As described above, in the network system 1 according to the present embodiment, a plurality of home appliances talk to other home appliances, and the home appliances do not merely transmit information to the user. In addition, while the home appliances are talking to each other, the user feels as if they are not talking to him / her, so that the user can more easily feel humanity regarding the home appliance.
<Second Embodiment>
上記第1の実施形態においては、ユーザが掃除機200に命令を入力するものであった。しかしながら、ユーザは、スマートフォン500A,500B,500Cに命令を入力することも可能である。たとえば、ユーザは、スマートフォン500Aのマイク508に向かって「掃除して」という音声を入力する。以下、具体的に説明する。 In the first embodiment, the user inputs a command to the cleaner 200. However, the user can also input a command to the smartphones 500A, 500B, and 500C. For example, the user inputs a voice “cleaned” toward the microphone 508 of the smartphone 500A. This will be specifically described below.
図17を参照して、スマートフォン500AのCPU510は、マイク508を介して、ユーザからの音声が入力されたか否かを判断する(ステップS101)。CPU510は、ユーザからの音声が入力された場合(ステップS101にてYESの場合)、ユーザからの命令を認識できるか否かを判断する(ステップS103)。 Referring to FIG. 17, CPU 510 of smartphone 500 </ b> A determines whether or not a voice from the user is input via microphone 508 (step S <b> 101). CPU510 judges whether the command from a user can be recognized, when the voice from a user is inputted (in the case of YES at Step S101) (Step S103).
CPU510は、ユーザからの命令を認識できない場合(ステップS103にてNOの場合)、通信インターフェイス506を介して、入力された音声を示すデータ(たとえば、PCM(pulse code modulation)データ)をサーバ100に送信する(ステップS105)。サーバ100のCPU110は、通信インターフェイス106を介して、スマートフォン500Aから音声データを受信する(ステップS107)。サーバ100のCPU110は、受信した音声データに基づいて、ユーザからの命令を認識できるか否かを判断する(ステップS108)。CPU110は、ユーザからの命令を認識できた場合(ステップS108にてYESの場合)、ステップS112からの処理を実行する。 If CPU 510 cannot recognize the command from the user (NO in step S103), data indicating the input voice (for example, PCM (pulse code modulation) data) is transmitted to server 100 via communication interface 506. Transmit (step S105). The CPU 110 of the server 100 receives audio data from the smartphone 500A via the communication interface 106 (step S107). The CPU 110 of the server 100 determines whether or not the command from the user can be recognized based on the received voice data (step S108). CPU110 performs the process from step S112, when the command from a user is recognized (in the case of YES in step S108).
一方、スマートフォン500AのCPU510は、ユーザからの命令を認識できた場合(ステップS103にてYESの場合)、当該命令をサーバ100に送信する(ステップS109)。サーバ100のCPU110は、通信インターフェイス106を介して、スマートフォン500Aから命令を受信する(ステップS111)。 On the other hand, when CPU 510A of smartphone 500A can recognize the command from the user (YES in step S103), it transmits the command to server 100 (step S109). CPU 110 of server 100 receives a command from smartphone 500A via communication interface 106 (step S111).
サーバ100のCPU110は、入力された命令に基づいて、命令の送信元(ここではスマートフォン500A)と命令とを、タイムラインのレコードとしてメモリ101に格納する(ステップS112)。CPU110は、通信インターフェイス106を介して、スマートフォン500A,500B,500Cにタイムラインのレコードとしてメッセージを送信する(ステップS114)。 Based on the input command, the CPU 110 of the server 100 stores the command transmission source (smart phone 500A in this case) and the command in the memory 101 as a timeline record (step S112). The CPU 110 transmits a message as a timeline record to the smartphones 500A, 500B, and 500C via the communication interface 106 (step S114).
これ以降の処理および複数の家電の連携動作の一例については、第1の実施形態のそれらと同様であるため、ここでは説明を繰り返さない。たとえば、掃除機200は、ステップS130において、「解りました」という音声を発生する。あるいは、スマートフォン500Aが、ステップS140において、タイムラインとして、「解りました」という掃除機200のメッセージを表示したり音声を発したりする。
<第3の実施形態>
Since an example of the subsequent processing and the cooperative operation of a plurality of home appliances is the same as those in the first embodiment, description thereof will not be repeated here. For example, the vacuum cleaner 200 generates a sound “I understand” in step S130. Alternatively, the smartphone 500A displays a message of the cleaner 200 “I understand” or makes a sound as a timeline in step S140.
<Third Embodiment>
上記第1の実施形態においては、CPU110は、掃除機200からの完了通知を受け取り、かつ経過時間が制御データに対応付けられた実行時間に達したときに、次の制御に進んでいる。しかしながら、CPU110は、掃除機200からの完了通知を受け取ったときに次の制御に進んでも良い。すなわち、予め制御毎の実行時間が指定されていない形態であってもよい。具体的には、図16において、CPU110は、ステップS1272およびステップS1278の処理を実行しなくてもよい。
<第4の実施形態>
In the first embodiment, the CPU 110 proceeds to the next control when the completion notification from the cleaner 200 is received and the elapsed time reaches the execution time associated with the control data. However, the CPU 110 may proceed to the next control when receiving a completion notification from the cleaner 200. That is, the execution time for each control may not be specified in advance. Specifically, in FIG. 16, CPU 110 does not have to execute the processes of steps S1272 and S1278.
<Fourth Embodiment>
逆に、CPU110は、経過時間に基づいて次の制御に進んでもよい。すなわち、CPU110は、完了通知の受信の有無にかかわらずに、経過時間が実行時間に達したときに次の制御へと進む形態であってもよい。たとえば、図16において、CPU110およびCPU210は、ステップS1276、ステップS1277、ステップS1282、ステップS1283の処理を実行しなくてもよい。
<第5の実施形態>
Conversely, the CPU 110 may proceed to the next control based on the elapsed time. That is, the CPU 110 may be configured to proceed to the next control when the elapsed time reaches the execution time regardless of whether or not the completion notification is received. For example, in FIG. 16, the CPU 110 and the CPU 210 may not execute the processes of step S1276, step S1277, step S1282, and step S1283.
<Fifth Embodiment>
さらに、以下のような連携方法を採用してもよい。すなわち、エアコン300のCPU310が、マイク308から掃除機200の音声を取得する。CPU310は、当該音声を解析することによって、当該音声の内容と音声出力の完了とを認識する。CPU110は、認識に成功したときに、スピーカ307から音声を出力させ始めてもよい。いずれにしても、掃除機200(第1の家電)が音声を出力し終わった後で、エアコン300(第2の家電)が音声を出力し始めればよい。
<第6の実施形態>
Further, the following cooperation method may be adopted. That is, the CPU 310 of the air conditioner 300 acquires the sound of the cleaner 200 from the microphone 308. The CPU 310 recognizes the content of the sound and the completion of the sound output by analyzing the sound. The CPU 110 may start outputting sound from the speaker 307 when the recognition is successful. In any case, after the cleaner 200 (first home appliance) finishes outputting the sound, the air conditioner 300 (second home appliance) may start outputting the sound.
<Sixth Embodiment>
次に、第6の実施形態について説明する。上述の第1〜第5の実施形態に係るネットワークシステム1では、サーバ100が、制御毎に、制御データを対応する家電に送信するものであった。しかしながら、本実施形態においては、サーバ100が、所定の家電に一連の制御データを送信し、当該所定の家電が制御毎に制御データを対応する家電に送信するものであって、第1〜第5の実施形態と比較してサーバ100の役割を低減させたものである。なお、両者は、ユーザから見える家電の動きと、ユーザに聞こえる家電からの音声に関しては同じである。 Next, a sixth embodiment will be described. In the network system 1 according to the first to fifth embodiments described above, the server 100 transmits control data to a corresponding home appliance for each control. However, in this embodiment, the server 100 transmits a series of control data to a predetermined home appliance, and the predetermined home appliance transmits control data to the corresponding home appliance for each control. Compared with the fifth embodiment, the role of the server 100 is reduced. In addition, both are the same regarding the movement of the household appliance which a user sees, and the audio | voice from the household appliance which a user hears.
まず、本実施形態に係るネットワークシステム1の全体構成は、図1〜図6に示す第1の実施形態と同様であるため、ここでは説明を繰り返さない。 First, the overall configuration of the network system 1 according to the present embodiment is the same as that of the first embodiment shown in FIGS. 1 to 6, and therefore description thereof will not be repeated here.
また、本実施形態に係るネットワークシステム1の動作概要も、図1〜図6に示す第1の実施形態と同様であるため、ここでは説明を繰り返さない。すなわち、本実施形態にかかるネットワークシステム1も、複数の家電同士が会話をするものであって、家電がユーザに情報を伝達するだけのものではない。 Moreover, since the operation | movement outline | summary of the network system 1 which concerns on this embodiment is the same as that of 1st Embodiment shown in FIGS. 1-6, description is not repeated here. In other words, the network system 1 according to the present embodiment is also one in which a plurality of home appliances have a conversation with each other, and the home appliance does not only transmit information to the user.
また、サーバ100、掃除機200、エアコン300、テレビ400、洗濯機600、スマートフォン500A,500B,500Cのハードウェア構成については、第1の実施形態のそれと同様であるため、ここでは説明を繰り返さない。
<ネットワークシステム1の処理手順>
In addition, the hardware configuration of the server 100, the vacuum cleaner 200, the air conditioner 300, the television 400, the washing machine 600, and the smartphones 500A, 500B, and 500C is the same as that of the first embodiment, and thus description thereof will not be repeated here. .
<Processing procedure of network system 1>
以下では、本実施形態に係るネットワークシステム1における処理手順について説明する。図18は、本実施形態に係るネットワークシステム1における処理手順を示すシーケンス図である。なお、図14および図18に示すように、本実施形態におけるステップS202からS216までの処理は、第1の実施形態におけるステップS102からステップS116までの処理と同様であるため、ここでは説明を繰りかえさない。 Below, the process sequence in the network system 1 which concerns on this embodiment is demonstrated. FIG. 18 is a sequence diagram showing a processing procedure in the network system 1 according to the present embodiment. As shown in FIGS. 14 and 18, the processing from step S202 to S216 in the present embodiment is the same as the processing from step S102 to step S116 in the first embodiment, and therefore description thereof will be repeated here. I will not return.
図18を参照して、CPU110は、通信インターフェイス106を介して、エアコン300との接続を開始するとともに、掃除機200とエアコン300とのペアリングを確認したり、両者をペアリングさせたりする(ステップS218)。すなわち、掃除機200は、エアコン300とのペアリングを確認したり、ペアリングを開始したりする(ステップS219)。エアコン300は、掃除機200とのペアリングを確認したり、ペアリングを開始したりする(ステップS220)。 Referring to FIG. 18, CPU 110 starts connection with air conditioner 300 via communication interface 106, confirms pairing between cleaner 200 and air conditioner 300, and causes both to pair ( Step S218). That is, the vacuum cleaner 200 confirms pairing with the air conditioner 300 or starts pairing (step S219). The air conditioner 300 confirms pairing with the cleaner 200 or starts pairing (step S220).
CPU110は、メモリ101から、あるいは他のサーバから、各種データ(天気予報など)を取得する(ステップS222)。CPU110は、各種データを参照しながら、制御命令データベース101Aに基づいて、掃除機200が受け付けた命令(第1の家電に対する命令)に応答して動作すべき複数の家電のための一連の制御データ(第2の家電に対する指示)を作成する(ステップS224)。 CPU110 acquires various data (weather forecast etc.) from the memory 101 or another server (step S222). CPU 110 refers to a variety of data and, based on control command database 101A, a series of control data for a plurality of home appliances that should operate in response to a command received by cleaner 200 (a command for the first home appliance). (Instruction for the second home appliance) is created (step S224).
サーバ100のCPU110は、通信インターフェイス106を介して、作成した一連の制御データ(掃除機200に対する命令とエアコン300に対する命令とを含む。)を掃除機200に送信する(ステップS226)。掃除機200のCPU210は、通信インターフェイス206を介してサーバ100から一連の制御データを受信する(ステップS228)。CPU210は、受信した一連の制御データのうちの最初の制御データに基づいて、掃除機200の各部を制御する(ステップS230)。CPU210は、制御データに関する制御が完了すると、通信インターフェイス206を介して完了通知をサーバ100に送信する(ステップS232)。サーバ100のCPU110は、通信インターフェイス106を介して完了通知を受信する(ステップS234)。 The CPU 110 of the server 100 transmits the created series of control data (including a command for the cleaner 200 and a command for the air conditioner 300) to the cleaner 200 via the communication interface 106 (step S226). CPU 210 of cleaner 200 receives a series of control data from server 100 via communication interface 206 (step S228). CPU 210 controls each part of cleaner 200 based on the first control data in the received series of control data (step S230). When the control regarding the control data is completed, the CPU 210 transmits a completion notification to the server 100 via the communication interface 206 (step S232). The CPU 110 of the server 100 receives the completion notification via the communication interface 106 (step S234).
CPU110は、完了通知に基づいて、制御を完了した家電(ここでは掃除機200)と制御の内容とを、タイムラインのレコードとしてメモリ101に格納する(ステップS236)。CPU110は、通信インターフェイス106を介して、スマートフォン500A,500B,500Cにタイムラインのレコードとしてメッセージを送信する(ステップS238)。 Based on the completion notification, the CPU 110 stores the home appliance that has completed the control (here, the vacuum cleaner 200) and the content of the control in the memory 101 as a timeline record (step S236). CPU 110 transmits a message as a timeline record to smartphones 500A, 500B, and 500C via communication interface 106 (step S238).
スマートフォン500A,500B,500CのCPU510は、通信インターフェイス506を介してメッセージを受信する(ステップS240)。図15に示すように、CPU510は、タッチパネル505に当該メッセージをタイムラインのレコードとして表示させる。 CPU 510 of smartphones 500A, 500B, 500C receives the message via communication interface 506 (step S240). As illustrated in FIG. 15, the CPU 510 causes the touch panel 505 to display the message as a timeline record.
掃除機200のCPU210は、一連の制御データに基づいて、通信インターフェイス206を介してエアコン300に対する制御データをエアコン300に送信する(ステップS242)。エアコン300のCPU310は、通信インターフェイス306を介して掃除機200から制御データを受信する(ステップS244)。CPU310は、受信した制御データに基づいて、エアコン300の各部を制御する(ステップS246)。CPU310は、制御データに関する制御が完了すると、通信インターフェイス306を介して完了通知を掃除機200とサーバ100とに送信する(ステップS248)。 The CPU 210 of the cleaner 200 transmits control data for the air conditioner 300 to the air conditioner 300 via the communication interface 206 based on the series of control data (step S242). CPU 310 of air conditioner 300 receives control data from cleaner 200 via communication interface 306 (step S244). CPU 310 controls each part of air conditioner 300 based on the received control data (step S246). When the control relating to the control data is completed, CPU 310 transmits a completion notification to cleaner 200 and server 100 via communication interface 306 (step S248).
サーバ100のCPU110は、通信インターフェイス106を介して完了通知を受信する(ステップS250)。掃除機200のCPU210は、通信インターフェイス206を介して、エアコン300から完了通知を受信する(ステップS252)。なお、エアコン300は、完了通知をサーバ100には送らずに、掃除機200のみに送信してもよい。この場合は、掃除機200のCPU210が、通信インターフェイス206を介して、エアコン300の制御に関する完了通知をサーバ100に送信する。 The CPU 110 of the server 100 receives the completion notification via the communication interface 106 (step S250). The CPU 210 of the cleaner 200 receives a completion notification from the air conditioner 300 via the communication interface 206 (step S252). The air conditioner 300 may transmit the completion notification only to the cleaner 200 without sending it to the server 100. In this case, the CPU 210 of the cleaner 200 transmits a completion notification related to the control of the air conditioner 300 to the server 100 via the communication interface 206.
サーバ100のCPU110は、完了通知に基づいて、制御を完了した家電(ここではエアコン300)と制御の内容とを、タイムラインのレコードとしてメモリ101に格納する(ステップS254)。CPU110は、通信インターフェイス106を介して、スマートフォン500A,500B,500Cにタイムラインのレコードとしてメッセージを送信する(ステップS256)。 Based on the completion notification, the CPU 110 of the server 100 stores the control-completed home appliance (here, the air conditioner 300) and the control content in the memory 101 as a timeline record (step S254). The CPU 110 transmits a message as a timeline record to the smartphones 500A, 500B, and 500C via the communication interface 106 (step S256).
スマートフォン500A,500B,500CのCPU510は、通信インターフェイス506を介してメッセージを受信する(ステップS258)。図15に示すように、CPU510は、タッチパネル505に当該メッセージをタイムラインのレコードとして表示させる。 CPU 510 of smartphones 500A, 500B, 500C receives the message via communication interface 506 (step S258). As illustrated in FIG. 15, the CPU 510 causes the touch panel 505 to display the message as a timeline record.
サーバ100と掃除機200とエアコン300とスマートフォン500A,500B,500Cとは、掃除機200に入力された命令に対応する、掃除機200に対する全ての制御が完了するまでステップS230〜ステップS240の処理を繰り返し、エアコン300に対する全ての制御が完了するまでステップS242〜ステップS258の処理を繰り返す。
<家電の連携動作>
The server 100, the cleaner 200, the air conditioner 300, and the smartphones 500A, 500B, and 500C perform the processes of Steps S230 to S240 until all the controls for the cleaner 200 corresponding to the command input to the cleaner 200 are completed. The processes in steps S242 to S258 are repeated until all the controls for the air conditioner 300 are repeated.
<Cooperation between home appliances>
次に、本実施形態に係るネットワークシステム1における複数の家電の連携動作の一例についてより詳しく説明する。具体的には、図18のステップS202にて掃除機200がユーザから「掃除して。」という命令を受け付けた場合における図18のステップS226以降の繰り返しステップ群(連携ステップ)について詳しく説明する。図19は、本実施形態に係るネットワークシステム1における家電の連携動作の一例の処理手順を示すシーケンス図である。 Next, an example of a cooperative operation of a plurality of home appliances in the network system 1 according to the present embodiment will be described in more detail. Specifically, the repeated step group (cooperation step) after step S226 in FIG. 18 when the cleaner 200 receives an instruction “clean it” from the user in step S202 in FIG. 18 will be described in detail. FIG. 19 is a sequence diagram illustrating an example of a processing procedure of a home appliance cooperation operation in the network system 1 according to the present embodiment.
図19を参照して、CPU210は、掃除機200に対する制御データに含まれる時間に達したか否かを判断する(ステップS2301)。具体的には、CPU210は、時計209を参照して、ステップS228で受信した一連の制御データの開始からの経過時間が、制御データに指定される時間に達したか否かを判断する。CPU210は、経過時間が制御データに指定される時間に達した場合(ステップS2301にてYESの場合)、スピーカ207に「わかりました。窓を開けてはいかが?」という音声を発生させる(ステップS2302)。CPU210は、マイク208を介して、ユーザからの音声を待ち受ける(ステップS2303)。 Referring to FIG. 19, CPU 210 determines whether or not the time included in the control data for cleaner 200 has been reached (step S2301). Specifically, the CPU 210 refers to the clock 209 and determines whether or not the elapsed time from the start of the series of control data received in step S228 has reached the time specified in the control data. When the elapsed time reaches the time specified in the control data (YES in step S2301), CPU 210 generates a sound “Okay, please open the window?” On speaker 207 (step S2301). S2302). CPU 210 waits for a voice from the user via microphone 208 (step S2303).
CPU210は、ユーザからの音声(たとえば、「OK!!」または「嫌です。」)が入力されると(ステップS2303にてYESの場合)、ユーザからの音声が肯定的なものであるか否かを判断する(ステップS2304)。CPU210は、ユーザからの音声が肯定的なものである場合(ステップS2304にてYESの場合)、掃除制御回路220を介して掃除機200の各部を制御することによって掃除を開始する(ステップS2305)。 When the voice from the user (for example, “OK !!” or “I don't like it”) is input (if YES in step S2303), CPU 210 determines whether or not the voice from the user is positive. Is determined (step S2304). If the voice from the user is positive (YES in step S2304), CPU 210 starts cleaning by controlling each part of cleaner 200 via cleaning control circuit 220 (step S2305). .
一方、CPU210は、ユーザからの音声が否定的なものである場合(ステップS2304にてNOの場合)、次の制御(ここでは、図8の掃除機の掃除開始時の制御(1)とする)に移行する。すなわち、CPU210は、経過時間が5秒を経過しているか否かを判断する(ステップS2306)。CPU210は、経過時間が5秒を経過している場合(ステップS2306にてYESの場合)、スピーカ207に「エアコンさん、掃除をするからイオンを出して。」という音声を発生させる(ステップS2307)。 On the other hand, when the voice from the user is negative (NO in step S2304), CPU 210 performs the next control (in this case, control (1) at the start of cleaning of the cleaner in FIG. 8). ). That is, the CPU 210 determines whether or not the elapsed time has passed 5 seconds (step S2306). When the elapsed time has passed 5 seconds (YES in step S2306), CPU 210 generates a sound “sound from the air conditioner, clean up ions” on speaker 207 (step S2307). .
ここで、詳細には、CPU210は、音声の発生が完了すると、通信インターフェイス206を介して制御(1)の完了通知をサーバ100に送信する。そして、ここでサーバ100およびスマートフォン500A,500B,500Cとは、図18のステップS234〜ステップS240の処理(図15も参照。)を実行する。 Here, in detail, when the generation of the sound is completed, the CPU 210 transmits a control (1) completion notification to the server 100 via the communication interface 206. Then, the server 100 and the smartphones 500A, 500B, and 500C execute the processes in steps S234 to S240 in FIG. 18 (see also FIG. 15).
CPU210は、次の制御(ここでは、図8の掃除機の掃除開始時の制御(2)とする)に移行する。すなわち、CPU210は、経過時間が10秒を経過しているか否かを判断する(ステップS2308)。CPU210は、経過時間が10秒を経過している場合(ステップS2308にてYESの場合)、通信インターフェイス206を介して制御(2)のデータをエアコン300に送信する(ステップS2309)。 The CPU 210 shifts to the next control (in this case, the control (2) at the start of cleaning of the cleaner of FIG. 8). That is, CPU 210 determines whether or not the elapsed time has passed 10 seconds (step S2308). When the elapsed time has passed 10 seconds (YES in step S2308), CPU 210 transmits the control (2) data to air conditioner 300 via communication interface 206 (step S2309).
エアコン300のCPU310は、通信インターフェイス306を介して掃除機200から制御(2)のデータを受信する(ステップS2310)。CPU310は、スピーカ307に「掃除機さん、わかった。イオンを出すね。」という音声を発生させる(ステップS2311)。 CPU 310 of air conditioner 300 receives control (2) data from cleaner 200 via communication interface 306 (step S2310). The CPU 310 causes the speaker 307 to generate a sound “You know, Mr. Vacuum cleaner. I'm going to emit ions” (step S2311).
ここで、詳細には、エアコン300のCPU310は、音声の発生が完了すると、通信インターフェイス306を介して制御(1)の完了通知をサーバ100に送信する。あるいは、掃除機200のCPU210が、エアコン300からの制御(2)の完了通知を受信した際に、制御(2)の完了通知をサーバ100に送信する。そして、サーバ100およびスマートフォン500A,500B,500Cとは、図18のステップS252〜ステップS258の処理(図15も参照。)を実行する。 Specifically, when the generation of the sound is completed, CPU 310 of air conditioner 300 transmits a completion notification of control (1) to server 100 via communication interface 306. Alternatively, when the CPU 210 of the vacuum cleaner 200 receives the completion notification of the control (2) from the air conditioner 300, the completion notification of the control (2) is transmitted to the server 100. And the server 100 and smart phone 500A, 500B, 500C perform the process (refer also FIG. 15) of step S252-step S258 of FIG.
CPU310は、音声の発生が完了すると、通信インターフェイス306を介して制御(2)の完了通知を掃除機200に送信する(ステップS2312)。掃除機200のCPU210は、通信インターフェイス206を介して、サーバ100から完了通知を受信して、次の制御(ここでは、図8の掃除機の掃除開始時の制御(3)とする)に移行する。 When the generation of the sound is completed, CPU 310 transmits a notification of completion of control (2) to vacuum cleaner 200 via communication interface 306 (step S2312). The CPU 210 of the vacuum cleaner 200 receives a completion notification from the server 100 via the communication interface 206 and shifts to the next control (in this case, the control (3) at the start of cleaning of the vacuum cleaner in FIG. 8). To do.
サーバ100と掃除機200とエアコン300とスマートフォン500A,500B,500Cとは、掃除機200に入力された命令に対応する、掃除機200に対する全ての制御が完了するまでステップS2306〜ステップS2307の処理を繰り返し、エアコン300に対する全ての制御が完了するまでステップS2308〜ステップS2313の処理を繰り返す。 The server 100, the vacuum cleaner 200, the air conditioner 300, and the smartphones 500A, 500B, and 500C perform the processes from step S2306 to step S2307 until all the controls for the vacuum cleaner 200 corresponding to the command input to the vacuum cleaner 200 are completed. The processes in steps S2308 to S2313 are repeated until all the controls for the air conditioner 300 are repeated.
このように、本実施形態にかかるネットワークシステム1では、複数の家電が他の家電に対して話しかけるものであって、家電がユーザに情報を伝達するだけのものではない。また、家電同士が話している間は、ユーザは自分に話しかけられていないように感じるために、ユーザは家電に関してより人間らしさを感じ易くなる。
<第7の実施形態>
As described above, in the network system 1 according to the present embodiment, a plurality of home appliances talk to other home appliances, and the home appliances do not merely transmit information to the user. In addition, while the home appliances are talking to each other, the user feels as if they are not talking to him / her, so that the user can more easily feel humanity regarding the home appliance.
<Seventh Embodiment>
上記第6の実施形態においては、ユーザが掃除機200に命令を入力するものであった。しかしながら、ユーザは、スマートフォン500A,500B,500Cに命令を入力することも可能である。たとえば、ユーザは、スマートフォン500Aのマイク508に向かって「掃除して」という音声を入力する。以下、具体的に説明する。 In the sixth embodiment, the user inputs a command to the cleaner 200. However, the user can also input a command to the smartphones 500A, 500B, and 500C. For example, the user inputs a voice “cleaned” toward the microphone 508 of the smartphone 500A. This will be specifically described below.
図20を参照して、スマートフォン500AのCPU510は、マイク508を介して、ユーザからの音声が入力されたか否かを判断する(ステップS201)。CPU510は、ユーザからの音声が入力された場合(ステップS201にてYESの場合)、ユーザからの命令を認識できるか否かを判断する(ステップS203)。 Referring to FIG. 20, CPU 510 of smartphone 500 </ b> A determines whether or not voice from the user is input via microphone 508 (step S <b> 201). CPU510 determines whether the command from a user can be recognized, when the audio | voice from a user is input (in the case of YES in step S201) (step S203).
CPU510は、ユーザからの命令を認識できない場合(ステップS203にてNOの場合)、通信インターフェイス506を介して、入力された音声を示すデータ(たとえば、PCM(pulse code modulation)データ)をサーバ100に送信する(ステップS205)。サーバ100のCPU110は、通信インターフェイス106を介して、スマートフォン500Aから音声データを受信する(ステップS207)。サーバ100のCPU110は、受信した音声データに基づいて、ユーザからの命令を認識できるか否かを判断する(ステップS208)。CPU110は、ユーザからの命令を認識できた場合(ステップS208にてYESの場合)、ステップS212からの処理を実行する。 If CPU 510 cannot recognize the command from the user (NO in step S203), CPU 100 transmits data indicating the input voice (for example, PCM (pulse code modulation) data) to server 100 via communication interface 506. Transmit (step S205). The CPU 110 of the server 100 receives audio data from the smartphone 500A via the communication interface 106 (step S207). The CPU 110 of the server 100 determines whether or not a command from the user can be recognized based on the received audio data (step S208). CPU110 performs the process from step S212, when the command from a user can be recognized (in the case of YES in step S208).
一方、スマートフォン500AのCPU510は、ユーザからの命令を認識できた場合(ステップS203にてYESの場合)、当該命令をサーバ100に送信する(ステップS209)。サーバ100のCPU110は、通信インターフェイス106を介して、スマートフォン500Aから命令を受信する(ステップS211)。 On the other hand, when the CPU 510 of the smartphone 500A can recognize the command from the user (YES in step S203), the CPU 510A transmits the command to the server 100 (step S209). CPU 110 of server 100 receives a command from smartphone 500A via communication interface 106 (step S211).
サーバ100のCPU110は、入力された命令に基づいて、命令の送信元(ここではスマートフォン500A)と命令とを、タイムラインのレコードとしてメモリ101に格納する(ステップS212)。CPU110は、通信インターフェイス106を介して、スマートフォン500A,500B,500Cにタイムラインのレコードとしてメッセージを送信する(ステップS214)。 Based on the input command, the CPU 110 of the server 100 stores the command transmission source (the smartphone 500A in this case) and the command in the memory 101 as a timeline record (step S212). CPU 110 transmits a message as a timeline record to smartphones 500A, 500B, and 500C via communication interface 106 (step S214).
これ以降の処理および複数の家電の連携動作の一例については、第6の実施形態のそれらと同様であるため、ここでは説明を繰り返さない。たとえば、掃除機200は、ステップS230において、「解りました」という音声を発生する。あるいは、スマートフォン500Aが、ステップS240において、タイムラインとして、「解りました」という掃除機200のメッセージを表示したり音声を発したりする。
<第8の実施形態>
Since an example of the subsequent processing and the cooperative operation of a plurality of home appliances is the same as those of the sixth embodiment, description thereof will not be repeated here. For example, the vacuum cleaner 200 generates a sound “I understand” in step S230. Alternatively, the smartphone 500A displays a message of the cleaner 200 “I understand” or emits a voice as a timeline in step S240.
<Eighth Embodiment>
上記第6の実施形態においては、CPU110は、掃除機200からの完了通知を受け取り、かつ経過時間が制御データに対応付けられた実行時間に達したときに、次の制御に進んでいる。しかしながら、CPU110は、掃除機200からの完了通知を受け取ったときに次の制御に進んでも良い。すなわち、予め制御毎の実行時間が指定されていない形態であってもよい。具体的には、図19において、CPU110は、ステップS2306およびステップS2308の処理を実行しなくてもよい。
<第9の実施形態>
In the sixth embodiment, the CPU 110 proceeds to the next control when it receives a completion notification from the cleaner 200 and when the elapsed time reaches the execution time associated with the control data. However, the CPU 110 may proceed to the next control when receiving a completion notification from the cleaner 200. That is, the execution time for each control may not be specified in advance. Specifically, in FIG. 19, the CPU 110 does not have to execute the processes of steps S2306 and S2308.
<Ninth Embodiment>
逆に、CPU110は、経過時間に基づいて次の制御に進んでもよい。すなわち、CPU110は、完了通知の受信の有無にかかわらずに、経過時間が実行時間に達したときに次の制御に進む形態であってもよい。たとえば、図19において、CPU110およびCPU210は、ステップS2312、ステップS2313の処理を実行しなくてもよい。
<第10の実施形態>
Conversely, the CPU 110 may proceed to the next control based on the elapsed time. That is, the CPU 110 may be configured to proceed to the next control when the elapsed time reaches the execution time regardless of whether or not the completion notification is received. For example, in FIG. 19, the CPU 110 and the CPU 210 do not have to execute the processes of steps S2312, S2313.
<Tenth Embodiment>
さらに、以下のような連携方法を採用してもよい。すなわち、エアコン300のCPU310が、マイク308から掃除機200の音声を取得する。CPU310は、当該音声を解析することによって、当該音声の内容と音声出力の完了とを認識する。CPU110は、認識に成功したときに、スピーカ307から音声を出力させ始めてもよい。いずれにしても、掃除機200(第1の家電)が音声を出力し終わった後で、エアコン300(第2の家電)が音声を出力し始めればよい。
<第11の実施形態>
Further, the following cooperation method may be adopted. That is, the CPU 310 of the air conditioner 300 acquires the sound of the cleaner 200 from the microphone 308. The CPU 310 recognizes the content of the sound and the completion of the sound output by analyzing the sound. The CPU 110 may start outputting sound from the speaker 307 when the recognition is successful. In any case, after the cleaner 200 (first home appliance) finishes outputting the sound, the air conditioner 300 (second home appliance) may start outputting the sound.
<Eleventh embodiment>
次に、第11の実施形態について説明する。上記の第6〜第10の実施形態においては、掃除機200がサーバ100から制御データを受信して、その後、ペアリングを利用して掃除機200が他の家電を制御するものであった。しかしながら、掃除機200以外の家電が、サーバ100から制御データを受信して、その後、ペアリングを利用して当該家電が他の家電を制御してもよい。
<第12の実施形態>
Next, an eleventh embodiment will be described. In said 6th-10th embodiment, the cleaner 200 received control data from the server 100, and the cleaner 200 controlled another household appliance after that using pairing. However, home appliances other than the cleaner 200 may receive control data from the server 100, and then the home appliance may control other home appliances using pairing.
<Twelfth Embodiment>
次に、第12の実施形態について説明する。上記の第6〜第10の実施形態において、掃除機200だけでなく、複数の家電がサーバ100から制御データを受信する形態であってもよい。その後、ペアリングを利用して複数の家電同士が状況を伝達し合いながら、当該複数の家電同士で会話を行ってもよい。たとえば、サーバ100が、掃除機200に対する命令をまとめて掃除機200に送信し、エアコン300に対する命令をまとめてエアコン300に送信し、掃除機200とエアコン300とが互いの完了通知に基づいて、制御を進めていってもよい。 Next, a twelfth embodiment will be described. In said 6th-10th embodiment, the form which not only the vacuum cleaner 200 but several household appliances receive control data from the server 100 may be sufficient. Thereafter, the plurality of home appliances may communicate with each other while communicating the situation using pairing. For example, the server 100 collects instructions for the cleaner 200 and transmits them to the cleaner 200, sends instructions for the air conditioner 300 to the air conditioner 300, and the cleaner 200 and the air conditioner 300 are based on each other's completion notification. Control may be advanced.
当該複数の家電同士で、制御が進むことにより、サーバ100との通信不良が起こっても、機器毎の動作の制御は実行されることとなる。つまり、不慮のサーバダウンや、サーバとの通信不良がおこっても、個々の機器の制御(掃除の完了)が実行されることとなる。
<第13の実施形態>
As the control proceeds among the plurality of home appliances, even if communication failure with the server 100 occurs, the operation control for each device is executed. That is, control of individual devices (completion of cleaning) is executed even if an unexpected server down or communication failure with the server occurs.
<13th Embodiment>
次に、第13の実施形態について説明する。上述の第1〜第12の実施形態に係るネットワークシステム1では、サーバ100が、制御データを家電に送信するものであった。しかしながら、本実施形態においては、予め少なくとも1つの家電が制御データおよび制御命令データベースを格納しているものであって、第1〜第12の実施形態と比較してサーバ100の役割をさらに低減させたものである。なお、両者は、ユーザから見える家電の動きと、ユーザに聞こえる家電からの音声に関しては同じである。 Next, a thirteenth embodiment will be described. In the network system 1 according to the first to twelfth embodiments described above, the server 100 transmits control data to home appliances. However, in this embodiment, at least one home appliance stores the control data and the control command database in advance, and the role of the server 100 is further reduced compared to the first to twelfth embodiments. It is a thing. In addition, both are the same regarding the movement of the household appliance which a user sees, and the audio | voice from the household appliance which a user hears.
本実施形態に係るネットワークシステム1の全体構成は、図1〜図6に示す第1の実施形態と同様であるため、ここでは説明を繰り返さない。以下では、天気予報に関する情報やスマートフォン500A,500B,500Cとのやり取りのためにサーバ100を利用する形態に関して説明するが、本実施の形態の要部、すなわち後述する図22のステップS322以降の処理および後に援用する図19に記載の処理など、はサーバ100を全く備えない形態にも適用可能である。 Since the entire configuration of the network system 1 according to the present embodiment is the same as that of the first embodiment shown in FIGS. 1 to 6, the description thereof will not be repeated here. In the following description, information relating to weather forecasts and a mode in which the server 100 is used for communication with the smartphones 500A, 500B, and 500C will be described. However, the main part of the present embodiment, that is, the processing after step S322 in FIG. Further, the processing described in FIG. 19 to be used later can be applied to a form that does not include the server 100 at all.
また、本実施形態に係るネットワークシステム1の動作概要も、図1〜図6に示す第1の実施形態と同様であるため、ここでは説明を繰り返さない。すなわち、本実施形態にかかるネットワークシステム1も、複数の家電同士が会話をするものであって、家電がユーザに情報を伝達するだけのものではない。また、家電同士が話している間は、ユーザは自分に話しかけられていないように感じるために、逆にユーザは家電に関して人間らしさを感じ易くなる。以下、このような機能を実現するためのネットワークシステム1の各部の具体的な構成について説明する。 Moreover, since the operation | movement outline | summary of the network system 1 which concerns on this embodiment is the same as that of 1st Embodiment shown in FIGS. 1-6, description is not repeated here. In other words, the network system 1 according to the present embodiment is also one in which a plurality of home appliances have a conversation with each other, and the home appliance does not only transmit information to the user. In addition, while the home appliances are talking to each other, the user feels as if he / she is not speaking to him / her, so the user can easily feel humanity regarding the home appliance. Hereinafter, a specific configuration of each part of the network system 1 for realizing such a function will be described.
まず、サーバ100のハードウェア構成については、メモリ101に格納されるデータを除いて、第1の実施形態のそれと同様であるため、ここでは説明を繰り返さない。すなわち、本実施形態におけるネットワークシステム1は、第1の実施形態においてサーバ100に格納されていたデータの一部を掃除機200などの家電が格納する点において、第1の実施形態と異なるものである。 First, the hardware configuration of the server 100 is the same as that of the first embodiment except for the data stored in the memory 101, and therefore description thereof will not be repeated here. That is, the network system 1 in the present embodiment is different from the first embodiment in that a part of data stored in the server 100 in the first embodiment is stored by a household appliance such as the vacuum cleaner 200. is there.
次に、掃除機200の具体的構成の一態様について説明する。図21は、本実施形態に係る掃除機200のハードウェア構成を表わすブロック図である。図21を参照して、掃除機200のハードウェア構成については、メモリ201に格納されるデータを除いて、第1の実施形態のそれと同様であるため、当該データ以外に関してはここでは説明を繰り返さない。 Next, an aspect of a specific configuration of the cleaner 200 will be described. FIG. 21 is a block diagram illustrating a hardware configuration of the vacuum cleaner 200 according to the present embodiment. Referring to FIG. 21, the hardware configuration of the vacuum cleaner 200 is the same as that of the first embodiment except for the data stored in the memory 201. Absent.
本実施形態にかかるメモリ201は、図8に示すような、家電に入力される命令と、当該家電および他の家電へと出力される命令との対応関係を示す制御命令データベース201Aを格納する。また、メモリ201は、家庭またはオフィスに属する家電に関する情報(家電情報201Bという。)を格納する。より詳細には、家電情報201Bは、家庭またはオフィスに属する家電の名前とIPアドレスと機能と家電同士のペアリングの可否と家電同士のペアリング状態とを含む。 The memory 201 according to the present embodiment stores a control command database 201 </ b> A indicating a correspondence relationship between commands input to a home appliance and commands output to the home appliance and other home appliances as illustrated in FIG. 8. In addition, the memory 201 stores information about home appliances belonging to the home or office (referred to as home appliance information 201B). More specifically, home appliance information 201B includes the name, IP address, function, availability of pairing between home appliances, and the pairing state between home appliances belonging to the home or office.
エアコン300と、テレビ400と、洗濯機600と、スマートフォン500A,500B,500Cのハードウェア構成は、第1の実施形態のそれらと同様であるため、ここでは説明を繰り返さない。
<ネットワークシステム1の処理手順>
The hardware configurations of the air conditioner 300, the television 400, the washing machine 600, and the smartphones 500A, 500B, and 500C are the same as those of the first embodiment, and thus description thereof will not be repeated here.
<Processing procedure of network system 1>
次に、本実施形態に係るネットワークシステム1における処理手順について説明する。なお、図22は、本実施形態に係るネットワークシステム1における処理手順を示すシーケンス図である。 Next, a processing procedure in the network system 1 according to the present embodiment will be described. FIG. 22 is a sequence diagram illustrating a processing procedure in the network system 1 according to the present embodiment.
図22を参照して、掃除機200のCPU210は、マイク208を介して、ユーザからの音声が入力されたか否かを判断する(ステップS302)。CPU210は、ユーザからの音声が入力された場合(ステップS302にてYESの場合)、ユーザからの命令を認識できるか否かを判断する(ステップS304)。 Referring to FIG. 22, CPU 210 of cleaner 200 determines whether or not a voice from the user is input via microphone 208 (step S <b> 302). CPU210 determines whether the command from a user can be recognized, when the audio | voice from a user is input (in the case of YES in step S302) (step S304).
CPU210は、ユーザからの命令を認識できた場合(ステップS304にてYESの場合)、当該命令をサーバ100に送信する(ステップS306)。サーバ100のCPU110は、通信インターフェイス106を介して、掃除機200から命令を受信する(ステップS307)。 If CPU 210 can recognize the command from the user (YES in step S304), CPU 210 transmits the command to server 100 (step S306). CPU 110 of server 100 receives a command from cleaner 200 via communication interface 106 (step S307).
サーバ100のCPU110は、入力された命令に基づいて、命令の送信元(ここでは掃除機200)と命令とを、タイムラインのレコードとしてメモリ101に格納する(ステップS308)。CPU110は、通信インターフェイス106を介して、スマートフォン500A,500B,500Cにタイムラインのレコードとしてメッセージを送信する(ステップS310)。 Based on the input command, the CPU 110 of the server 100 stores the command transmission source (here, the cleaner 200) and the command as a timeline record in the memory 101 (step S308). CPU 110 transmits a message as a timeline record to smartphones 500A, 500B, and 500C via communication interface 106 (step S310).
スマートフォン500A,500B,500CのCPU510は、通信インターフェイス506を介してメッセージを受信する(ステップS312)。図15に示すように、CPU510は、タッチパネル505に当該メッセージをタイムラインのレコードとして表示させる。 CPU 510 of smartphones 500A, 500B, 500C receives the message via communication interface 506 (step S312). As illustrated in FIG. 15, the CPU 510 causes the touch panel 505 to display the message as a timeline record.
掃除機200のCPU210は、家電情報201Bを参照して、掃除機200に関連付けられている家電を特定する。たとえば、CPU210は、掃除機200とペアリング中の家電、掃除機200と同じ部屋の家電、または、家電情報201Bに登録されている家電を特定する。ここでは、CPU210は、エアコン300を選択したとする。 CPU210 of the vacuum cleaner 200 specifies the household appliance linked | related with the cleaner 200 with reference to the household appliance information 201B. For example, the CPU 210 identifies a home appliance being paired with the cleaner 200, a home appliance in the same room as the cleaner 200, or a home appliance registered in the home appliance information 201B. Here, it is assumed that the CPU 210 has selected the air conditioner 300.
CPU210は、通信インターフェイス206を介して、エアコン300とのペアリング接続を開始する(ステップS314)。エアコン300のCPU310は、通信インターフェイス306を介して、掃除機200とのペアリング接続を開始する(ステップS314、ステップS316)。 CPU 210 starts pairing connection with air conditioner 300 via communication interface 206 (step S314). The CPU 310 of the air conditioner 300 starts pairing connection with the cleaner 200 via the communication interface 306 (steps S314 and S316).
CPU210は、通信インターフェイス206を利用することによって、インターネットを介して、サーバ100に各種データ(天気予報など)を要求する(ステップS318)。サーバ100のCPU110は、通信インターフェイス106を介して各種データを掃除機200に送信する(ステップS320)。 The CPU 210 requests various data (such as weather forecast) from the server 100 via the Internet by using the communication interface 206 (step S318). CPU 110 of server 100 transmits various data to cleaner 200 via communication interface 106 (step S320).
CPU210は、各種データを参照しながら、制御命令データベース201Aに基づいて、掃除機200が受け付けた命令に応答して動作すべき複数の家電の一連の制御データを作成する(ステップS322)。 The CPU 210 creates a series of control data of a plurality of home appliances to be operated in response to the command received by the cleaner 200 based on the control command database 201A while referring to various data (step S322).
CPU210は、作成した一連の制御データのうちの1つの制御データに基づいて、掃除機200の各部を制御する(ステップS324)。CPU210は、制御データに関する制御が完了すると、通信インターフェイス206を介して完了通知をサーバ100に送信する(ステップS326)。サーバ100のCPU110は、通信インターフェイス106を介して完了通知を受信する(ステップS328)。 CPU210 controls each part of the cleaner 200 based on one control data in the created series of control data (step S324). When the control related to the control data is completed, the CPU 210 transmits a completion notification to the server 100 via the communication interface 206 (step S326). The CPU 110 of the server 100 receives the completion notification via the communication interface 106 (step S328).
CPU110は、完了通知に基づいて、制御を完了した家電(ここでは掃除機200)と制御の内容とを、タイムラインのレコードとしてメモリ101に格納する(ステップS330)。CPU110は、通信インターフェイス106を介して、スマートフォン500A,500B,500Cにタイムラインのレコードとしてメッセージを送信する(ステップS332)。 Based on the completion notification, the CPU 110 stores, in the memory 101, the home appliance (here, the cleaner 200) that has completed the control and the content of the control as a timeline record (step S330). The CPU 110 transmits a message as a timeline record to the smartphones 500A, 500B, and 500C via the communication interface 106 (step S332).
スマートフォン500A,500B,500CのCPU510は、通信インターフェイス506を介してメッセージを受信する(ステップS334)。図15に示すように、CPU510は、タッチパネル505に当該メッセージをタイムラインのレコードとして表示させる。 The CPU 510 of the smartphone 500A, 500B, 500C receives the message via the communication interface 506 (step S334). As illustrated in FIG. 15, the CPU 510 causes the touch panel 505 to display the message as a timeline record.
掃除機200のCPU210は、制御データに基づいて、通信インターフェイス206を介してエアコン300に対する命令をエアコン300に送信する(ステップS336)。エアコン300のCPU310は、通信インターフェイス306を介して掃除機200から制御データを受信する(ステップS338)。CPU310は、受信した制御データに基づいて、エアコン300の各部を制御する(ステップS340)。CPU310は、制御データに関する制御が完了すると、通信インターフェイス306を介して完了通知を掃除機200とサーバ100とに送信する(ステップS342)。 The CPU 210 of the cleaner 200 transmits a command for the air conditioner 300 to the air conditioner 300 via the communication interface 206 based on the control data (step S336). The CPU 310 of the air conditioner 300 receives control data from the cleaner 200 via the communication interface 306 (step S338). CPU 310 controls each part of air conditioner 300 based on the received control data (step S340). When the control related to the control data is completed, CPU 310 transmits a completion notification to vacuum cleaner 200 and server 100 via communication interface 306 (step S342).
サーバ100のCPU110は、通信インターフェイス106を介して完了通知を受信する(ステップS344)。掃除機200のCPU210は、通信インターフェイス206を介して、エアコン300から完了通知を受信する(ステップS346)。なお、エアコン300は、完了通知をサーバ100には送らずに、掃除機200のみに送信してもよい。この場合は、掃除機200のCPU210が、通信インターフェイス206を介して、エアコン300の制御に関する完了通知をサーバ100に送信する。 The CPU 110 of the server 100 receives the completion notification via the communication interface 106 (step S344). The CPU 210 of the cleaner 200 receives a completion notification from the air conditioner 300 via the communication interface 206 (step S346). The air conditioner 300 may transmit the completion notification only to the cleaner 200 without sending it to the server 100. In this case, the CPU 210 of the cleaner 200 transmits a completion notification related to the control of the air conditioner 300 to the server 100 via the communication interface 206.
サーバ100のCPU110は、完了通知に基づいて、制御を完了した家電(ここではエアコン300)と制御の内容とを、タイムラインのレコードとしてメモリ101に格納する(ステップS348)。CPU110は、通信インターフェイス106を介して、スマートフォン500A,500B,500Cにタイムラインのレコードとしてメッセージを送信する(ステップS350)。 Based on the completion notification, the CPU 110 of the server 100 stores the control-completed home appliance (here, the air conditioner 300) and the control content in the memory 101 as a timeline record (step S348). CPU 110 transmits a message as a timeline record to smartphones 500A, 500B, and 500C via communication interface 106 (step S350).
スマートフォン500A,500B,500CのCPU510は、通信インターフェイス506を介してメッセージを受信する(ステップS352)。図15に示すように、CPU510は、タッチパネル505に当該メッセージをタイムラインのレコードとして表示させる。 CPU 510 of smartphones 500A, 500B, 500C receives the message via communication interface 506 (step S352). As illustrated in FIG. 15, the CPU 510 causes the touch panel 505 to display the message as a timeline record.
サーバ100と掃除機200とエアコン300とスマートフォン500A,500B,500Cとは、掃除機200に入力された命令に対応する、掃除機200に対する全ての制御が完了するまでステップS324〜334の処理を繰り返し、エアコン300に対する全ての制御が完了するまでステップS336〜ステップS352の処理を繰り返す。 The server 100, the vacuum cleaner 200, the air conditioner 300, and the smartphones 500A, 500B, and 500C repeat the processes in steps S324 to 334 until all the controls for the vacuum cleaner 200 corresponding to the command input to the vacuum cleaner 200 are completed. Until the control of the air conditioner 300 is completed, the processes in steps S336 to S352 are repeated.
なお、本実施形態に係るネットワークシステム1における複数の家電の連携動作の一例(図19を参照。)については、第6の実施形態と同様であるため、ここでは説明を繰り返さない。 In addition, about an example (refer FIG. 19) of the cooperation operation | movement of the some household appliance in the network system 1 which concerns on this embodiment, since it is the same as that of 6th Embodiment, description is not repeated here.
このように、本実施形態にかかるネットワークシステム1では、複数の家電が他の家電に対して話しかけるものであって、家電がユーザに情報を伝達するだけのものではない。また、家電同士が話している間は、ユーザは自分に話しかけられていないように感じるために、ユーザは家電に関してより人間らしさを感じ易くなる。
<第14の実施形態>
As described above, in the network system 1 according to the present embodiment, a plurality of home appliances talk to other home appliances, and the home appliances do not merely transmit information to the user. In addition, while the home appliances are talking to each other, the user feels as if they are not talking to him / her, so that the user can more easily feel humanity regarding the home appliance.
<Fourteenth embodiment>
上記第13の実施形態においては、ユーザが掃除機200に命令を入力するものであった。しかしながら、ユーザは、スマートフォン500A,500B,500Cに命令を入力することも可能である。たとえば、ユーザは、スマートフォン500Aのマイク508に向かって「掃除して」という音声を入力する。以下、具体的に説明する。 In the thirteenth embodiment, the user inputs a command to the cleaner 200. However, the user can also input a command to the smartphones 500A, 500B, and 500C. For example, the user inputs a voice “cleaned” toward the microphone 508 of the smartphone 500A. This will be specifically described below.
図23を参照して、スマートフォン500AのCPU510は、マイク508を介して、ユーザからの音声が入力されたか否かを判断する(ステップS301)。CPU510は、ユーザからの音声が入力された場合(ステップS301にてYESの場合)、ユーザからの命令を認識できるか否かを判断する(ステップS303)。 Referring to FIG. 23, CPU 510 of smartphone 500A determines whether or not a voice from the user is input via microphone 508 (step S301). When the voice from the user is input (YES in step S301), CPU 510 determines whether or not the command from the user can be recognized (step S303).
CPU510は、ユーザからの命令を認識できない場合(ステップS303にてNOの場合)、ステップS301からの処理を繰り返す。ただし、CPU510は、ユーザからの命令を認識できない場合(ステップS303にてNOの場合)、通信インターフェイス506を介して、入力された音声を示すデータ(たとえば、PCM(pulse code modulation)データ)をサーバ100に送信してもよい。この場合には、第2および第7の実施の形態と同様に、サーバ100が音声解析を行う。 If CPU 510 cannot recognize the command from the user (NO in step S303), CPU 510 repeats the processing from step S301. However, when CPU 510 cannot recognize a command from the user (NO in step S303), CPU 510 transmits data indicating voice input (for example, PCM (pulse code modulation) data) via communication interface 506. 100 may be transmitted. In this case, the server 100 performs voice analysis as in the second and seventh embodiments.
一方、スマートフォン500AのCPU510は、ユーザからの命令を認識できた場合(ステップS303にてYESの場合)、当該命令をサーバ100に送信する(ステップS305)。サーバ100のCPU110は、通信インターフェイス106を介して、スマートフォン500Aから命令を受信する(ステップS307)。 On the other hand, when CPU 510A of smartphone 500A can recognize a command from the user (YES in step S303), CPU 510A transmits the command to server 100 (step S305). CPU 110 of server 100 receives a command from smartphone 500A via communication interface 106 (step S307).
サーバ100のCPU110は、入力された命令に基づいて、命令の送信元(ここではスマートフォン500A)と命令とを、タイムラインのレコードとしてメモリ101に格納する(ステップS308)。CPU110は、通信インターフェイス106を介して、スマートフォン500A,500B,500Cにタイムラインのレコードとしてメッセージを送信する(ステップS310)。 Based on the input command, the CPU 110 of the server 100 stores the command transmission source (the smartphone 500A in this case) and the command in the memory 101 as a timeline record (step S308). CPU 110 transmits a message as a timeline record to smartphones 500A, 500B, and 500C via communication interface 106 (step S310).
これ以降の処理および複数の家電の連携動作の一例については、第13の実施形態のそれらと同様であるため、ここでは説明を繰り返さない。たとえば、掃除機200は、ステップS324において、「解りました」という音声を発生する。あるいは、スマートフォン500Aが、ステップS334において、タイムラインとして、「解りました」という掃除機200のメッセージを表示したり音声を発したりする。
<第15の実施形態>
Since an example of the subsequent processing and the cooperative operation of a plurality of home appliances is the same as those in the thirteenth embodiment, description thereof will not be repeated here. For example, the vacuum cleaner 200 generates a sound “I understand” in step S324. Alternatively, the smartphone 500A displays a message of the cleaner 200 “I understand” or emits a sound as a timeline in step S334.
<Fifteenth embodiment>
上記第13の実施形態においては、CPU110は、掃除機200からの完了通知を受け取り、かつ経過時間が制御データに対応する実行時間に達したときに、次の制御に進んでいる。しかしながら、CPU110は、掃除機200からの完了通知を受け取ったときに次の制御に進んでも良い。すなわち、予め制御毎の実行時間が指定されていない形態であってもよい。図19において、CPU110は、ステップS2306およびステップS2308の処理を実行しなくてもよい。
<第16の実施形態>
In the thirteenth embodiment, the CPU 110 proceeds to the next control when the completion notification from the cleaner 200 is received and the elapsed time reaches the execution time corresponding to the control data. However, the CPU 110 may proceed to the next control when receiving a completion notification from the cleaner 200. That is, the execution time for each control may not be specified in advance. In FIG. 19, the CPU 110 does not have to execute the processes of steps S2306 and S2308.
<Sixteenth Embodiment>
逆に、CPU110は、経過時間に基づいて次の制御に進んでもよい。すなわち、CPU110は、完了通知の受信の有無にかかわらずに、経過時間が実行時間に達したときに次の制御に進む形態であってもよい。たとえば、図19において、CPU110およびCPU210は、ステップS2312、ステップS2313の処理を実行しなくてもよい。
<第17の実施形態>
Conversely, the CPU 110 may proceed to the next control based on the elapsed time. That is, the CPU 110 may be configured to proceed to the next control when the elapsed time reaches the execution time regardless of whether or not the completion notification is received. For example, in FIG. 19, the CPU 110 and the CPU 210 do not have to execute the processes of steps S2312, S2313.
<Seventeenth embodiment>
さらに、以下のような連携方法を採用してもよい。すなわち、エアコン300のCPU310が、マイク308から掃除機200の音声を取得する。CPU310は、当該音声を解析することによって、当該音声の内容と音声出力の完了とを認識する。CPU110は、認識に成功したときに、スピーカ307から音声を出力させ始めてもよい。いずれにしても、掃除機200(第1の家電)が音声を出力し終わった後で、エアコン300(第2の家電)が音声を出力し始めればよい。
<第18の実施形態>
Further, the following cooperation method may be adopted. That is, the CPU 310 of the air conditioner 300 acquires the sound of the cleaner 200 from the microphone 308. The CPU 310 recognizes the content of the sound and the completion of the sound output by analyzing the sound. The CPU 110 may start outputting sound from the speaker 307 when the recognition is successful. In any case, after the cleaner 200 (first home appliance) finishes outputting the sound, the air conditioner 300 (second home appliance) may start outputting the sound.
<Eighteenth embodiment>
上記の第13の実施形態においては、予め掃除機200が制御データおよび制御命令データベース201Aを記憶しており、ペアリングを利用して掃除機200が他の家電を制御するものであった。しかしながら、予め掃除機200以外の家電が制御データおよび制御命令データベース201Aを記憶してもよい。そして、ペアリングを利用して、当該家電が他の家電を制御してもよい。
<第19の実施形態>
In the thirteenth embodiment, the cleaner 200 stores the control data and the control command database 201A in advance, and the cleaner 200 controls other home appliances using pairing. However, home appliances other than the cleaner 200 may store the control data and the control command database 201A in advance. And the said household appliance may control another household appliance using pairing.
<Nineteenth embodiment>
上記の第13の実施形態においては、予め掃除機200が制御データおよび制御命令データベース201Aを記憶しており、ペアリングを利用して掃除機200が他の家電を制御するものであった。しかしながら、掃除機200だけでなく、予め複数の家電が制御データおよび制御命令データベース201Aを記憶してもよい。そして、ペアリングを利用して、複数の家電同士が状況を伝達し合いながら、当該複数の家電同士で会話を行ってもよい。たとえば、掃除機200とエアコン300とが互いの完了通知に応じて、自身が記憶している制御データおよび制御命令データベース201Aに基づいて制御を進めていってもよい。
<その他の応用例>
In the thirteenth embodiment, the cleaner 200 stores the control data and the control command database 201A in advance, and the cleaner 200 controls other home appliances using pairing. However, not only the vacuum cleaner 200 but also a plurality of home appliances may store the control data and the control command database 201A in advance. And you may have a conversation between the said some household appliances, using a pairing, conveying a situation mutually. For example, the vacuum cleaner 200 and the air conditioner 300 may advance the control based on the control data and the control command database 201A stored in response to the mutual completion notification.
<Other application examples>
本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。 It goes without saying that the present invention can also be applied to a case where it is achieved by supplying a program to a system or apparatus. Then, a storage medium storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the program code stored in the storage medium It is possible to enjoy the effects of the present invention also by reading and executing.
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わる他の記憶媒体に書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, after the program code read from the storage medium is written to another storage medium provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU of the function expansion board or function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
今回開示された実施形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 It should be thought that embodiment disclosed this time is an illustration and restrictive at no points. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
1 ネットワークシステム
100 サーバ
101 メモリ
106 通信インターフェイス
110 CPU
200 掃除機
201 メモリ
206 通信インターフェイス
207 スピーカ
208 マイク
210 CPU
300 エアコン
301 メモリ
306 通信インターフェイス
307 スピーカ
308 マイク
310 CPU
400 テレビ
500A,500B,500C スマートフォン
600 洗濯機
1 Network System 100 Server 101 Memory 106 Communication Interface 110 CPU
200 Vacuum Cleaner 201 Memory 206 Communication Interface 207 Speaker 208 Microphone 210 CPU
300 Air Conditioner 301 Memory 306 Communication Interface 307 Speaker 308 Microphone 310 CPU
400 TV 500A, 500B, 500C Smartphone 600 Washing machine
Claims (9)
前記サーバは、複数の通信機器とグループとの対応関係と、前記複数の通信機器の連携動作を示す情報とを記憶し、
前記サーバは、前記対応関係および連携動作を参照することによって、前記第1の通信機器が命令を受け付けたときに、前記第1の通信機器に同じグループに属する前記第2の通信機器に対する音声出力および動作を実行させるための制御データを送信し、
前記サーバは、前記制御データに基づく前記第2の通信機器の動作応答を音声によって出力させる、ネットワークシステム。 A network system comprising a first communication device, a second communication device, and a server,
The server stores a correspondence relationship between a plurality of communication devices and a group, and information indicating a cooperative operation of the plurality of communication devices,
The server refers to the correspondence relationship and the cooperation operation, and when the first communication device accepts an instruction, the server outputs an audio to the second communication device belonging to the same group as the first communication device. And send control data to execute the operation,
The network system, wherein the server outputs an operation response of the second communication device based on the control data by voice.
前記第2の通信機器は、前記指示を受け付けたときに、前記指示に応じた動作を行う、請求項1から5のいずれか1項に記載のネットワークシステム。 The first communication device performs an operation according to the command when receiving the command,
The network system according to any one of claims 1 to 5, wherein the second communication device performs an operation according to the instruction when the instruction is received.
複数の通信機器とグループとの第1の対応関係と、前記複数の通信機器の連携動作を示す情報とを記憶するためのメモリと、
プロセッサとを備え、前記プロセッサは、
前記第1の通信機器が前記命令を受け付けたときに、前記第1および第2のグループ対応関係および連携動作を参照し、前記通信インターフェイスを介して前記第1の通信機器に同じグループに属する前記第2の通信機器に対する音声出力および動作を実行させるための制御データを送信し、
前記通信インターフェイスを介して、前記制御データに基づく前記第2の通信機器の動作応答を音声によって出力させる、サーバ。 A communication interface for communicating with the first and second communication devices;
A memory for storing a first correspondence relationship between a plurality of communication devices and a group, and information indicating a cooperative operation of the plurality of communication devices;
A processor, the processor comprising:
When the first communication device accepts the command, the first and second group correspondences and cooperative operations are referred to, and the first communication device belongs to the first communication device via the communication interface. Transmitting control data for executing sound output and operation to the second communication device;
A server that causes an operation response of the second communication device based on the control data to be output by voice via the communication interface.
前記第1の通信機器が前記命令を受け付けたときに、前記第1および第2のグループ対応関係および連携動作を参照し、前記通信インターフェイスを介して前記第1の通信機器に同じグループに属する前記第2の通信機器に対する音声出力および動作を実行させるための制御データを送信するステップと、
前記通信インターフェイスを介して、前記制御データに基づく前記第2の通信機器の動作応答を音声によって出力させるステップと、を実行させる、プログラム。 Controlling a server including a communication interface, a processor, a first correspondence relationship between a plurality of communication devices and a group, and a memory for storing information indicating a cooperative operation of the plurality of communication devices A program, the program on the processor,
When the first communication device accepts the command, the first and second group correspondences and cooperative operations are referred to, and the first communication device belongs to the first communication device via the communication interface. Transmitting control data for executing sound output and operation to the second communication device;
A step of outputting an operation response of the second communication device based on the control data by voice via the communication interface.
前記第1の通信機器が、前記命令に応じて前記第1の通信機器の各部を制御するステップと、
サーバが、前記第1の通信機器に、前記命令に対応する前記第1の通信機器と同じグループに属する第2の通信機器に対する音声出力および連携動作を実行させるための制御データを送信するステップと、
前記サーバが、前記第2の通信機器に、前記制御データに対する動作応答を音声によって出力させるステップと、を備える、通信機器の連携方法。 A first communication device receiving a command;
The first communication device controlling each part of the first communication device according to the command;
A step of transmitting control data for causing the first communication device to execute voice output and a cooperative operation for a second communication device belonging to the same group as the first communication device corresponding to the command; ,
The server includes causing the second communication device to output an operation response to the control data by voice.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013107754A JP5785218B2 (en) | 2013-05-22 | 2013-05-22 | Network system, server, home appliance, program, and home appliance linkage method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013107754A JP5785218B2 (en) | 2013-05-22 | 2013-05-22 | Network system, server, home appliance, program, and home appliance linkage method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014230061A JP2014230061A (en) | 2014-12-08 |
JP5785218B2 true JP5785218B2 (en) | 2015-09-24 |
Family
ID=52129542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013107754A Active JP5785218B2 (en) | 2013-05-22 | 2013-05-22 | Network system, server, home appliance, program, and home appliance linkage method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5785218B2 (en) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8600120B2 (en) | 2008-01-03 | 2013-12-03 | Apple Inc. | Personal computing device control using face detection and recognition |
US9002322B2 (en) | 2011-09-29 | 2015-04-07 | Apple Inc. | Authentication with secondary approver |
US9898642B2 (en) | 2013-09-09 | 2018-02-20 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs |
CN106255963B (en) * | 2014-05-15 | 2019-02-15 | 夏普株式会社 | Network system, server, communication equipment and information processing method |
US10043185B2 (en) | 2014-05-29 | 2018-08-07 | Apple Inc. | User interface for payments |
CN105974804A (en) | 2016-05-09 | 2016-09-28 | 北京小米移动软件有限公司 | Method and device for controlling equipment |
DK179471B1 (en) | 2016-09-23 | 2018-11-26 | Apple Inc. | Image data for enhanced user interactions |
JP2018089209A (en) * | 2016-12-06 | 2018-06-14 | シャープ株式会社 | Home electric appliance system |
EP4156129A1 (en) | 2017-09-09 | 2023-03-29 | Apple Inc. | Implementation of biometric enrollment |
CN118200349A (en) | 2018-03-14 | 2024-06-14 | 谷歌有限责任公司 | Method and system for generating IoT-based notifications and providing commands |
US11170085B2 (en) | 2018-06-03 | 2021-11-09 | Apple Inc. | Implementation of biometric authentication |
JP7224116B2 (en) * | 2018-06-15 | 2023-02-17 | シャープ株式会社 | air conditioner |
CN109147837A (en) * | 2018-09-28 | 2019-01-04 | 珠海格力电器股份有限公司 | Music playing control method, device, household appliance, server and medium |
US10860096B2 (en) | 2018-09-28 | 2020-12-08 | Apple Inc. | Device control using gaze information |
US11100349B2 (en) | 2018-09-28 | 2021-08-24 | Apple Inc. | Audio assisted enrollment |
JP7372040B2 (en) * | 2019-03-22 | 2023-10-31 | 三菱重工サーマルシステムズ株式会社 | Air conditioning control system and control method |
KR20220070431A (en) | 2019-09-26 | 2022-05-31 | 소니그룹주식회사 | Information processing devices and information processing methods |
JP7341426B2 (en) * | 2019-11-27 | 2023-09-11 | 国立大学法人岩手大学 | Notification system, control device in the notification system, and control method in the notification system |
EP4264460A1 (en) | 2021-01-25 | 2023-10-25 | Apple Inc. | Implementation of biometric authentication |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002287953A (en) * | 2001-03-23 | 2002-10-04 | Sony Corp | User interface system |
JP4658569B2 (en) * | 2004-11-22 | 2011-03-23 | パイオニア株式会社 | Information transmitting apparatus, information receiving apparatus, and information transmitting / receiving system |
JP2011091699A (en) * | 2009-10-23 | 2011-05-06 | Hosiden Corp | Cell-phone and incoming call notification system |
JP2011182183A (en) * | 2010-03-01 | 2011-09-15 | Panasonic Corp | Device information display apparatus, television, equipment information display method, program, and recording medium |
-
2013
- 2013-05-22 JP JP2013107754A patent/JP5785218B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014230061A (en) | 2014-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5785218B2 (en) | Network system, server, home appliance, program, and home appliance linkage method | |
JP2005311864A (en) | Household appliances, adapter instrument, and household appliance system | |
CN108605001A (en) | Voice control lamp switch | |
JP5734345B2 (en) | Network system, home appliance linkage method, server, home appliance and program | |
Vanus et al. | Testing of the voice communication in smart home care | |
JP6461713B2 (en) | Equipment linkage system and equipment | |
JP6898286B2 (en) | Network systems, servers, and information processing methods | |
CN113168827A (en) | Terminal device and control method thereof | |
WO2018037587A1 (en) | Network system, information processing method, server, electrical device, communication terminal, and program | |
JP6069239B2 (en) | Network system, communication method, server, terminal, communication program | |
JP6837783B2 (en) | Noise management equipment, electrical equipment, noise management systems, noise management methods and programs | |
WO2016117514A1 (en) | Robot control device and robot | |
CN104422073B (en) | Air conditioner and its control system and air-conditioning system and its control method | |
JP6622112B2 (en) | Network system | |
WO2018168006A1 (en) | Network system, information processing method, server, and terminal | |
TWI732409B (en) | Smart home appliance control method | |
JP6921311B2 (en) | Equipment control system, equipment, equipment control method and program | |
WO2018116531A1 (en) | Server, information processing method, network system, and terminal | |
JP2022070125A (en) | System, first device, and computer program for first device | |
JP2019184153A (en) | Network system, server and information processing method | |
JP2019021980A (en) | Network system, information processing method, server, and terminal | |
JP2018142776A (en) | Network system, information processing method, server, and terminal | |
JP2005097898A (en) | Toilet control unit and system toilet | |
JP2017151742A (en) | Network system, server, information processing method, and electric appliance | |
JP7273695B2 (en) | Network systems, electrical equipment, and programs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141216 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150421 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150609 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150723 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5785218 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |