JP7180139B2 - Robot, robot control method and program - Google Patents
Robot, robot control method and program Download PDFInfo
- Publication number
- JP7180139B2 JP7180139B2 JP2018118480A JP2018118480A JP7180139B2 JP 7180139 B2 JP7180139 B2 JP 7180139B2 JP 2018118480 A JP2018118480 A JP 2018118480A JP 2018118480 A JP2018118480 A JP 2018118480A JP 7180139 B2 JP7180139 B2 JP 7180139B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- predetermined target
- approach
- predetermined
- approaching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Description
本発明は、ロボット、ロボットの制御方法及びプログラムに関する。 The present invention relates to a robot, a robot control method, and a program.
ロボット等の機器が普及するには所定の対象への親しみやすさをどのように表現するかが重要な点となっている。現状では、所定の対象への好感度に応じてロボットと所定の対象との間の距離を変更する技術が知られている。(例えば、特許文献1参照)。
In order for devices such as robots to become widespread, it is important how to express familiarity with a given target. At present, there is known a technique for changing the distance between a robot and a predetermined target according to the likability of the predetermined target. (See
しかしながら、特許文献1の技術は、好感度に応じて所定の対象との間の移動後の距離のみを変更するものであり、所定の対象への好感度に応じた感情表現としては不充分であるという問題がある。
However, the technique of
そこで、本発明は、前述のような事情に鑑みてなされたものであり、所定の対象に好感度に応じて従来よりも豊かな感情表現をすることができるロボット、ロボットの制御方法及びプログラムを提供することを目的とする。 Accordingly, the present invention has been made in view of the circumstances as described above, and provides a robot, a robot control method, and a program capable of expressing richer emotions than ever before according to a predetermined target's favorability. intended to provide
前記目的を達成するため、本発明に係るロボットの一様態は、
所定の対象を認識する認識手段と、
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態として、自装置が前記所定の対象に接近する場合の接近経路、接近速度、対向角度、接近姿勢を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように前記自装置を制御する制御手段と、
を備え、
前記制御手段は、
前記好感度が閾値よりも高い場合、直線的な第1の接近経路で、第1の接近速度で、前記所定の対象と正面から向き合うような第1の接近姿勢に対応する第1の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、蛇行する第2の接近経路で、前記第1の接近速度よりも遅い第2の接近速度で、前記所定の対象と正面から向き合わないような第2の接近姿勢に対応する第2の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御する、
ことを特徴とする。
また、本発明に係るロボットの一様態は、
所定の対象を認識する認識手段と、
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように自装置を制御する制御手段と、
を備え、
前記制御手段は、前記所定の対象への接近中において、前記感情表現として、
前記好感度が閾値よりも高い場合、前記所定の対象に好意的な動作をするように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、前記所定の対象に好意的でない動作をするように前記自装置を制御する、
ことを特徴とする。
また、本発明に係るロボットの一様態は、
所定の対象を認識する認識手段と、
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように自装置を制御する制御手段と、
を備え、
前記所定の対象への接近中において、前記認識手段が、前記所定の対象とは異なる他の対象を認識した場合、
前記決定手段は、前記認識手段により認識された前記他の対象に対する他の好感度に基づいて、前記他の対象に対する通過中の通過様態を決定して、
前記制御手段は、前記他の対象への通過中において、前記決定手段により決定された前記通過様態に応じて前記他の対象に他の感情表現をするように前記自装置を制御する、
ことを特徴とする。
In order to achieve the above object, one aspect of the robot according to the present invention is
recognition means for recognizing a predetermined target;
Based on the likability of the predetermined target recognized by the recognition means, as an approach mode during approaching the predetermined target, an approach route, an approach speed, and an opposing direction when the device approaches the predetermined target. Determining means for determining the angle and approach attitude ;
a control means for controlling the self -apparatus to express an emotion toward the predetermined object according to the manner of approach determined by the determination means while the apparatus is approaching the predetermined object;
with
The control means is
When the favorability is higher than a threshold, a first approach angle corresponding to a first approach posture facing the predetermined target head-on on a straight first approach path at a first approach speed. and controlling the self-device so that the self-device approaches the predetermined target,
When the favorability is lower than the threshold value, a meandering second approach route, a second approach speed slower than the first approach speed, and a second approach speed that does not face the predetermined target head-on. controlling the self-device so that the self-device approaches the predetermined target at a second facing angle corresponding to the approach posture;
It is characterized by
Further, one aspect of the robot according to the present invention is
recognition means for recognizing a predetermined target;
determining means for determining an approaching manner during approaching the predetermined target based on the liking for the predetermined target recognized by the recognizing means;
a control means for controlling the apparatus to express an emotion to the predetermined object according to the approach mode determined by the determining means while the apparatus is approaching the predetermined object;
with
The control means, while approaching the predetermined object, as the emotional expression,
controlling the self-device to perform a favorable action toward the predetermined target when the favorability is higher than a threshold;
controlling the self-device to perform an action unfavorable to the predetermined target when the favorability is lower than the threshold;
It is characterized by
Further, one aspect of the robot according to the present invention is
recognition means for recognizing a predetermined target;
determining means for determining an approaching manner during approaching the predetermined target based on the liking for the predetermined target recognized by the recognizing means;
a control means for controlling the apparatus to express an emotion to the predetermined object according to the approach mode determined by the determining means while the apparatus is approaching the predetermined object;
with
When the recognition means recognizes another target different from the predetermined target while approaching the predetermined target,
The determining means determines a passing mode during passage for the other object based on the other favorable impression of the other object recognized by the recognizing means,
The control means controls the own device to express another emotion to the other object in accordance with the passage mode determined by the determination means during passage to the other object.
It is characterized by
前記目的を達成するため、本発明に係るロボットの制御方法の一様態は、
所定の対象を認識する認識ステップと、
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中のロボットの接近様態として、前記ロボットが前記所定の対象に接近する場合の接近経路、接近速度、対向角度、接近姿勢を決定する決定ステップと、
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするように前記ロボットを制御する制御ステップと、を含み、
前記制御ステップにおいて、
前記好感度が閾値よりも高い場合、直線的な第1の接近経路で、第1の接近速度で、前記所定の対象と正面から向き合うような第1の接近姿勢に対応する第1の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御して、
前記好感度が前記閾値よりも低い場合、蛇行する第2の接近経路で、前記第1の接近速度よりも遅い第2の接近速度で、前記所定の対象と正面から向き合わないような第2の接近姿勢に対応する第2の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御する、
ことを特徴とする。
また、本発明に係るロボットの制御方法の一様態は、
所定の対象を認識する認識ステップと、
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定ステップと、
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするようにロボットを制御する制御ステップと、を含み、
前記制御ステップでは、前記所定の対象への接近中において、前記感情表現として、
前記好感度が閾値よりも高い場合、前記所定の対象に好意的な動作をするように前記ロボットを制御して、
前記好感度が前記閾値よりも低い場合、前記所定の対象に好意的でない動作をするように前記ロボットを制御する、
ことを特徴とする。
また、本発明に係るロボットの制御方法の一様態は、
所定の対象を認識する認識ステップと、
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定ステップと、
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするようにロボットを制御する制御ステップと、を含み、
前記所定の対象への接近中において、前記所定の対象とは異なる他の対象が認識された場合、
認識された前記他の対象に対する他の好感度に基づいて、前記他の対象に対する通過中の通過様態を決定して、
前記他の対象への通過中において、決定された前記通過様態に応じて前記他の対象に他の感情表現をするように前記ロボットを制御する、
ことを特徴とする。
In order to achieve the above object, one aspect of the robot control method according to the present invention includes:
a recognition step of recognizing a predetermined target;
An approach path and an approach speed when the robot approaches the predetermined object as an approach mode of the robot that is approaching the predetermined object, based on the likability for the predetermined object recognized in the recognition step , the facing angle and the approaching attitude ;
a control step of controlling the robot to express an emotion toward the predetermined object according to the manner of approach determined in the determining step while the robot is approaching the predetermined object;
In the control step,
When the favorability is higher than a threshold, a first approach angle corresponding to a first approach posture facing the predetermined target head-on on a straight first approach path at a first approach speed. and controlling the robot so that the robot approaches the predetermined target,
When the favorability is lower than the threshold value, a meandering second approach route, a second approach speed slower than the first approach speed, and a second approach speed that does not face the predetermined target head-on. controlling the robot so that the robot approaches the predetermined target at a second facing angle corresponding to the approach posture;
It is characterized by
Further, one aspect of the robot control method according to the present invention includes:
a recognition step of recognizing a predetermined target;
a determination step of determining an approach mode during approach to the predetermined target based on the likability of the predetermined target recognized in the recognition step;
a control step of controlling the robot to express an emotion toward the predetermined object according to the manner of approach determined in the determining step while the robot is approaching the predetermined object;
In the control step, during the approach to the predetermined target, as the emotional expression,
controlling the robot to perform a favorable action toward the predetermined target when the favorable rating is higher than a threshold;
controlling the robot to perform an unfavorable action toward the predetermined target when the favorable rating is lower than the threshold;
It is characterized by
Further, one aspect of the robot control method according to the present invention includes:
a recognition step of recognizing a predetermined target;
a determination step of determining an approach mode during approach to the predetermined target based on the likability of the predetermined target recognized in the recognition step;
a control step of controlling the robot to express an emotion toward the predetermined object according to the manner of approach determined in the determining step while the robot is approaching the predetermined object;
When another target different from the predetermined target is recognized while approaching the predetermined target,
Determining a transit mode during transit for the other object based on the perceived other likability for the other object,
controlling the robot to express another emotion to the other object in accordance with the determined passage mode during the passage to the other object;
It is characterized by
また、前記目的を達成するため、本発明に係るプログラムの一様態は、
ロボットのコンピュータに、
所定の対象を認識する認識処理と、
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態として、前記ロボットが前記所定の対象に接近する場合の接近経路、接近速度、対向角度、接近姿勢を決定する決定処理と、
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
を実行させ、
前記制御処理において、
前記好感度が閾値よりも高い場合、直線的な第1の接近経路で、第1の接近速度で、前記所定の対象と正面から向き合うような第1の接近姿勢に対応する第1の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御して、
前記好感度が前記閾値よりも低い場合、蛇行する第2の接近経路で、前記第1の接近速度よりも遅い第2の接近速度で、前記所定の対象と正面から向き合わないような第2の接近姿勢に対応する第2の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御する、
ことを特徴とする。
また、本発明に係るプログラムの一様態は、
ロボットのコンピュータに、
所定の対象を認識する認識処理と、
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定処理と、
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
を実行させ、
前記制御処理では、前記所定の対象への接近中において、前記感情表現として、
前記好感度が閾値よりも高い場合、前記所定の対象に好意的な動作をするように前記ロボットを制御して、
前記好感度が前記閾値よりも低い場合、前記所定の対象に好意的でない動作をするように前記ロボットを制御する、
ことを特徴とする。
また、本発明に係るプログラムの一様態は、
ロボットのコンピュータに、
所定の対象を認識する認識処理と、
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定処理と、
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
を実行させ、
前記所定の対象への接近中において、前記所定の対象とは異なる他の対象が認識された場合、
認識された前記他の対象に対する他の好感度に基づいて、前記他の対象に対する通過中の通過様態を決定して、
前記他の対象への通過中において、決定された前記通過様態に応じて前記他の対象に他の感情表現をするように前記ロボットを制御する、
ことを特徴とする。
Further, in order to achieve the above object, one aspect of the program according to the present invention is
to the robot's computer
a recognition process for recognizing a predetermined target;
Based on the likability for the predetermined object recognized by the recognition process, as an approach mode during approaching the predetermined object, an approach route, an approach speed, and an opposing position when the robot approaches the predetermined object. determination processing for determining an angle and an approach posture ;
a control process for controlling the robot to express an emotion toward the predetermined target according to the approach mode determined by the determination process while the robot is approaching the predetermined target;
and
In the control process,
When the favorability is higher than a threshold, a first approach angle corresponding to a first approach posture facing the predetermined target head-on on a straight first approach path at a first approach speed. and controlling the robot so that the robot approaches the predetermined target,
When the favorability is lower than the threshold value, a meandering second approach route, a second approach speed slower than the first approach speed, and a second approach speed that does not face the predetermined target head-on. controlling the robot so that the robot approaches the predetermined target at a second facing angle corresponding to the approach posture ;
It is characterized by
In addition, one aspect of the program according to the present invention is
to the robot's computer
a recognition process for recognizing a predetermined target;
a determination process of determining an approach state during approach to the predetermined target based on the likability for the predetermined target recognized by the recognition process;
a control process for controlling the robot to express an emotion toward the predetermined target according to the approach mode determined by the determination process while the robot is approaching the predetermined target;
and
In the control process, during the approach to the predetermined object, as the emotional expression,
controlling the robot to perform a favorable action toward the predetermined target when the favorable rating is higher than a threshold;
controlling the robot to perform an unfavorable action toward the predetermined target when the favorable rating is lower than the threshold;
It is characterized by
In addition, one aspect of the program according to the present invention is
to the robot's computer
a recognition process for recognizing a predetermined target;
a determination process of determining an approach state during approach to the predetermined target based on the likability for the predetermined target recognized by the recognition process;
a control process for controlling the robot to express an emotion toward the predetermined target according to the approach mode determined by the determination process while the robot is approaching the predetermined target;
and
When another target different from the predetermined target is recognized while approaching the predetermined target,
Determining a transit mode during transit for the other object based on the perceived other likability for the other object,
controlling the robot to express another emotion to the other object in accordance with the determined passage mode during the passage to the other object;
It is characterized by
本発明によれば、所定の対象に好感度に応じて従来よりも豊かな感情表現をすることができるロボット、ロボットの制御方法及びプログラムを提供することが可能となる。 According to the present invention, it is possible to provide a robot, a robot control method, and a program capable of expressing richer emotions than ever before according to a predetermined target's favorability.
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。以下の実施の形態では、本発明の実施の形態に係る対話装置を備えるロボットを例に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following embodiments, robots equipped with interactive devices according to embodiments of the present invention will be described as examples.
ロボット100は、所定の対象とコミュニケーションをするロボットである。ここで、所定の対象とは、ロボット100を利用するユーザ(利用者)であり、典型的には、ロボット100の所有者や所有者の家族や友人等である。また、所定の対象には、人以外に、動物や他のロボットも含まれる。
A
ロボット100は、図1に示すように、外観的には人間を模した立体的な形状を有するロボットである。また、ロボット100の外装は、合成樹脂を主たる材料として形成されている。ロボット100は、胴体部101と、胴体部101の上部に接続する頭部102と、胴体部101の左右のそれぞれに接続する手部103と、胴体部101の下部に接続する2本の足部104と、を有する。頭部102、手部103、足部104の各部は、図示しない関節部材を介して胴体部101に取り付けられ、後述する制御部110の制御に従って、予め設定された動作を行うように構成されている。また、頭部102は、左右一対の目部105、口部106を有する。なお、図1の上側、下側、左側、右側を、各々、ロボット100の上側、下側、右側、左側とする。
The
次に、図2を参照して、ロボット100の構成について説明する。ロボット100は、図2に示すように、制御部110、記憶部120、撮像部130、センサ部140、移動部150、動作部160、音声入力部170、音声出力部180を備える。これらの各部は、バスラインBLを介して相互に電気的に接続されている。
Next, the configuration of the
制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を有するコンピュータにより構成され、ロボット100の動作を制御する。制御部110は、CPUがROMに記憶された制御プログラムを読み出してRAM上で実行することにより、ロボット100の各部の動作を制御する。
The
制御部110は、制御プログラムを実行することによって、ユーザ認識部111、顔認識部112、音声認識部113、ユーザ行動認識部114、好感度設定部(好感度取得部)115、応対制御部(接近制御部)116として機能する。
By executing the control program, the
ユーザ認識部111は、ロボット100の周囲(例えば、ロボット100から半径3mの範囲内)に存在するユーザを識別して認識する。ユーザ認識部111は、例えば、後述する顔認識部112による顔認識結果、音声認識部113による話者認識結果のいずれか又は両方に基づいて、ロボット100の周囲に存在するユーザが誰であるかを認識する。また、ユーザ認識部111は、例えば、顔認識部112が撮像部130の撮像画像から検出した顔画像の位置や大きさ、音声認識部113が認識した音源方向等に基づいて、ロボット100の周囲に存在するユーザの位置及びユーザまでの距離を認識する。ユーザ認識部111は、本発明の認識手段として機能する。
The
顔認識部112は、ロボット100の周囲に存在するユーザの顔を認識する。顔認識部112は、例えば、後述する撮像部130から取得した撮像画像に基づき、周知の顔検出技術、物体検出技術等を用いて、ロボット100の周囲に存在するユーザを検知する。続いて、顔認識部112は、例えば、撮像部130による撮像画像から検知したユーザの顔部分に相当する顔画像を検出して、顔の特徴量を示す顔特徴情報を抽出する。そして、顔認識部112は、顔画像から抽出した顔特徴情報と、後述する記憶部120のユーザ情報DB(Data Base)121が記憶する各ユーザ情報に含まれる顔特徴情報とを照合し、類似度が所定の基準を満たす登録ユーザを特定する。顔認識部112は、類似度が所定の基準を満たす登録ユーザを特定できない場合には、検出したユーザは未登録ユーザであると認識する。顔の特徴量は、ユーザの顔を識別可能な情報であればよく、例えば、目、鼻、口等の顔に含まれる各パーツの形状、大きさ、配置等の外観的特徴を数値で示したものである。このように、顔認識部112は、本発明の顔認識手段として機能する。
The
音声認識部113は、後述する音声入力部170から取得した音声データに含まれるユーザの発話の内容を認識する。音声認識部113は、記憶部120の音声認識DB122に格納された音声認識データを用いて、音声データに音声認識処理を行い、発話認識結果として、ユーザの発話内容を示すテキストデータを生成する。音声認識部113は、本発明の音声認識手段として機能する。
The
また、音声認識部113は、音声入力部170から取得した音声データに含まれる音声を発した発話者を認識する。音声認識部113は、例えば、音声入力部170から取得した音声データから背景雑音等を消去し、ユーザの音声の特徴量を示す音声特徴情報を抽出する。そして、音声認識部113は、音声データから抽出した音声特徴情報と、記憶部120のユーザ情報DB121が記憶する各ユーザ情報に含まれる音声特徴情報とを照合し、話者認識結果として、類似度が所定の基準を満たす登録ユーザを特定する。音声特徴情報は、ユーザの音声を識別可能な情報であればよく、例えば、声の高さ、強さ、速さ、声質等の音響的特徴を数値で示したものである。このように、音声認識部113は、ユーザ認識部111によりロボット100の周囲に存在する複数のユーザが認識された場合、何れのユーザによって発話されたかを特定することが可能である。
The
また、音声認識部113は、音声入力部170から取得した音声データに基づいて、音源方向を認識する。音声認識部113は、例えば、音声入力部170が有するマイクユニットの各マイクの集音時間差や音圧レベル差等に基づいて音源方向を認識する。
Also, the
ユーザ行動認識部114は、ロボット100に対するユーザの行動(以下、「ユーザ行動」と称する)を認識する。ユーザ行動認識部114は、例えば、音声認識部113により認識されたユーザの発話内容、センサ部140のタッチセンサにより検出された接触強度等に応じて、ユーザ行動を認識する。ユーザ行動認識部114は、例えば、タッチセンサにより検出された接触強度が予め設定された基準値よりも低い場合には、そのユーザ行動を「撫でる」と認識し、接触強度が予め設定された基準値よりも高い場合には、そのユーザ行動を「叩く」と認識する。なお、ユーザ行動判定部は、撮像部130による撮像画像からユーザの表情や振る舞い等を検出することにより、ユーザ行動として認識してもよい。ユーザ行動認識部114は、認識したユーザ行動を、該当するユーザのユーザ情報に追加し、履歴情報として記憶する。ユーザ行動認識部114は、本発明の行動認識手段として機能する。
The user
好感度設定部(好感度取得部)115は、各ユーザの好感度を設定(取得)する。好感度設定部115は、例えば、ロボット100に対するユーザ行動に応じて、そのユーザに対する好感度を決定する。好感度設定部115は、好感度を決定するにあたり、例えば、記憶部120に記憶されたユーザ行動テーブル及び好感度設定テーブル(好感度取得テーブル)を参照する。
The positivity setting unit (positiveness acquisition unit) 115 sets (acquires) the positivity of each user. The
ユーザ行動テーブルは、図3に示すように、「ユーザ行動」と「付与ポイント」とが対応付けられている。「ユーザ行動」として、「話しかける」、「撫でる」等が列挙されている。また、「付与ポイント」は、各ユーザ行動に予め設定された数値である。各ユーザ行動に異なる付与ポイントを設定することにより、ユーザ行動の属性(ロボット100に対するユーザの好意性)に応じた重み付けが施されている。例えば、「話しかける」、「撫でる」等の好意的な行動には正値が設定され、「応答しない」、「叩く」等の非好意的な行動には負値が設定されている。このような重み付けを施すことにより、各ユーザ行動を、好意的な行動と非好意的な行動とに区別することができるとともに、好意的な行動であれば好感度を上げ、非好意的な行動であれば好感度を下げることができる。 In the user behavior table, as shown in FIG. 3, "user behavior" and "granted points" are associated with each other. As "user actions", "talking", "stroking", etc. are listed. Also, the "given point" is a numerical value preset for each user action. By setting different points for each user action, weighting according to the attribute of the user action (the user's favorability toward the robot 100) is applied. For example, positive values are set for favorable actions such as "talking" and "stroking", and negative values are set for unfavorable actions such as "not responding" and "hitting". By applying such weighting, it is possible to distinguish each user behavior into favorable behavior and unfavorable behavior, and if the behavior is favorable, the favorability is increased, and if the behavior is unfavorable, If so, you can lower your sensitivity.
好感度設定テーブルは、図4に示すように、「好感度」と「好感度ポイント」とが対応付けられている。「好感度」は、好感度の度合いに応じて、「A」、「B」、「C」、「D」、「E」の5つのレベルに分類されている。「好感度ポイント」は、所定期間において同一のユーザによって実施された各ユーザ行動に設定された付与ポイントの合計値である。好感度「A」~「E」の順に高い好感度ポイントが対応付けられている。すなわち、好感度に関する1または複数の閾値が設けられ、好感度は、設けられた閾値によって複数の区分に分類されている。「好感度ポイント」は、例えば、直近の所定期間における付与ポイントの合計値、最近の所定期間における好感度ポイントほど重みを大きくして求めた加重平均値、直近の所定期間を含むある程度長期間の好感度ポイントによって求めた移動平均値等を用いることができる。 As shown in FIG. 4, the favorable impression setting table associates "positive impression" with "positive impression point". "Favorability" is classified into five levels of "A", "B", "C", "D", and "E" according to the degree of favorability. The “favorable impression point” is the total value of points given to each user action performed by the same user during a predetermined period. Favorability points are associated in the order of favorability "A" to "E". That is, one or a plurality of thresholds are provided for favorable ratings, and positive ratings are classified into a plurality of categories according to the provided thresholds. "Favorability points" are, for example, the total value of the points granted in the most recent predetermined period, the weighted average value obtained by increasing the weight as the favorability points in the most recent predetermined period, and the A moving average or the like obtained from favorable impression points can be used.
好感度設定部115は、例えば、所定期間が経過する毎に、各ユーザの好感度(好感度レベル)を設定し、記憶部120のユーザ情報DB121に格納された対応するユーザ情報に含まれる現状の好感度を更新して記憶する。また、好感度設定部115は、ユーザ情報DB121に格納された該当するユーザ情報を参照して予め設定された好感度を適宜取得することができる。このように、好感度設定部115は、本発明の記録手段、取得手段として機能する。
The
応対制御部116は、対象ユーザに対する好感度に応じて応対様態を決定し、決定された応対様態に基づいて、感情表現をするように、移動部150、動作部160、音声出力部180のうち少なくとも1つを制御して、各種行動を実行する。
The
応対制御部116は、ユーザ行動認識部114がユーザ行動を認識した場合、そのユーザ行動に応答するロボット100の行動(以下、「応答行動(応答動作)」と称する)を実行するための応対様態を好感度に応じて決定する。応対制御部116は、例えば、ユーザ行動認識部114が「おはよう」、「こんにちは」等のあいさつを認識した場合、好感度が高い対象ユーザに対しては、「おはよう」、「こんにちは」等のあいさつと、これに続けて、「今日はいい天気だね」、「今日は何をするの?」等の対象ユーザとの対話を持続、発展させるような発話を加えた応答を応対様態として決定する。一方、好感度が低い対象ユーザに対しては、「おはよう」、「こんにちは」等のあいさつのみの形式的、儀礼的な応答を応対様態として決定する。そして、応対制御部116は、音声出力部180を制御して、決定された応答様態を示す音声を出力する。
When the user
また、応対制御部116は、ユーザ行動認識部114がユーザ行動を認識した場合、対象ユーザが予め設定された接近条件を満たすか否かを判定し、接近条件を満たすと判定した場合には、好感度に応じて応対様態としての接近様態を決定する。接近条件として、対象ユーザがロボット100を自身の近傍に呼び寄せるための呼びかけ(例えば、「おいで」、「こっちに来て」等)があったこと等が挙げられる。この場合、応対制御部116は、音声認識部113による発話認識結果に基づいて、接近条件を満たすか否かを判定すればよい。以下の説明では、接近条件を満たす対象ユーザを、「接近対象ユーザ」と称する。接近条件を満たすと判定した場合、応対制御部116は、例えば、図5に示す接近様態決定テーブルを参照して、接近様態として、接近対象ユーザに接近中の移動経路(接近経路)及び移動速度(接近速度)、接近終了時の接近対象ユーザとの間の対向距離(接近距離)及びユーザと向き合う接近中又は接近終了時の対向姿勢(接近姿勢)のうちの少なくとも1つを決定する。このように、応対制御部(接近制御部)116は、本発明の制御手段、決定手段として機能する。
Further, when the user
接近様態決定テーブルは、例えば、図5に示すように、好感度のレベル毎に、応対様態(接近様態)として「移動経路」、「移動速度」、「対向距離」、「対向姿勢」が対応付けられている。 For example, as shown in FIG. 5, the approach mode determination table corresponds to "moving path", "moving speed", "facing distance", and "facing posture" as the response mode (approach mode) for each level of favorability. attached.
「移動経路(接近経路)」は、好感度が高いほど接近対象ユーザに向かって直行する(直線的な)経路パターンが設定され、好感度が低いほど遠回りをする(蛇行する)経路パターンが設定されている。例えば、好感度「A」には直線的な経路である「直線」、好感度「C」には曲率が小さい経路である「湾曲(大)」、好感度「E」には蛇行幅が大きい経路である「蛇行(大)」、がそれぞれ設定されている。 For the "movement route (approach route)", the higher the favorability, the direct (straight) route pattern toward the approach target user is set, and the lower the favorability, the more detour (meandering) route pattern is set. It is For example, "Straight" is a straight path for favorable rating "A"; A path "Meandering (Large)" is set.
より具体的には、移動経路「直線」の場合、図6に示すように、ロボット100は、接近対象ユーザURに向かって、直線的な移動経路MRに沿って接近する。また、移動経路「湾曲(大)」、「湾曲(小)」の場合、図7に示すように、ロボット100は、接近対象ユーザURに向かって、湾曲した移動経路MRに沿って接近する。なお、「湾曲(大)」は、「湾曲(小)」よりも曲率が小さいことを示す。また、移動経路「蛇行(大)」、「蛇行(小)」の場合、図8に示すように、ロボット100は、接近対象ユーザURに向かって、蛇行した移動経路MRに沿って接近する。なお、「蛇行(大)」は、「蛇行(小)」よりも蛇行幅が大きいことを示す。このように、「移動経路」は、好感度が低くなるに従って移動距離が長くなるように設定されている。応対制御部116は、ユーザ認識部111が認識した対象ユーザの位置及び対象ユーザまでの距離、「移動経路」が示す経路パターンに基づいて、具体的な移動経路を決定する。
More specifically, in the case of the movement route “straight line”, as shown in FIG. 6, the
「移動速度(接近速度)」は、好感度が高いほど高速で移動するように設定され、好感度が低いほど低速で移動するように設定されている。例えば、好感度「A」には予め設定された標準速度(例えば、0.3m/秒)よりも高速である「高」(例えば、0.5m/秒)、好感度「B」には標準速度よりもやや高速である「やや高」(例えば、0.4m/秒)、好感度「C」には標準速度である「中」、好感度「D」には標準速度よりもやや低速である「やや低」(例えば、0.2m/秒)、好感度「E」には標準速度よりも低速である「低」(例えば、0.1m/秒)が設定されている。 The "moving speed (approaching speed)" is set such that the higher the favorability, the higher the speed, and the lower the favorability, the lower the speed. For example, "high" (e.g., 0.5 m/sec), which is faster than a preset standard speed (e.g., 0.3 m/sec), is for favorability "A", and standard speed is for favorability "B". "Slightly high" (for example, 0.4 m / sec), which is slightly faster than the speed, "Medium", which is the standard speed for favorability "C", and slightly slower than the standard speed for favorability "D" Some "slightly low" (for example, 0.2 m/sec), and the favorability "E" is set to "low" (for example, 0.1 m/sec), which is slower than the standard speed.
「対向距離(接近距離)」は、好感度が高いほど移動終了時にロボット100と接近対象ユーザとの間の距離が短くなるように設定され、好感度が低いほど移動終了時にロボット100と接近対象ユーザとの間の距離が長くなるように設定されている。例えば、好感度「A」には予め設定された標準距離(例えば、0.5m)よりも短い距離(例えば、0.3m)である「短」、好感度「B」には標準距離よりもやや短い距離(例えば、0.4m)である「やや短」、好感度「C」には標準距離である「中」、好感度「D」には標準距離よりもやや長い距離(例えば、0.6m)である「やや長」、好感度「E」には標準距離よりも長い距離(例えば、0.7m)である「長」が設定されている。このように、「対向距離」は、好感度が低くなるに従って、離間した位置で接近移動を終了して接近対象ユーザと向き合うように設定されている。
The "opposing distance (approaching distance)" is set so that the higher the favorability, the shorter the distance between the
「対向姿勢(接近姿勢)」は、ロボット100が、接近対象ユーザに向かう接近中又は接近終了時にユーザに向き合う姿勢であって、図9及び図10に示すように、接近対象ユーザURの正面方向UDとロボット100の正面方向RDとがなす角度である対向角度αによって表されている。ここで、接近対象ユーザの正面方向UDは、接近対象ユーザの左右方向に沿った面を後方から前方に垂直に貫く方向である。また、ロボット100の正面方向RDとは、ロボット100の左右方向に沿った面を後方から前方に垂直に貫く方向である。好感度が高いほど接近対象ユーザと真正面で向き合うように設定され、好感度が低いほど接近対象ユーザと斜めに向き合うように設定されている。例えば、好感度「A」には「0°」、好感度「B」には「10°」好感度「C」には「20°」、好感度「D」には「30°」、好感度「E」には「40°」が設定されている。対向角度αが0°の場合には、図9に示すように、ロボット100は接近対象ユーザURと真正面に向き合い、対向角度αが0°以外の場合には、図10に示すように、ロボット100が接近対象ユーザURと斜めに向き合うことになる。
The "facing posture (approaching posture)" is a posture in which the
なお、ロボット100の胴体部101と頭部102の正面方向が一致するものとして説明したが、ロボット100の胴体部101を接近対象ユーザと真正面で向き合うようにして、ロボット100の頭部102(顔部)の正面方向と接近対象ユーザの正面方向とがなす角度を対向角度αとしてもよい。すなわち、好感度が低くなるにつれて、頭部102を左右いずれかの方向に回転させて、ロボット100の頭部102(顔部)を接近対象ユーザからそむけるようにしてもよい。
Although the front directions of the
このように、図5に示す接近様態決定テーブルには、ロボット100が、好感度が高いユーザに対して早く近くに接近するといった好意的な動作を実行する一方、好感度が低いユーザに対して時間をかけて移動し離れた位置で接近をやめるといった好意的でない動作を実行するように、接近様態が設定されている。なお、接近様態決定テーブルにおいて、好感度の度合い(レベル)に応じて、優先的な動作や優先的でない動作を設定してもよい。
As described above, in the approach mode determination table shown in FIG. 5, the
さらに、応対制御部116は、ユーザ行動認識部114がユーザ行動を認識しない場合であっても、ロボット100の自発的な行動(以下、「自発行動」と称する)を実行するか否かを判定し、実行すると判定した場合には、自発行動を実行するための応対様態を好感度に応じて決定する。自発行動を実行するか否かの判定に際して、例えば、ユーザ行動認識部114がユーザ行動を認識しない時間、すなわち、対象ユーザがロボット100に対して何ら働きかけをしない時間が、所定時間(例えば、30分)継続したこと等を判定条件として用いればよい。自発行動としては、対象ユーザにロボットとのコミュニケーションを促す発話(例えば、「何をしているの?」、「会話しようよ」等)や動作(例えば、対象ユーザの注意を引くように手を振る動作等)が挙げられ、好感度に応じて発話内容や動作の程度が適宜調整される。なお、ユーザ行動の有無や接近条件を満たすか否かに関わらず、好感度の高い対象ユーザに対しては自発的に接近するようにしてもよい。
Furthermore, even if the user
なお、ユーザ認識部111、顔認識部112、音声認識部113、ユーザ行動認識部114、好感度設定部115、応対制御部116は、単一のコンピュータで各機能を実現してもよいし、各々別個のコンピュータによって各機能を実現してもよい。
The
記憶部120は、記憶内容が書き換え可能な不揮発性の半導体メモリ、ハードディスクドライブ等を備え、制御部110がロボット100の各部を制御するために必要な各種データを記憶する。記憶部120は、例えば、前述したユーザ行動テーブル、好感度設定テーブル、接近様態決定テーブル等を所定の記憶領域に記憶する。記憶部120は、本発明の記録手段として機能する。
The
また、記憶部120は、各種データをそれぞれ格納する複数のデータベースを有する。記憶部120は、例えば、ユーザ情報DB121、音声認識DB122、対話情報DB123を有する。
The
ユーザ情報DB121は、登録ユーザに関する各種情報をユーザ情報として蓄積して記憶する。ユーザ情報は、例えば、ユーザを識別するために予め割り当てられたユーザ識別情報、ユーザの顔の特徴量を示す顔特徴情報、ユーザの音声の特徴量を示す音声特徴情報、所定の期間毎のユーザ行動や好感度ポイント等の履歴情報、現状の好感度等を含む。
The
音声認識DB122は、音声認識処理に用いられる音声認識データを格納する。音声認識データには、例えば、他の語と意味を区別する音の最小単位である音素の各々の特徴(周波数特性)を表わす音響モデル、音素の特徴と単語とを対応付ける単語辞書、単語の並びとその連接確率を表す言語モデルが含まれる。
The
対話情報DB123は、応対制御部116が、ユーザとの対話におけるロボット100の応答及び発話に係る音声データを生成するために必要となる対話情報を格納する。対話情報は、例えば、ユーザの発話に対するロボット100の応答を生成するために用いられる応答情報、ユーザに自発的に話しかける際のロボット100の発話を生成するために用いられる発話情報、ロボット100の応答及び発話の合成音声波形を示す音声データを生成するために用いられる音声合成情報を含む。応答情報は、例えば、ユーザの発話内容を示すテキストデータと、ロボット100の応答内容を示すテキストデータとが対応付けられている。発話情報は、例えば、ロボット100の発話内容を示すテキストデータを含む。また、音声合成情報は、例えば、テキストデータを音声化するために用いられる各音素の音声波形を示す音声データを含む。
The
撮像部130は、レンズ、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を備えるカメラで構成され、ロボット100の周囲を撮像する。撮像部130は、例えば頭部102の正面上部に設置され、頭部102の前方を撮像し、デジタル画像データを生成して出力する。カメラは、レンズが向く方向を変えるように動作可能なモータ駆動の架台(ジンバル等)に取り付けられ、ユーザの顔等を追尾することができるように構成される。撮像部130は、本発明の撮像手段として機能する。
The
センサ部140は、ロボット100の外部状態及び内部状態を示す情報(物理量)を取得し、適宜、所定の信号に変換して制御部110に供給する。センサ部140は、例えば、ユーザの接触により受けた圧力を検知するタッチセンサ、ロボット100の加速度を検知する加速度センサ、外部の温度及び湿度を検知する温湿度センサ等の各種センサを有する。タッチセンサは、接触圧力の大きさに応じて、「撫でる」や「叩く」といったユーザの物理的な働きかけを認識するために、例えば、頭部102の上方部に配置される。なお、加速度センサを用いて、互いに直交する3軸方向の加速度から接触強度を検出してもよい。
The
移動部150は、ロボット100を移動可能とするための部位である。移動部150は、例えば、ロボット100の左右の足部104の底部にそれぞれ設けられた車輪と、左右の車輪を回転駆動するモータと、モータを駆動制御する駆動回路と、を有する。制御部110から受信した制御信号に従って、駆動回路は、モータに駆動用のパルス信号を供給する。モータは、駆動用のパルス信号に従って、左右の車輪を回転駆動させ、ロボット100を移動させる。このように、移動部150は、本発明の移動手段として機能する。なお、左右の車輪がそれぞれ独立して回転駆動するように構成され、ロボット100が前進、後退、旋回、加減速などの走行が可能であれば、モータの数は任意である。例えば、連結機構や操舵機構を設けるなどして1つのモータで左右の車輪を駆動させてもよい。また、モータの数に合わせて駆動回路の数も適宜変更することができる。
The moving
動作部160は、制御部110の制御に従って予め定められた動作を行う部位である。動作部160は、頭部102、手部103、足部104等の被駆動部材と、被駆動部材を駆動するアクチュエータ等の駆動部材と、駆動部材を駆動制御する駆動回路と、により構成される。動作部160は、制御部110(応対制御部116)の制御の下、駆動回路から供給された駆動信号に従って駆動部材が被駆動部材を駆動することにより、例えば、手足を動かす動作や頭を上下左右に振る動作を行う。このように、動作部160は、本発明の動作手段として機能する。
The
音声入力部170は、複数のマイクで構成されるマイクユニット、A/D(Analog to Digital)変換器等で構成され、例えば頭部102の異なる位置に設置された複数のマイクで集音した音声を増幅し、A/D変換、符号化等の信号処理を施したデジタル音声データ(音声情報)を制御部110に出力する。音声入力部170は、本発明の音声入力手段として機能する。
The
音声出力部180は、スピーカ、D/A(Digital to Analog)変換器等で構成され、制御部110(応対制御部116)から供給される音声データに復号化、D/A変換、増幅等の信号処理を施し、アナログ音声信号を例えば口部106に設置されたスピーカから出力する。このように、音声出力部180は、本発明の音声出力手段として機能する。
The
次に、図11に示すフローチャートを参照しながら、ロボット100が実行する応対制御処理について説明する。応対制御処理は、ロボット100が好感度に応じた応対様態で対象ユーザと応対するようにロボット100の行動を制御する処理である。制御部110は、ユーザ認識部111がロボット100の周囲に存在するユーザを認識したことを契機に、応対制御処理を開始する。
Next, the response control process executed by the
制御部110は、応対制御処理を開始すると、まず、対象ユーザに対する好感度を設定する(ステップS101)。制御部110(好感度設定部115)は、記憶部120に記憶されたユーザ行動テーブル及び好感度設定テーブルを参照し、好感度ポイントに対応付けられた好感度のレベルを特定することにより、対象ユーザに対する好感度を設定する。なお、好感度設定部115は、ユーザ情報DB121を参照して、対象ユーザのユーザ情報に含まれる予め設定された現状の好感度を取得してもよい。
When starting the reception control process, the
次に、制御部110は、ロボット100の周囲に対象ユーザが存在するか否かを判定する(ステップS102)。制御部110は、撮像部130が撮像した撮像画像に基づいて、対象ユーザが依然として周囲に存在するか否かを確認する。ロボット100の周囲に対象ユーザが存在しないと判定した場合(ステップS102:NO)、制御部110は、応対制御処理を終了する。
Next, the
一方、ロボット100の周囲に対象ユーザが存在すると判定した場合(ステップS102:YES)、制御部110は、ユーザ行動を認識したか否かを判定する(ステップS103)。制御部110(ユーザ行動認識部114)は、例えば、音声認識部113により認識されたユーザの発話内容、センサ部140のタッチセンサにより検出された接触強度等に基づいて、ユーザ行動を新たに認識したか否かに応じて判定する。
On the other hand, when it is determined that the target user exists around the robot 100 (step S102: YES), the
ユーザ行動を認識していないと判定した場合(ステップS103:NO)、制御部110は、自発行動を実行するか否かを判定する(ステップS104)。制御部110(応対制御部116)は、例えば、ユーザ行動認識部114がユーザ行動を認識しない時間が、所定時間継続したか否かに応じて判定する。自発行動を実行しないと判定した場合(ステップS104:NO)、制御部110は、処理をステップS102に戻し、対象ユーザが依然として周囲に存在するか否かを確認する。
When determining that the user action is not recognized (step S103: NO), the
ステップS103において、ユーザ行動を認識したと判定した場合(ステップS103:YES)、制御部110(応対制御部116)は、接近条件を満たすか否かを判定する(ステップS105)。応対制御部116は、例えば、対象ユーザがロボット100を自身の近傍に呼び寄せるための呼びかけの有無に応じて判定する。
If it is determined in step S103 that the user's behavior has been recognized (step S103: YES), the control unit 110 (response control unit 116) determines whether or not the approach condition is satisfied (step S105). The
ステップS105を実行した後、又は、ステップS104において自発行動を実行すると判定した場合(ステップS104:YES)、制御部110(応対制御部116)は、好感度に応じた応対様態を決定する(ステップS106)。応対制御部116は、ステップS104における判定結果(自発行動を実行するという判定結果)、ステップS105における判定結果(接近条件を満たすか否かの判定結果)に基づいて、好感度に応じた応対様態を決定する。
After executing step S105, or when it is determined to execute a spontaneous action in step S104 (step S104: YES), the control unit 110 (reception control unit 116) determines a reception mode according to the favorability (step S106). The
ステップS104において自発行動を実行すると判定した場合、応対制御部116は、ステップS101において設定された好感度に応じて、発話内容や動作の程度を適宜調整して、自発行動を実行するための応対様態を決定する。
When it is determined in step S104 that a spontaneous action is to be performed, the
ステップS105において接近条件を満たさないと判定した場合、応対制御部116は、ステップS103において認識したユーザ行動に対する応答行動を実行するための応対様態を好感度に応じて決定する。
When it is determined in step S105 that the approach condition is not satisfied, the
ステップS105において接近条件を満たすと判定した場合、応対制御部116は、応対様態として、接近対象ユーザに接近中の移動経路及び移動速度、接近終了時の接近対象ユーザとの間の対向距離及びユーザと向き合う接近中又は接近終了時の対向姿勢のうちの少なくとも1つを決定する。
When it is determined in step S105 that the approaching condition is satisfied, the
続いて、制御部110は、ステップS106において決定した応対様態に基づいて、各部を制御して各種行動を実行する(ステップS107)。応対制御部116は、ステップS106において、自発行動を実行するための応対様態を好感度に応じて決定した場合、その応対様態に基づいて、各部を制御して自発行動を実行する。自発行動に係る応対様態が、例えば、対象ユーザにロボット100とのコミュニケーションを促す発話である場合、その発話内容を示す音声データを生成し、音声出力部180を制御して、生成した音声データに基づく音声を出力する。
Subsequently, the
応対制御部116は、ステップS106において、接近条件を満たさず、ステップS103において認識したユーザ行動に対する応答行動を実行するための応対様態を好感度に応じて決定した場合、その応対様態に基づいて、各部を制御して応答行動を実行する。応答行動に係る応対様態が、例えば、対象ユーザのあいさつに応答する発話である場合、その発話内容を示す音声データを生成し、音声出力部180を制御して、生成した音声データに基づく音声を出力する。
If the
応対制御部116は、ステップS106において、接近条件を満たし、接近対象ユーザに接近中の移動経路及び移動速度、接近終了時の接近対象ユーザとの間の対向距離及び接近対象ユーザと向き合う接近中又は接近終了時の対向姿勢のうちの少なくとも1つを決定した場合、その応対様態に基づいて、移動部150、動作部160を制御して接近行動を実行する。
In step S106, the
ステップS107を実行した後、制御部110は、処理をステップS102に戻し、対象ユーザが依然として周囲に存在するか否かを確認する。
After executing step S107, the
以上に説明したように、本実施の形態によれば、ロボット100は、ユーザに対する好感度に応じて応対様態を決定し、決定した応対様態に基づいて、各部を制御することにより、各種行動を実行する。例えば、応対制御部116は、予め定められた接近条件を満たす場合、応対様態として、接近対象であるユーザに接近する際の移動経路及び移動速度、接近終了時の接近対象ユーザとの間の対向距離及びユーザと向き合う接近中又は接近終了時の対向姿勢のうちの少なくとも1つを好感度に応じて決定し、決定した応対様態に基づいて接近行動を実行する。これにより、好感度に応じた応対を向上させることができる。
As described above, according to the present embodiment, the
また、ロボット100は、接近条件を満たす場合以外にも、ユーザ行動に対する応答行動に係る応対様態を好感度に応じて決定し、決定した応対様態に基づいて応答行動を実行する。さらに、自発行動に係る応対様態を好感度に応じて決定し、決定された応対様態に基づいて自発行動を実行する。これにより、好感度に応じた応対を向上させることができる。
Also, the
なお、本発明は、前記の実施の形態に限定されず、種々の変形及び応用が可能である。前記の実施の形態は、次のように変形されてもよい。 The present invention is not limited to the above-described embodiments, and various modifications and applications are possible. The above embodiment may be modified as follows.
前記の実施の形態において、ユーザ認識部111により認識された所定の対象に対する好感度を好感度設定部(好感度取得部)115が設定または取得して、好感度設定部(好感度取得部)115により設定または取得された所定の対象に対する好感度に基づいて、所定の対象への接近中の接近様態を応対制御部(接近制御部)116が決定していた。しかしながら、本発明は、これに限定されず、ユーザ認識部111により認識された所定の対象に対する好感度に基づいて、所定の対象への接近中の接近様態を応対制御部(接近制御部)116が決定してもよい。
In the above-described embodiment, the positivity setting unit (positivity acquisition unit) 115 sets or acquires the positivity for a predetermined target recognized by the
例えば、ユーザ認識部111が、移動経路上において接近対象ユーザとは異なる他のユーザを認識した場合には、好感度設定部115は、他のユーザに対する好感度を設定し、応対制御部116は、他のユーザに対する好感度に応じて、接近対象ユーザの応対様態及び他のユーザの応対様態を決定してもよい。この場合、応対制御部116は、接近対象ユーザの応対様態として決定された移動経路において、他のユーザを避けて通過するための迂回経路(通過経路)を決定する。ここで、接近対象ユーザは、本発明の所定の対象の一例であり、他のユーザは、本発明の他の対象の一例である。
For example, when the
図12を参照しながら説明すると、応対制御部116は、接近対象ユーザURに接近中の移動経路MR上に、他のユーザUR’が存在する場合、他のユーザUR’を避けて通過するために、迂回経路(通過経路)DRを形成した新たな移動経路MRを決定する。この際、応対制御部116は、他のユーザUR’に対する好感度に応じて迂回経路DRを形成する。応対制御部116は、例えば、他のユーザUR’の好感度が高い場合には、他のユーザUR’のすぐそばを通過するように迂回経路DRを形成し、他のユーザUR’の好感度が低い場合には、他のユーザUR’を大回りして通過する迂回経路DRを形成する。また、応対制御部116は、他のユーザUR’の応対様態として、他のユーザUR’に対する好感度に応じてロボット100が迂回経路DRを通過する際の移動姿勢を決定する。応対制御部116は、移動姿勢として、例えば、他のユーザUR’の好感度が高い場合には、迂回経路DRを通過する際に、ロボット100の頭部102(顔部)の正面方向が他のユーザUR’に向くようにし(ロボット100が他のユーザUR’を見ているようにする)、他のユーザUR’の好感度が低い場合には、迂回経路DRを通過する際に、ロボット100の頭部102(顔部)の正面方向が他のユーザUR’を向かないようにする(そっぽを向くようにする)。これにより、好感度に応じて多様な表現を演出することができ、好感度に応じた応対をさらに向上させることができる。
To explain with reference to FIG. 12, when another user UR' exists on the moving route MR approaching the approaching target user UR, the
前記の実施の形態において、ロボット100が、例えば、無線通信モジュール等を有する通信部を備え、インターネット上に構築されたクラウドシステムを利用して記憶部120が記憶する各種データを記憶し、ロボット100からこれらのデータに適宜アクセスできるようにしてもよい。
In the above-described embodiment, the
また、ロボット100が、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイ等の表示装置により構成される表示部を備えることにより、ユーザ毎の応対をさらに多様化してもよい。例えば、ロボット100の目部105に表示部を備え、好感度に応じた異なる目を表現する画像を表示することにより、ロボット100の表情を演出するようにしてもよい。
Further, the
前記の実施の形態において、制御部110のCPUが実行する制御プログラムは、予めROM等に記憶されていた。しかしながら、本発明は、これに限定されず、前記の各種処理を実行させるための制御プログラムを、既存の汎用コンピュータや、フレームワーク、ワークステーション等の電子機器に実装することにより、前記の実施の形態に係るロボット100に相当する装置として機能させてもよい。
In the embodiment described above, the control program executed by the CPU of the
このようなプログラムの提供方法は任意であり、例えば、コンピュータが読取可能な記録媒体(フレキシブルディスク、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM)等に格納して配布してもよいし、インターネット等のネットワーク上のストレージにプログラムを格納しておき、これをダウンロードさせることにより提供してもよい。 The method of providing such a program is arbitrary, and for example, storing and distributing it in a computer-readable recording medium (flexible disc, CD (Compact Disc)-ROM, DVD (Digital Versatile Disc)-ROM), etc. Alternatively, the program may be stored in storage on a network such as the Internet and provided by downloading the program.
また、前記の処理をOS(Operating System)とアプリケーションプログラムとの分担、又は、OSとアプリケーションプログラムとの協働によって実行する場合には、アプリケーションプログラムのみを記録媒体やストレージに格納してもよい。また、搬送波にプログラムを重畳し、ネットワークを介して配信することも可能である。例えば、ネットワーク上の掲示板(Bulletin Board System:BBS)に前記プログラムを掲示し、ネットワークを介してプログラムを配信してもよい。そして、配信されたプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。 Further, when the above-described processing is performed by an OS (Operating System) and an application program, or by cooperation between the OS and an application program, only the application program may be stored in a recording medium or storage. It is also possible to superimpose a program on a carrier wave and distribute it via a network. For example, the program may be posted on a bulletin board system (BBS) on the network and distributed via the network. Then, the distributed program may be activated and executed in the same manner as other application programs under the control of the OS so that the above processing can be executed.
本発明は、本発明の広義の精神と範囲とを逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、前述した実施の形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及び特許請求の範囲と同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。 The present invention is capable of various embodiments and modifications without departing from the broader spirit and scope of the invention. Moreover, the embodiments described above are for explaining the present invention, and do not limit the scope of the present invention. That is, the scope of the present invention is indicated by the claims rather than the embodiments. Various modifications made within the scope of the claims and within the meaning of the invention equivalent to the scope of the claims are considered to be within the scope of the present invention.
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 The invention described in the original claims of the present application is appended below.
(付記)
(付記1)
所定の対象を認識する認識手段と、
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように自装置を制御する制御手段と、
を備える、
ことを特徴とするロボット。
(Appendix)
(Appendix 1)
recognition means for recognizing a predetermined target;
determining means for determining an approaching manner during approaching the predetermined target based on the liking for the predetermined target recognized by the recognizing means;
a control means for controlling the apparatus to express an emotion to the predetermined object according to the approach mode determined by the determining means while the apparatus is approaching the predetermined object;
comprising
A robot characterized by:
(付記2)
前記自装置に移動をさせる移動手段を更に備え、
前記所定の対象への接近中の前記接近様態は、接近経路を含み、
前記制御手段は、前記所定の対象への接近中において、決定された前記接近経路に応じて前記所定の対象に前記感情表現をするように前記移動手段を制御する、
ことを特徴とする付記1に記載のロボット。
(Appendix 2)
further comprising a moving means for moving the own device,
The manner of approach while approaching the predetermined target includes an approach route,
The control means controls the moving means so that the predetermined object expresses the emotion according to the determined approach route while the predetermined object is being approached.
The robot according to
(付記3)
前記自装置に動作をさせる動作手段を更に備え、
前記所定の対象への接近中の前記接近様態は、接近姿勢を含み、
前記制御手段は、前記所定の対象への接近中において、決定された前記接近姿勢に応じて前記所定の対象に前記感情表現をするように前記動作手段を制御する、
ことを特徴とする付記1又は2に記載のロボット。
(Appendix 3)
further comprising operation means for causing the self-device to operate;
the manner of approach while approaching the predetermined target includes an approach posture;
The control means controls the action means so that the predetermined object expresses the emotion according to the determined approaching posture while the predetermined object is being approached.
The robot according to
(付記4)
画像を撮像する撮像手段と、
前記撮像手段により撮像された画像から顔を検出して顔認識を行う顔認識手段と、
音声を入力する音声入力手段と、
前記音声入力手段により入力された音声から音声認識をする音声認識手段と、
を更に備え、
前記認識手段は、前記顔認識手段、又は/及び、前記音声認識手段により前記所定の対象を認識する、
ことを特徴とする付記1乃至3の何れか1つに記載のロボット。
(Appendix 4)
an imaging means for imaging an image;
face recognition means for performing face recognition by detecting a face from the image captured by the imaging means;
voice input means for inputting voice;
voice recognition means for performing voice recognition from voice input by the voice input means;
further comprising
the recognition means recognizes the predetermined target by the face recognition means and/or the voice recognition means;
4. The robot according to any one of
(付記5)
前記認識手段により認識された前記所定の対象に対する前記好感度を取得する取得手段と、
前記自装置に対する前記所定の対象の行動を認識する行動認識手段と、
を更に備え、
前記取得手段は、前記行動認識手段により認識された前記所定の対象の行動に応じて、前記好感度を取得する、
ことを特徴とする付記1乃至4の何れか1つに記載のロボット。
(Appendix 5)
acquisition means for acquiring the favorable rating for the predetermined target recognized by the recognition means;
Action recognition means for recognizing the action of the predetermined target with respect to the own device;
further comprising
The acquisition means acquires the favorable rating according to the behavior of the predetermined target recognized by the behavior recognition means.
5. The robot according to any one of
(付記6)
前記取得手段は、
前記行動認識手段により認識された前記所定の対象の行動が、好意的な行動である場合には現状の好感度よりも前記好感度の度合いを上げ、前記好意的な行動でない場合には、前記現状の好感度よりも前記好感度の度合いを下げる、
ことを特徴とする付記5に記載のロボット。
(Appendix 6)
The acquisition means is
If the action of the predetermined target recognized by the action recognition means is a favorable action, the degree of favorable rating is increased from the current favorable rating, and if the action is not favorable, the lowering the degree of favorability below the current favorability,
The robot according to appendix 5, characterized by:
(付記7)
情報を記録する記録手段を更に備え、
前記記録手段は、
前記行動認識手段により認識された前記所定の対象の行動が、前記好意的な行動である場合には前記好感度を閾値よりも高く記録し、前記好意的な行動でない場合には、前記好感度を前記閾値よりも低く記録し、
前記取得手段は、前記記録手段を介して前記所定の対象の前記好感度を取得する、
ことを特徴とする付記6に記載のロボット。
(Appendix 7)
Further comprising recording means for recording information,
The recording means
When the behavior of the predetermined target recognized by the behavior recognition means is the favorable behavior, the favorable rating is recorded higher than a threshold, and when the behavior is not favorable, the favorable rating is recorded. is recorded below the threshold,
The acquisition means acquires the favorable impression of the predetermined target via the recording means.
The robot according to appendix 6, characterized by:
(付記8)
前記行動認識手段は、
前記所定の対象によって前記自装置が撫でられた場合、又は、前記所定の対象によって前記自装置が話しかけられた場合、前記所定の対象の行動が、前記好意的な行動であると認識し、
前記所定の対象によって前記自装置が叩かれた場合、又は、前記所定の対象によって前記自装置が無視された場合、前記所定の対象の行動が、前記好意的な行動でないと認識する、
ことを特徴とする付記6又は7に記載のロボット。
(Appendix 8)
The action recognition means is
when the device is stroked by the predetermined object, or when the device is spoken to by the predetermined object, recognizing that the behavior of the predetermined object is the favorable behavior;
When the device is hit by the predetermined target, or when the device is ignored by the predetermined target, the behavior of the predetermined target is recognized as not the favorable behavior.
The robot according to appendix 6 or 7, characterized by:
(付記9)
前記制御手段は、前記所定の対象への接近中の前記接近様態として、前記自装置が前記所定の対象に接近する場合の接近経路、接近速度、対向角度、接近姿勢を前記好感度に基づいて決定する、
ことを特徴とする付記1に記載のロボット。
(Appendix 9)
The control means determines, as the manner of approach during approach to the predetermined object, an approach route, an approach speed, an opposing angle, and an approach attitude when the self-apparatus approaches the predetermined object based on the favorability. decide,
The robot according to
(付記10)
前記制御手段は、前記所定の対象への接近中において、
前記好感度が閾値よりも高い場合、直線的な第1の接近経路で、第1の接近速度で、前記所定の対象と正面から向き合うような第1の接近姿勢に対応する第1の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、蛇行する第2の接近経路で、前記第1の接近速度よりも遅い第2の接近速度で、前記所定の対象と正面から向き合わないような第2の接近姿勢に対応する第2の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御する、
ことを特徴とする付記9に記載のロボット。
(Appendix 10)
While the control means is approaching the predetermined target,
When the favorability is higher than a threshold, a first approach angle corresponding to a first approach posture facing the predetermined target head-on on a straight first approach path at a first approach speed. and controlling the self-device so that the self-device approaches the predetermined target,
When the favorability is lower than the threshold value, a meandering second approach route, a second approach speed slower than the first approach speed, and a second approach speed that does not face the predetermined target head-on. controlling the self-device so that the self-device approaches the predetermined target at a second facing angle corresponding to the approach posture;
The robot according to appendix 9, characterized by:
(付記11)
前記制御手段は、前記所定の対象への接近中において、前記感情表現として、
前記好感度が閾値よりも高い場合、前記所定の対象に好意的な動作又は優先的な動作をするように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、前記所定の対象に好意的でない動作又は優先的でない動作をするように前記自装置を制御する、
ことを特徴とする付記1に記載のロボット。
(Appendix 11)
The control means, while approaching the predetermined object, as the emotional expression,
controlling the self-device to perform a favorable action or a preferential action for the predetermined target when the favorability is higher than a threshold;
If the favorable impression is lower than the threshold, controlling the own device to perform an action that is not favorable or preferential to the predetermined target;
The robot according to
(付記12)
前記制御手段は、前記所定の対象への接近中において、前記好感度に応じて前記所定の対象に対する前記好意的な動作の程度又は前記優先的な動作の程度を変更する、
ことを特徴とする付記11に記載のロボット。
(Appendix 12)
The control means, while approaching the predetermined target, changes the degree of the favorable action or the degree of the preferential action with respect to the predetermined target according to the likability.
The robot according to
(付記13)
前記制御手段は、前記所定の対象への接近中において、前記好感度に応じて前記所定の対象に対する前記好意的でない動作の程度又は前記優先的でない動作の程度を変更する、
ことを特徴とする付記11又は12に記載のロボット。
(Appendix 13)
The control means, while approaching the predetermined target, changes the degree of the unfavorable action or the degree of the non-preferential action with respect to the predetermined target according to the likability.
13. The robot according to
(付記14)
前記所定の対象は、人又は動物又は他のロボットを含む、
ことを特徴とする付記1乃至13の何れか1つに記載のロボット。
(Appendix 14)
the predetermined target includes a human or animal or other robot;
14. The robot according to any one of
(付記15)
前記所定の対象への接近中において、前記認識手段が、前記所定の対象とは異なる他の対象を認識した場合、
前記決定手段は、前記認識手段により認識された前記他の対象に対する他の好感度に基づいて、前記他の対象に対する通過中の通過様態を決定して、
前記制御手段は、前記他の対象への通過中において、前記決定手段により決定された前記通過様態に応じて前記他の対象に他の感情表現をするように前記自装置を制御する、
ことを特徴とする付記1に記載のロボット。
(Appendix 15)
When the recognition means recognizes another target different from the predetermined target while approaching the predetermined target,
The determining means determines a passing mode during passage for the other object based on the other favorable impression of the other object recognized by the recognizing means,
The control means controls the own device to express another emotion to the other object in accordance with the passage mode determined by the determination means during passage to the other object.
The robot according to
(付記16)
前記制御手段は、
前記他の対象への前記通過様態として、前記他の対象を避けて通過するための通過経路を決定する、
ことを特徴とする付記15に記載のロボット。
(Appendix 16)
The control means is
Determining a passage route for avoiding the other object and passing through the other object as the passage mode to the other object;
16. The robot according to appendix 15, characterized by:
(付記17)
前記制御手段は、
前記他の対象への前記通過様態として、前記通過経路を通過する場合の通過姿勢を決定する、
ことを特徴とする付記16に記載のロボット。
(Appendix 17)
The control means is
Determining a passing posture when passing through the passing route as the passing manner to the other object;
The robot according to appendix 16, characterized by:
(付記18)
前記他の対象は、人又は動物又は他のロボットを含む、
ことを特徴とする付記15乃至17の何れか1つに記載のロボット。
(Appendix 18)
said other subject comprises a human or animal or other robot;
18. The robot according to any one of appendices 15 to 17, characterized in that:
(付記19)
所定の対象を認識する認識ステップと、
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定ステップと、
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするようにロボットを制御する制御ステップと、
を含む、
ことを特徴とするロボットの制御方法。
(Appendix 19)
a recognition step of recognizing a predetermined target;
a determination step of determining an approach mode during approach to the predetermined target based on the likability of the predetermined target recognized in the recognition step;
a control step of controlling the robot to express an emotion toward the predetermined object according to the manner of approach determined in the determining step while the robot is approaching the predetermined object;
including,
A robot control method characterized by:
(付記20)
ロボットのコンピュータに、
所定の対象を認識する認識処理と、
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定処理と、
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
を実行させる、
ことを特徴とするプログラム。
(Appendix 20)
to the robot's computer
a recognition process for recognizing a predetermined target;
a determination process of determining an approach state during approach to the predetermined target based on the likability for the predetermined target recognized by the recognition process;
a control process for controlling the robot to express an emotion toward the predetermined target according to the approach mode determined by the determination process while the robot is approaching the predetermined target;
to run
A program characterized by
100…ロボット、101…胴体部、102…頭部、103…手部、104…足部、105…目部、106…口部、110…制御部、111…ユーザ認識部、112…顔認識部、113…音声認識部、114…ユーザ行動認識部、115…好感度設定部(好感度取得部)、116…応対制御部(接近制御部)、120…記憶部、121…ユーザ情報DB、122…音声認識DB、123…対話情報DB、130…撮像部、140…センサ部、150…移動部、160…動作部、170…音声入力部、180…音声出力部、BL…バスライン、DR…迂回経路(通過経路)、MR…移動経路(接近経路)、RD…正面方向、UD…正面方向、UR…接近対象ユーザ(所定の対象)、UR’…他のユーザ(他の対象)
DESCRIPTION OF
Claims (22)
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態として、自装置が前記所定の対象に接近する場合の接近経路、接近速度、対向角度、接近姿勢を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように前記自装置を制御する制御手段と、
を備え、
前記制御手段は、
前記好感度が閾値よりも高い場合、直線的な第1の接近経路で、第1の接近速度で、前記所定の対象と正面から向き合うような第1の接近姿勢に対応する第1の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、蛇行する第2の接近経路で、前記第1の接近速度よりも遅い第2の接近速度で、前記所定の対象と正面から向き合わないような第2の接近姿勢に対応する第2の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御する、
ことを特徴とするロボット。 recognition means for recognizing a predetermined target;
Based on the likability of the predetermined target recognized by the recognition means, as an approach mode during approaching the predetermined target, an approach route, an approach speed, and an opposing direction when the device approaches the predetermined target. Determining means for determining the angle and approach attitude ;
a control means for controlling the self -apparatus to express an emotion toward the predetermined object according to the manner of approach determined by the determination means while the apparatus is approaching the predetermined object;
with
The control means is
When the favorability is higher than a threshold, a first approach angle corresponding to a first approach posture facing the predetermined target head-on on a straight first approach path at a first approach speed. and controlling the self-device so that the self-device approaches the predetermined target,
When the favorability is lower than the threshold value, a meandering second approach route, a second approach speed slower than the first approach speed, and a second approach speed that does not face the predetermined target head-on. controlling the self-device so that the self-device approaches the predetermined target at a second facing angle corresponding to the approach posture;
A robot characterized by:
前記撮像手段により撮像された画像から顔を検出して顔認識を行う顔認識手段と、
音声を入力する音声入力手段と、
前記音声入力手段により入力された音声から音声認識をする音声認識手段と、
を更に備え、
前記認識手段は、前記顔認識手段、又は/及び、前記音声認識手段により前記所定の対象を認識する、
ことを特徴とする請求項1乃至3の何れか1項に記載のロボット。 an imaging means for imaging an image;
face recognition means for performing face recognition by detecting a face from the image captured by the imaging means;
voice input means for inputting voice;
voice recognition means for performing voice recognition from voice input by the voice input means;
further comprising
the recognition means recognizes the predetermined target by the face recognition means and/or the voice recognition means;
4. The robot according to any one of claims 1 to 3, characterized in that:
前記自装置に対する前記所定の対象の行動を認識する行動認識手段と、
を更に備え、
前記取得手段は、前記行動認識手段により認識された前記所定の対象の行動に応じて、前記好感度を取得する、
ことを特徴とする請求項1乃至4の何れか1項に記載のロボット。 acquisition means for acquiring the favorable rating for the predetermined target recognized by the recognition means;
Action recognition means for recognizing the action of the predetermined target with respect to the own device;
further comprising
The acquisition means acquires the favorable rating according to the behavior of the predetermined target recognized by the behavior recognition means.
5. The robot according to any one of claims 1 to 4, characterized in that:
前記行動認識手段により認識された前記所定の対象の行動が、好意的な行動である場合には現状の好感度よりも前記好感度の度合いを上げ、前記好意的な行動でない場合には、前記現状の好感度よりも前記好感度の度合いを下げる、
ことを特徴とする請求項5に記載のロボット。 The acquisition means is
If the action of the predetermined target recognized by the action recognition means is a favorable action, the degree of favorable rating is increased from the current favorable rating, and if the action is not favorable, the lowering the degree of favorability below the current favorability,
6. The robot according to claim 5, characterized in that:
前記記録手段は、
前記行動認識手段により認識された前記所定の対象の行動が、前記好意的な行動である場合には前記好感度を閾値よりも高く記録し、前記好意的な行動でない場合には、前記好感度を前記閾値よりも低く記録し、
前記取得手段は、前記記録手段を介して前記所定の対象の前記好感度を取得する、
ことを特徴とする請求項6に記載のロボット。 Further comprising recording means for recording information,
The recording means
When the behavior of the predetermined target recognized by the behavior recognition means is the favorable behavior, the favorable rating is recorded higher than a threshold, and when the behavior is not favorable, the favorable rating is recorded. is recorded below the threshold,
The acquisition means acquires the favorable impression of the predetermined target via the recording means.
7. The robot according to claim 6, characterized by:
前記所定の対象によって前記自装置が撫でられた場合、又は、前記所定の対象によって前記自装置が話しかけられた場合、前記所定の対象の行動が、前記好意的な行動であると認識し、
前記所定の対象によって前記自装置が叩かれた場合、又は、前記所定の対象によって前記自装置が無視された場合、前記所定の対象の行動が、前記好意的な行動でないと認識する、
ことを特徴とする請求項6又は7に記載のロボット。 The action recognition means is
when the device is stroked by the predetermined object, or when the device is spoken to by the predetermined object, recognizing that the behavior of the predetermined object is the favorable behavior;
When the device is hit by the predetermined target, or when the device is ignored by the predetermined target, the behavior of the predetermined target is recognized as not the favorable behavior.
8. The robot according to claim 6 or 7, characterized in that:
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように自装置を制御する制御手段と、
を備え、
前記制御手段は、前記所定の対象への接近中において、前記感情表現として、
前記好感度が閾値よりも高い場合、前記所定の対象に好意的な動作をするように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、前記所定の対象に好意的でない動作をするように前記自装置を制御する、
ことを特徴とするロボット。 recognition means for recognizing a predetermined target;
determining means for determining an approaching manner during approaching the predetermined target based on the liking for the predetermined target recognized by the recognizing means;
a control means for controlling the apparatus to express an emotion to the predetermined object according to the approach mode determined by the determining means while the apparatus is approaching the predetermined object;
with
The control means, while approaching the predetermined object, as the emotional expression,
controlling the self-device to perform a favorable action toward the predetermined target when the favorability is higher than a threshold;
controlling the self-device to perform an action unfavorable to the predetermined target when the favorability is lower than the threshold;
A robot characterized by:
ことを特徴とする請求項9に記載のロボット。 The control means, while approaching the predetermined target, changes the degree of the favorable action with respect to the predetermined target according to the likability.
10. The robot according to claim 9 , characterized by:
ことを特徴とする請求項9又は10に記載のロボット。 The control means, while approaching the predetermined target, changes the degree of the unfavorable action toward the predetermined target according to the favorable sensitivity.
11. The robot according to claim 9 or 10 , characterized in that:
ことを特徴とする請求項1乃至11の何れか1項に記載のロボット。 the predetermined target includes a human or animal or other robot;
12. The robot according to any one of claims 1 to 11 , characterized in that:
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように自装置を制御する制御手段と、
を備え、
前記所定の対象への接近中において、前記認識手段が、前記所定の対象とは異なる他の対象を認識した場合、
前記決定手段は、前記認識手段により認識された前記他の対象に対する他の好感度に基づいて、前記他の対象に対する通過中の通過様態を決定して、
前記制御手段は、前記他の対象への通過中において、前記決定手段により決定された前記通過様態に応じて前記他の対象に他の感情表現をするように前記自装置を制御する、
ことを特徴とするロボット。 recognition means for recognizing a predetermined target;
determining means for determining an approaching manner during approaching the predetermined target based on the liking for the predetermined target recognized by the recognizing means;
a control means for controlling the apparatus to express an emotion to the predetermined object according to the approach mode determined by the determining means while the apparatus is approaching the predetermined object;
with
When the recognition means recognizes another target different from the predetermined target while approaching the predetermined target,
The determining means determines a passing mode during passage for the other object based on the other favorable impression of the other object recognized by the recognizing means,
The control means controls the own device to express another emotion to the other object in accordance with the passage mode determined by the determination means during passage to the other object.
A robot characterized by:
前記他の対象への前記通過様態として、前記他の対象を避けて通過するための通過経路を決定する、
ことを特徴とする請求項13に記載のロボット。 The control means is
Determining a passage route for avoiding the other object and passing through the other object as the passage mode to the other object;
14. The robot according to claim 13 , characterized by:
前記他の対象への前記通過様態として、前記通過経路を通過する場合の通過姿勢を決定する、
ことを特徴とする請求項14に記載のロボット。 The control means is
Determining a passing posture when passing through the passing route as the passing manner to the other object;
15. The robot according to claim 14 , characterized by:
ことを特徴とする請求項13乃至15の何れか1項に記載のロボット。 said other subject comprises a human or animal or other robot;
16. The robot according to any one of claims 13 to 15 , characterized in that:
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中のロボットの接近様態として、前記ロボットが前記所定の対象に接近する場合の接近経路、接近速度、対向角度、接近姿勢を決定する決定ステップと、
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするように前記ロボットを制御する制御ステップと、を含み、
前記制御ステップにおいて、
前記好感度が閾値よりも高い場合、直線的な第1の接近経路で、第1の接近速度で、前記所定の対象と正面から向き合うような第1の接近姿勢に対応する第1の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御して、
前記好感度が前記閾値よりも低い場合、蛇行する第2の接近経路で、前記第1の接近速度よりも遅い第2の接近速度で、前記所定の対象と正面から向き合わないような第2の接近姿勢に対応する第2の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御する、
ことを特徴とするロボットの制御方法。 a recognition step of recognizing a predetermined target;
An approach path and an approach speed when the robot approaches the predetermined object as an approach mode of the robot that is approaching the predetermined object, based on the likability for the predetermined object recognized in the recognition step , the facing angle and the approaching attitude ;
a control step of controlling the robot to express an emotion toward the predetermined object according to the manner of approach determined in the determining step while the robot is approaching the predetermined object;
In the control step,
When the favorability is higher than a threshold, a first approach angle corresponding to a first approach posture facing the predetermined target head-on on a straight first approach path at a first approach speed. and controlling the robot so that the robot approaches the predetermined target,
When the favorability is lower than the threshold value, a meandering second approach route, a second approach speed slower than the first approach speed, and a second approach speed that does not face the predetermined target head-on. controlling the robot so that the robot approaches the predetermined target at a second facing angle corresponding to the approach posture;
A robot control method characterized by:
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定ステップと、 a determination step of determining an approach mode during approach to the predetermined target based on the likability of the predetermined target recognized in the recognition step;
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするようにロボットを制御する制御ステップと、を含み、 a control step of controlling the robot to express an emotion toward the predetermined object according to the manner of approach determined in the determining step while the robot is approaching the predetermined object;
前記制御ステップでは、前記所定の対象への接近中において、前記感情表現として、 In the control step, during the approach to the predetermined target, as the emotional expression,
前記好感度が閾値よりも高い場合、前記所定の対象に好意的な動作をするように前記ロボットを制御して、 controlling the robot to perform a favorable action toward the predetermined target when the favorable rating is higher than a threshold;
前記好感度が前記閾値よりも低い場合、前記所定の対象に好意的でない動作をするように前記ロボットを制御する、 controlling the robot to perform an unfavorable action toward the predetermined target when the favorable rating is lower than the threshold;
ことを特徴とするロボットの制御方法。A robot control method characterized by:
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定ステップと、 a determination step of determining an approach mode during approach to the predetermined target based on the likability of the predetermined target recognized in the recognition step;
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするようにロボットを制御する制御ステップと、を含み、 a control step of controlling the robot to express an emotion toward the predetermined object according to the manner of approach determined in the determining step while the robot is approaching the predetermined object;
前記所定の対象への接近中において、前記所定の対象とは異なる他の対象が認識された場合、 When another target different from the predetermined target is recognized while approaching the predetermined target,
認識された前記他の対象に対する他の好感度に基づいて、前記他の対象に対する通過中の通過様態を決定して、 Determining a transit mode during transit for the other object based on the perceived other likability for the other object,
前記他の対象への通過中において、決定された前記通過様態に応じて前記他の対象に他の感情表現をするように前記ロボットを制御する、 controlling the robot to express another emotion to the other object in accordance with the determined passage mode during the passage to the other object;
ことを特徴とするロボットの制御方法。A robot control method characterized by:
所定の対象を認識する認識処理と、
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態として、前記ロボットが前記所定の対象に接近する場合の接近経路、接近速度、対向角度、接近姿勢を決定する決定処理と、
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
を実行させ、
前記制御処理において、
前記好感度が閾値よりも高い場合、直線的な第1の接近経路で、第1の接近速度で、前記所定の対象と正面から向き合うような第1の接近姿勢に対応する第1の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御して、
前記好感度が前記閾値よりも低い場合、蛇行する第2の接近経路で、前記第1の接近速度よりも遅い第2の接近速度で、前記所定の対象と正面から向き合わないような第2の接近姿勢に対応する第2の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御する、
ことを特徴とするプログラム。 to the robot's computer
a recognition process for recognizing a predetermined target;
Based on the likability for the predetermined object recognized by the recognition process, as an approach mode during approaching the predetermined object, an approach route, an approach speed, and an opposing position when the robot approaches the predetermined object. determination processing for determining an angle and an approach posture ;
a control process for controlling the robot to express an emotion toward the predetermined target according to the approach mode determined by the determination process while the robot is approaching the predetermined target;
and
In the control process,
When the favorability is higher than a threshold, a first approach angle corresponding to a first approach posture facing the predetermined target head-on on a straight first approach path at a first approach speed. and controlling the robot so that the robot approaches the predetermined target,
When the favorability is lower than the threshold value, a meandering second approach route, a second approach speed slower than the first approach speed, and a second approach speed that does not face the predetermined target head-on. controlling the robot so that the robot approaches the predetermined target at a second facing angle corresponding to the approach posture ;
A program characterized by
所定の対象を認識する認識処理と、 a recognition process for recognizing a predetermined target;
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定処理と、 a determination process of determining an approach state during approach to the predetermined target based on the likability for the predetermined target recognized by the recognition process;
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、 a control process for controlling the robot to express an emotion toward the predetermined target according to the approach mode determined by the determination process while the robot is approaching the predetermined target;
を実行させ、and
前記制御処理では、前記所定の対象への接近中において、前記感情表現として、 In the control process, during the approach to the predetermined object, as the emotional expression,
前記好感度が閾値よりも高い場合、前記所定の対象に好意的な動作をするように前記ロボットを制御して、 controlling the robot to perform a favorable action toward the predetermined target when the favorable rating is higher than a threshold;
前記好感度が前記閾値よりも低い場合、前記所定の対象に好意的でない動作をするように前記ロボットを制御する、 controlling the robot to perform an unfavorable action toward the predetermined target when the favorable rating is lower than the threshold;
ことを特徴とするプログラム。A program characterized by
所定の対象を認識する認識処理と、 a recognition process for recognizing a predetermined target;
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定処理と、 a determination process of determining an approach state during approach to the predetermined target based on the likability for the predetermined target recognized by the recognition process;
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、 a control process for controlling the robot to express an emotion toward the predetermined target according to the approach mode determined by the determination process while the robot is approaching the predetermined target;
を実行させ、and
前記所定の対象への接近中において、前記所定の対象とは異なる他の対象が認識された場合、 When another target different from the predetermined target is recognized while approaching the predetermined target,
認識された前記他の対象に対する他の好感度に基づいて、前記他の対象に対する通過中の通過様態を決定して、 Determining a transit mode during transit for the other object based on the perceived other likability for the other object,
前記他の対象への通過中において、決定された前記通過様態に応じて前記他の対象に他の感情表現をするように前記ロボットを制御する、 controlling the robot to express another emotion to the other object in accordance with the determined passage mode during the passage to the other object;
ことを特徴とするプログラム。A program characterized by
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018118480A JP7180139B2 (en) | 2018-06-22 | 2018-06-22 | Robot, robot control method and program |
JP2022180696A JP7476941B2 (en) | 2018-06-22 | 2022-11-11 | ROBOT, ROBOT CONTROL METHOD AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018118480A JP7180139B2 (en) | 2018-06-22 | 2018-06-22 | Robot, robot control method and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022180696A Division JP7476941B2 (en) | 2018-06-22 | 2022-11-11 | ROBOT, ROBOT CONTROL METHOD AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019217122A JP2019217122A (en) | 2019-12-26 |
JP7180139B2 true JP7180139B2 (en) | 2022-11-30 |
Family
ID=69094786
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018118480A Active JP7180139B2 (en) | 2018-06-22 | 2018-06-22 | Robot, robot control method and program |
JP2022180696A Active JP7476941B2 (en) | 2018-06-22 | 2022-11-11 | ROBOT, ROBOT CONTROL METHOD AND PROGRAM |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022180696A Active JP7476941B2 (en) | 2018-06-22 | 2022-11-11 | ROBOT, ROBOT CONTROL METHOD AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7180139B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7442341B2 (en) * | 2020-02-28 | 2024-03-04 | 株式会社国際電気通信基礎技術研究所 | Robot, robot control program and robot control method |
JP7431149B2 (en) | 2020-12-17 | 2024-02-14 | トヨタ自動車株式会社 | mobile system |
JP2023049116A (en) | 2021-09-29 | 2023-04-10 | カシオ計算機株式会社 | Robot, robot control method, and program |
JP2023141463A (en) | 2022-03-24 | 2023-10-05 | カシオ計算機株式会社 | Device control unit, device control method, and program |
JP2024076459A (en) | 2022-11-25 | 2024-06-06 | カシオ計算機株式会社 | Operation control device, operation control method, and program |
CN117708305B (en) * | 2024-02-05 | 2024-04-30 | 天津英信科技有限公司 | Dialogue processing method and system for response robot |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000326274A (en) | 1999-05-24 | 2000-11-28 | Nec Corp | Acting robot |
JP2004042246A (en) | 2002-05-17 | 2004-02-12 | Victor Co Of Japan Ltd | Moving robot |
JP2004114285A (en) | 2002-09-02 | 2004-04-15 | Sony Corp | Robotic device and its behavior control method |
JP2005084789A (en) | 2003-09-05 | 2005-03-31 | Advanced Telecommunication Research Institute International | Personal computer |
JP2017226044A (en) | 2016-06-23 | 2017-12-28 | カシオ計算機株式会社 | Robot, control method, and program of the robot |
-
2018
- 2018-06-22 JP JP2018118480A patent/JP7180139B2/en active Active
-
2022
- 2022-11-11 JP JP2022180696A patent/JP7476941B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000326274A (en) | 1999-05-24 | 2000-11-28 | Nec Corp | Acting robot |
JP2004042246A (en) | 2002-05-17 | 2004-02-12 | Victor Co Of Japan Ltd | Moving robot |
JP2004114285A (en) | 2002-09-02 | 2004-04-15 | Sony Corp | Robotic device and its behavior control method |
JP2005084789A (en) | 2003-09-05 | 2005-03-31 | Advanced Telecommunication Research Institute International | Personal computer |
JP2017226044A (en) | 2016-06-23 | 2017-12-28 | カシオ計算機株式会社 | Robot, control method, and program of the robot |
Also Published As
Publication number | Publication date |
---|---|
JP2023027060A (en) | 2023-03-01 |
JP2019217122A (en) | 2019-12-26 |
JP7476941B2 (en) | 2024-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7180139B2 (en) | Robot, robot control method and program | |
JP7173031B2 (en) | Information processing device, information processing method, and program | |
JP7416295B2 (en) | Robots, dialogue systems, information processing methods and programs | |
JP2020151070A (en) | Robot and control method of robot | |
US20190295526A1 (en) | Dialogue control device, dialogue system, dialogue control method, and recording medium | |
WO2024054714A1 (en) | Avatar representation and audio generation | |
JP7156300B2 (en) | Information processing device, information processing method, and program | |
JP7435641B2 (en) | Control device, robot, control method and program | |
JP6972526B2 (en) | Content providing device, content providing method, and program | |
JP7425681B2 (en) | Social ability generation device, social ability generation method, and communication robot | |
US20240078732A1 (en) | Avatar facial expressions based on semantical context | |
WO2024190616A1 (en) | Action control system and program | |
WO2023017745A1 (en) | Communication robot, communication robot control method, and program | |
WO2024195570A1 (en) | Action control system, information presentation system, program, and robot | |
JP2024155805A (en) | Electronics | |
JP2024155785A (en) | Electronics | |
JP2024155799A (en) | Electronics | |
JP2024155782A (en) | Electronics | |
JP2024155786A (en) | Electronics | |
JP2024155820A (en) | Electronics | |
JP2024155851A (en) | Electronics | |
JP2024155809A (en) | Behavior Control System | |
JP2024155861A (en) | Electronics | |
JP2024155774A (en) | Electronics | |
JP2024155854A (en) | Electronics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210608 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220704 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221031 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7180139 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |