[go: nahoru, domu]

JP7180139B2 - Robot, robot control method and program - Google Patents

Robot, robot control method and program Download PDF

Info

Publication number
JP7180139B2
JP7180139B2 JP2018118480A JP2018118480A JP7180139B2 JP 7180139 B2 JP7180139 B2 JP 7180139B2 JP 2018118480 A JP2018118480 A JP 2018118480A JP 2018118480 A JP2018118480 A JP 2018118480A JP 7180139 B2 JP7180139 B2 JP 7180139B2
Authority
JP
Japan
Prior art keywords
robot
predetermined target
approach
predetermined
approaching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018118480A
Other languages
Japanese (ja)
Other versions
JP2019217122A (en
Inventor
香莉 門澤
広城 渥美
哲司 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018118480A priority Critical patent/JP7180139B2/en
Publication of JP2019217122A publication Critical patent/JP2019217122A/en
Priority to JP2022180696A priority patent/JP7476941B2/en
Application granted granted Critical
Publication of JP7180139B2 publication Critical patent/JP7180139B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボット、ロボットの制御方法及びプログラムに関する。 The present invention relates to a robot, a robot control method, and a program.

ロボット等の機器が普及するには所定の対象への親しみやすさをどのように表現するかが重要な点となっている。現状では、所定の対象への好感度に応じてロボットと所定の対象との間の距離を変更する技術が知られている。(例えば、特許文献1参照)。 In order for devices such as robots to become widespread, it is important how to express familiarity with a given target. At present, there is known a technique for changing the distance between a robot and a predetermined target according to the likability of the predetermined target. (See Patent Document 1, for example).

特開2000-326274公報Japanese Patent Application Laid-Open No. 2000-326274

しかしながら、特許文献1の技術は、好感度に応じて所定の対象との間の移動後の距離のみを変更するものであり、所定の対象への好感度に応じた感情表現としては不充分であるという問題がある。 However, the technique of Patent Literature 1 changes only the distance after moving to a predetermined target according to the likability, and is not sufficient as an emotional expression according to the likability toward the predetermined target. There is a problem that there is

そこで、本発明は、前述のような事情に鑑みてなされたものであり、所定の対象に好感度に応じて従来よりも豊かな感情表現をすることができるロボット、ロボットの制御方法及びプログラムを提供することを目的とする。 Accordingly, the present invention has been made in view of the circumstances as described above, and provides a robot, a robot control method, and a program capable of expressing richer emotions than ever before according to a predetermined target's favorability. intended to provide

前記目的を達成するため、本発明に係るロボットの一様態は、
所定の対象を認識する認識手段と、
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態として、自装置が前記所定の対象に接近する場合の接近経路、接近速度、対向角度、接近姿勢を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように前記自装置を制御する制御手段と、
を備え
前記制御手段は、
前記好感度が閾値よりも高い場合、直線的な第1の接近経路で、第1の接近速度で、前記所定の対象と正面から向き合うような第1の接近姿勢に対応する第1の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、蛇行する第2の接近経路で、前記第1の接近速度よりも遅い第2の接近速度で、前記所定の対象と正面から向き合わないような第2の接近姿勢に対応する第2の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御する、
ことを特徴とする。
また、本発明に係るロボットの一様態は、
所定の対象を認識する認識手段と、
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように自装置を制御する制御手段と、
を備え、
前記制御手段は、前記所定の対象への接近中において、前記感情表現として、
前記好感度が閾値よりも高い場合、前記所定の対象に好意的な動作をするように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、前記所定の対象に好意的でない動作をするように前記自装置を制御する、
ことを特徴とする。
また、本発明に係るロボットの一様態は、
所定の対象を認識する認識手段と、
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように自装置を制御する制御手段と、
を備え、
前記所定の対象への接近中において、前記認識手段が、前記所定の対象とは異なる他の対象を認識した場合、
前記決定手段は、前記認識手段により認識された前記他の対象に対する他の好感度に基づいて、前記他の対象に対する通過中の通過様態を決定して、
前記制御手段は、前記他の対象への通過中において、前記決定手段により決定された前記通過様態に応じて前記他の対象に他の感情表現をするように前記自装置を制御する、
ことを特徴とする。
In order to achieve the above object, one aspect of the robot according to the present invention is
recognition means for recognizing a predetermined target;
Based on the likability of the predetermined target recognized by the recognition means, as an approach mode during approaching the predetermined target, an approach route, an approach speed, and an opposing direction when the device approaches the predetermined target. Determining means for determining the angle and approach attitude ;
a control means for controlling the self -apparatus to express an emotion toward the predetermined object according to the manner of approach determined by the determination means while the apparatus is approaching the predetermined object;
with
The control means is
When the favorability is higher than a threshold, a first approach angle corresponding to a first approach posture facing the predetermined target head-on on a straight first approach path at a first approach speed. and controlling the self-device so that the self-device approaches the predetermined target,
When the favorability is lower than the threshold value, a meandering second approach route, a second approach speed slower than the first approach speed, and a second approach speed that does not face the predetermined target head-on. controlling the self-device so that the self-device approaches the predetermined target at a second facing angle corresponding to the approach posture;
It is characterized by
Further, one aspect of the robot according to the present invention is
recognition means for recognizing a predetermined target;
determining means for determining an approaching manner during approaching the predetermined target based on the liking for the predetermined target recognized by the recognizing means;
a control means for controlling the apparatus to express an emotion to the predetermined object according to the approach mode determined by the determining means while the apparatus is approaching the predetermined object;
with
The control means, while approaching the predetermined object, as the emotional expression,
controlling the self-device to perform a favorable action toward the predetermined target when the favorability is higher than a threshold;
controlling the self-device to perform an action unfavorable to the predetermined target when the favorability is lower than the threshold;
It is characterized by
Further, one aspect of the robot according to the present invention is
recognition means for recognizing a predetermined target;
determining means for determining an approaching manner during approaching the predetermined target based on the liking for the predetermined target recognized by the recognizing means;
a control means for controlling the apparatus to express an emotion to the predetermined object according to the approach mode determined by the determining means while the apparatus is approaching the predetermined object;
with
When the recognition means recognizes another target different from the predetermined target while approaching the predetermined target,
The determining means determines a passing mode during passage for the other object based on the other favorable impression of the other object recognized by the recognizing means,
The control means controls the own device to express another emotion to the other object in accordance with the passage mode determined by the determination means during passage to the other object.
It is characterized by

前記目的を達成するため、本発明に係るロボットの制御方法の一様態は、
所定の対象を認識する認識ステップと、
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中のロボットの接近様態として、前記ロボットが前記所定の対象に接近する場合の接近経路、接近速度、対向角度、接近姿勢を決定する決定ステップと、
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするように前記ロボットを制御する制御ステップと、を含
前記制御ステップにおいて、
前記好感度が閾値よりも高い場合、直線的な第1の接近経路で、第1の接近速度で、前記所定の対象と正面から向き合うような第1の接近姿勢に対応する第1の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御して、
前記好感度が前記閾値よりも低い場合、蛇行する第2の接近経路で、前記第1の接近速度よりも遅い第2の接近速度で、前記所定の対象と正面から向き合わないような第2の接近姿勢に対応する第2の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御する、
ことを特徴とする。
また、本発明に係るロボットの制御方法の一様態は、
所定の対象を認識する認識ステップと、
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定ステップと、
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするようにロボットを制御する制御ステップと、を含み、
前記制御ステップでは、前記所定の対象への接近中において、前記感情表現として、
前記好感度が閾値よりも高い場合、前記所定の対象に好意的な動作をするように前記ロボットを制御して、
前記好感度が前記閾値よりも低い場合、前記所定の対象に好意的でない動作をするように前記ロボットを制御する、
ことを特徴とする。
また、本発明に係るロボットの制御方法の一様態は、
所定の対象を認識する認識ステップと、
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定ステップと、
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするようにロボットを制御する制御ステップと、を含み、
前記所定の対象への接近中において、前記所定の対象とは異なる他の対象が認識された場合、
認識された前記他の対象に対する他の好感度に基づいて、前記他の対象に対する通過中の通過様態を決定して、
前記他の対象への通過中において、決定された前記通過様態に応じて前記他の対象に他の感情表現をするように前記ロボットを制御する、
ことを特徴とする。
In order to achieve the above object, one aspect of the robot control method according to the present invention includes:
a recognition step of recognizing a predetermined target;
An approach path and an approach speed when the robot approaches the predetermined object as an approach mode of the robot that is approaching the predetermined object, based on the likability for the predetermined object recognized in the recognition step , the facing angle and the approaching attitude ;
a control step of controlling the robot to express an emotion toward the predetermined object according to the manner of approach determined in the determining step while the robot is approaching the predetermined object;
In the control step,
When the favorability is higher than a threshold, a first approach angle corresponding to a first approach posture facing the predetermined target head-on on a straight first approach path at a first approach speed. and controlling the robot so that the robot approaches the predetermined target,
When the favorability is lower than the threshold value, a meandering second approach route, a second approach speed slower than the first approach speed, and a second approach speed that does not face the predetermined target head-on. controlling the robot so that the robot approaches the predetermined target at a second facing angle corresponding to the approach posture;
It is characterized by
Further, one aspect of the robot control method according to the present invention includes:
a recognition step of recognizing a predetermined target;
a determination step of determining an approach mode during approach to the predetermined target based on the likability of the predetermined target recognized in the recognition step;
a control step of controlling the robot to express an emotion toward the predetermined object according to the manner of approach determined in the determining step while the robot is approaching the predetermined object;
In the control step, during the approach to the predetermined target, as the emotional expression,
controlling the robot to perform a favorable action toward the predetermined target when the favorable rating is higher than a threshold;
controlling the robot to perform an unfavorable action toward the predetermined target when the favorable rating is lower than the threshold;
It is characterized by
Further, one aspect of the robot control method according to the present invention includes:
a recognition step of recognizing a predetermined target;
a determination step of determining an approach mode during approach to the predetermined target based on the likability of the predetermined target recognized in the recognition step;
a control step of controlling the robot to express an emotion toward the predetermined object according to the manner of approach determined in the determining step while the robot is approaching the predetermined object;
When another target different from the predetermined target is recognized while approaching the predetermined target,
Determining a transit mode during transit for the other object based on the perceived other likability for the other object,
controlling the robot to express another emotion to the other object in accordance with the determined passage mode during the passage to the other object;
It is characterized by

また、前記目的を達成するため、本発明に係るプログラムの一様態は、
ロボットのコンピュータに、
所定の対象を認識する認識処理と、
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態として、前記ロボットが前記所定の対象に接近する場合の接近経路、接近速度、対向角度、接近姿勢を決定する決定処理と、
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
を実行させ
前記制御処理において、
前記好感度が閾値よりも高い場合、直線的な第1の接近経路で、第1の接近速度で、前記所定の対象と正面から向き合うような第1の接近姿勢に対応する第1の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御して、
前記好感度が前記閾値よりも低い場合、蛇行する第2の接近経路で、前記第1の接近速度よりも遅い第2の接近速度で、前記所定の対象と正面から向き合わないような第2の接近姿勢に対応する第2の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御する、
ことを特徴とする。
また、本発明に係るプログラムの一様態は、
ロボットのコンピュータに、
所定の対象を認識する認識処理と、
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定処理と、
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
を実行させ、
前記制御処理では、前記所定の対象への接近中において、前記感情表現として、
前記好感度が閾値よりも高い場合、前記所定の対象に好意的な動作をするように前記ロボットを制御して、
前記好感度が前記閾値よりも低い場合、前記所定の対象に好意的でない動作をするように前記ロボットを制御する、
ことを特徴とする。
また、本発明に係るプログラムの一様態は、
ロボットのコンピュータに、
所定の対象を認識する認識処理と、
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定処理と、
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
を実行させ、
前記所定の対象への接近中において、前記所定の対象とは異なる他の対象が認識された場合、
認識された前記他の対象に対する他の好感度に基づいて、前記他の対象に対する通過中の通過様態を決定して、
前記他の対象への通過中において、決定された前記通過様態に応じて前記他の対象に他の感情表現をするように前記ロボットを制御する、
ことを特徴とする。
Further, in order to achieve the above object, one aspect of the program according to the present invention is
to the robot's computer
a recognition process for recognizing a predetermined target;
Based on the likability for the predetermined object recognized by the recognition process, as an approach mode during approaching the predetermined object, an approach route, an approach speed, and an opposing position when the robot approaches the predetermined object. determination processing for determining an angle and an approach posture ;
a control process for controlling the robot to express an emotion toward the predetermined target according to the approach mode determined by the determination process while the robot is approaching the predetermined target;
and
In the control process,
When the favorability is higher than a threshold, a first approach angle corresponding to a first approach posture facing the predetermined target head-on on a straight first approach path at a first approach speed. and controlling the robot so that the robot approaches the predetermined target,
When the favorability is lower than the threshold value, a meandering second approach route, a second approach speed slower than the first approach speed, and a second approach speed that does not face the predetermined target head-on. controlling the robot so that the robot approaches the predetermined target at a second facing angle corresponding to the approach posture ;
It is characterized by
In addition, one aspect of the program according to the present invention is
to the robot's computer
a recognition process for recognizing a predetermined target;
a determination process of determining an approach state during approach to the predetermined target based on the likability for the predetermined target recognized by the recognition process;
a control process for controlling the robot to express an emotion toward the predetermined target according to the approach mode determined by the determination process while the robot is approaching the predetermined target;
and
In the control process, during the approach to the predetermined object, as the emotional expression,
controlling the robot to perform a favorable action toward the predetermined target when the favorable rating is higher than a threshold;
controlling the robot to perform an unfavorable action toward the predetermined target when the favorable rating is lower than the threshold;
It is characterized by
In addition, one aspect of the program according to the present invention is
to the robot's computer
a recognition process for recognizing a predetermined target;
a determination process of determining an approach state during approach to the predetermined target based on the likability for the predetermined target recognized by the recognition process;
a control process for controlling the robot to express an emotion toward the predetermined target according to the approach mode determined by the determination process while the robot is approaching the predetermined target;
and
When another target different from the predetermined target is recognized while approaching the predetermined target,
Determining a transit mode during transit for the other object based on the perceived other likability for the other object,
controlling the robot to express another emotion to the other object in accordance with the determined passage mode during the passage to the other object;
It is characterized by

本発明によれば、所定の対象に好感度に応じて従来よりも豊かな感情表現をすることができるロボット、ロボットの制御方法及びプログラムを提供することが可能となる。 According to the present invention, it is possible to provide a robot, a robot control method, and a program capable of expressing richer emotions than ever before according to a predetermined target's favorability.

本発明の実施の形態に係るロボットの正面図である。1 is a front view of a robot according to an embodiment of the invention; FIG. ロボットの構成を示すブロック図である。It is a block diagram which shows the structure of a robot. ユーザ行動テーブルの一例を示す図である。It is a figure which shows an example of a user action table. 好感度設定テーブル(好感度取得テーブル)の一例を示す図である。It is a figure which shows an example of a favorable impression setting table (positive impression acquisition table). 接近様態決定テーブルの一例を示す図である。It is a figure which shows an example of an approach state determination table. 直線的な移動経路(接近経路)を説明するための図である。It is a figure for demonstrating the linear movement path|route (approach path|route). 湾曲した移動経路を説明するための図である。It is a figure for demonstrating the curved movement path|route. 蛇行した移動経路を説明するための図である。It is a figure for demonstrating the movement path|route which meandered. ロボットがユーザと真正面で向き合う状態を説明するための図である。FIG. 4 is a diagram for explaining a state in which the robot faces the user head-on; ロボットがユーザと斜めに向き合う状態を説明するための図である。FIG. 4 is a diagram for explaining a state in which the robot faces the user obliquely; 応対制御処理(接近制御処理)の流れを示すフローチャートである。It is a flow chart which shows the flow of response control processing (approach control processing). 迂回経路(通過経路)が形成された移動経路を説明するための図である。It is a figure for demonstrating the moving route by which the detour route (passing route) was formed.

以下、本発明の実施の形態について図面を参照しながら詳細に説明する。以下の実施の形態では、本発明の実施の形態に係る対話装置を備えるロボットを例に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following embodiments, robots equipped with interactive devices according to embodiments of the present invention will be described as examples.

ロボット100は、所定の対象とコミュニケーションをするロボットである。ここで、所定の対象とは、ロボット100を利用するユーザ(利用者)であり、典型的には、ロボット100の所有者や所有者の家族や友人等である。また、所定の対象には、人以外に、動物や他のロボットも含まれる。 A robot 100 is a robot that communicates with a predetermined target. Here, the predetermined target is the user (user) who uses the robot 100, typically the owner of the robot 100, or the owner's family, friends, or the like. In addition to humans, predetermined objects include animals and other robots.

ロボット100は、図1に示すように、外観的には人間を模した立体的な形状を有するロボットである。また、ロボット100の外装は、合成樹脂を主たる材料として形成されている。ロボット100は、胴体部101と、胴体部101の上部に接続する頭部102と、胴体部101の左右のそれぞれに接続する手部103と、胴体部101の下部に接続する2本の足部104と、を有する。頭部102、手部103、足部104の各部は、図示しない関節部材を介して胴体部101に取り付けられ、後述する制御部110の制御に従って、予め設定された動作を行うように構成されている。また、頭部102は、左右一対の目部105、口部106を有する。なお、図1の上側、下側、左側、右側を、各々、ロボット100の上側、下側、右側、左側とする。 The robot 100, as shown in FIG. 1, is a robot having a three-dimensional shape that resembles a human in appearance. Further, the exterior of the robot 100 is made mainly of synthetic resin. The robot 100 includes a body portion 101, a head portion 102 connected to the upper portion of the body portion 101, hand portions 103 connected to the left and right sides of the body portion 101, and two legs connected to the lower portion of the body portion 101. 104 and . The head 102, hand 103, and foot 104 are attached to the body 101 via joint members (not shown), and are configured to perform preset actions under the control of the control unit 110, which will be described later. there is The head 102 also has a pair of left and right eyes 105 and a mouth 106 . Note that the upper, lower, left, and right sides of FIG. 1 are the upper, lower, right, and left sides of the robot 100, respectively.

次に、図2を参照して、ロボット100の構成について説明する。ロボット100は、図2に示すように、制御部110、記憶部120、撮像部130、センサ部140、移動部150、動作部160、音声入力部170、音声出力部180を備える。これらの各部は、バスラインBLを介して相互に電気的に接続されている。 Next, the configuration of the robot 100 will be described with reference to FIG. The robot 100 includes a control unit 110, a storage unit 120, an imaging unit 130, a sensor unit 140, a moving unit 150, an operation unit 160, an audio input unit 170, and an audio output unit 180, as shown in FIG. These units are electrically connected to each other via a bus line BL.

制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を有するコンピュータにより構成され、ロボット100の動作を制御する。制御部110は、CPUがROMに記憶された制御プログラムを読み出してRAM上で実行することにより、ロボット100の各部の動作を制御する。 The control unit 110 is configured by a computer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), etc., and controls the operation of the robot 100 . The control unit 110 controls the operation of each unit of the robot 100 by having the CPU read a control program stored in the ROM and execute it on the RAM.

制御部110は、制御プログラムを実行することによって、ユーザ認識部111、顔認識部112、音声認識部113、ユーザ行動認識部114、好感度設定部(好感度取得部)115、応対制御部(接近制御部)116として機能する。 By executing the control program, the control unit 110 performs a user recognition unit 111, a face recognition unit 112, a voice recognition unit 113, a user action recognition unit 114, a favorable rating setting unit (good rating acquiring unit) 115, a reception control unit ( It functions as an approach control unit) 116 .

ユーザ認識部111は、ロボット100の周囲(例えば、ロボット100から半径3mの範囲内)に存在するユーザを識別して認識する。ユーザ認識部111は、例えば、後述する顔認識部112による顔認識結果、音声認識部113による話者認識結果のいずれか又は両方に基づいて、ロボット100の周囲に存在するユーザが誰であるかを認識する。また、ユーザ認識部111は、例えば、顔認識部112が撮像部130の撮像画像から検出した顔画像の位置や大きさ、音声認識部113が認識した音源方向等に基づいて、ロボット100の周囲に存在するユーザの位置及びユーザまでの距離を認識する。ユーザ認識部111は、本発明の認識手段として機能する。 The user recognition unit 111 identifies and recognizes users existing around the robot 100 (for example, within a radius of 3 m from the robot 100). The user recognition unit 111 recognizes who the users around the robot 100 are based on, for example, one or both of a face recognition result by the face recognition unit 112 and a speaker recognition result by the voice recognition unit 113, which will be described later. to recognize The user recognition unit 111 also recognizes the surroundings of the robot 100 based on, for example, the position and size of the face image detected by the face recognition unit 112 from the captured image of the imaging unit 130, the direction of the sound source recognized by the voice recognition unit 113, and the like. Recognize the location of the user and the distance to the user in the . The user recognition unit 111 functions as recognition means of the present invention.

顔認識部112は、ロボット100の周囲に存在するユーザの顔を認識する。顔認識部112は、例えば、後述する撮像部130から取得した撮像画像に基づき、周知の顔検出技術、物体検出技術等を用いて、ロボット100の周囲に存在するユーザを検知する。続いて、顔認識部112は、例えば、撮像部130による撮像画像から検知したユーザの顔部分に相当する顔画像を検出して、顔の特徴量を示す顔特徴情報を抽出する。そして、顔認識部112は、顔画像から抽出した顔特徴情報と、後述する記憶部120のユーザ情報DB(Data Base)121が記憶する各ユーザ情報に含まれる顔特徴情報とを照合し、類似度が所定の基準を満たす登録ユーザを特定する。顔認識部112は、類似度が所定の基準を満たす登録ユーザを特定できない場合には、検出したユーザは未登録ユーザであると認識する。顔の特徴量は、ユーザの顔を識別可能な情報であればよく、例えば、目、鼻、口等の顔に含まれる各パーツの形状、大きさ、配置等の外観的特徴を数値で示したものである。このように、顔認識部112は、本発明の顔認識手段として機能する。 The face recognition unit 112 recognizes the user's face around the robot 100 . The face recognition unit 112 detects a user existing around the robot 100 using a well-known face detection technique, object detection technique, or the like, for example, based on a captured image acquired from the imaging unit 130 described later. Subsequently, the face recognition unit 112 detects, for example, a face image corresponding to the detected face part of the user from the image captured by the imaging unit 130, and extracts facial feature information indicating the feature amount of the face. Then, the face recognition unit 112 collates facial feature information extracted from the facial image with facial feature information included in each piece of user information stored in a user information DB (Data Base) 121 of the storage unit 120, which will be described later. Identify registered users whose degrees meet predetermined criteria. The face recognition unit 112 recognizes that the detected user is an unregistered user when a registered user whose degree of similarity satisfies a predetermined criterion cannot be identified. The facial feature amount may be any information that can identify the user's face. For example, the appearance features such as the shape, size, and arrangement of each part included in the face, such as the eyes, nose, and mouth, are indicated numerically. It is a thing. Thus, the face recognition section 112 functions as face recognition means of the present invention.

音声認識部113は、後述する音声入力部170から取得した音声データに含まれるユーザの発話の内容を認識する。音声認識部113は、記憶部120の音声認識DB122に格納された音声認識データを用いて、音声データに音声認識処理を行い、発話認識結果として、ユーザの発話内容を示すテキストデータを生成する。音声認識部113は、本発明の音声認識手段として機能する。 The speech recognition unit 113 recognizes the content of the user's speech included in the speech data acquired from the speech input unit 170, which will be described later. The speech recognition unit 113 performs speech recognition processing on the speech data using the speech recognition data stored in the speech recognition DB 122 of the storage unit 120, and generates text data indicating the content of the user's speech as the speech recognition result. The speech recognition unit 113 functions as speech recognition means of the present invention.

また、音声認識部113は、音声入力部170から取得した音声データに含まれる音声を発した発話者を認識する。音声認識部113は、例えば、音声入力部170から取得した音声データから背景雑音等を消去し、ユーザの音声の特徴量を示す音声特徴情報を抽出する。そして、音声認識部113は、音声データから抽出した音声特徴情報と、記憶部120のユーザ情報DB121が記憶する各ユーザ情報に含まれる音声特徴情報とを照合し、話者認識結果として、類似度が所定の基準を満たす登録ユーザを特定する。音声特徴情報は、ユーザの音声を識別可能な情報であればよく、例えば、声の高さ、強さ、速さ、声質等の音響的特徴を数値で示したものである。このように、音声認識部113は、ユーザ認識部111によりロボット100の周囲に存在する複数のユーザが認識された場合、何れのユーザによって発話されたかを特定することが可能である。 The speech recognition unit 113 also recognizes the speaker who has uttered the speech included in the speech data acquired from the speech input unit 170 . The speech recognition unit 113, for example, removes background noise and the like from the speech data acquired from the speech input unit 170, and extracts speech feature information indicating feature amounts of the user's speech. Then, the speech recognition unit 113 collates the speech feature information extracted from the speech data with the speech feature information included in each user information stored in the user information DB 121 of the storage unit 120, and obtains the similarity as the speaker recognition result. identifies registered users who meet predetermined criteria. The voice feature information may be any information that allows identification of the user's voice, and is, for example, numeric values representing acoustic features such as pitch, strength, speed, and quality of voice. As described above, when the user recognition unit 111 recognizes a plurality of users existing around the robot 100, the voice recognition unit 113 can identify which user made the utterance.

また、音声認識部113は、音声入力部170から取得した音声データに基づいて、音源方向を認識する。音声認識部113は、例えば、音声入力部170が有するマイクユニットの各マイクの集音時間差や音圧レベル差等に基づいて音源方向を認識する。 Also, the voice recognition unit 113 recognizes the sound source direction based on the voice data acquired from the voice input unit 170 . The voice recognition unit 113 recognizes the direction of the sound source based on, for example, the sound collection time difference and the sound pressure level difference between the microphones of the microphone unit of the voice input unit 170 .

ユーザ行動認識部114は、ロボット100に対するユーザの行動(以下、「ユーザ行動」と称する)を認識する。ユーザ行動認識部114は、例えば、音声認識部113により認識されたユーザの発話内容、センサ部140のタッチセンサにより検出された接触強度等に応じて、ユーザ行動を認識する。ユーザ行動認識部114は、例えば、タッチセンサにより検出された接触強度が予め設定された基準値よりも低い場合には、そのユーザ行動を「撫でる」と認識し、接触強度が予め設定された基準値よりも高い場合には、そのユーザ行動を「叩く」と認識する。なお、ユーザ行動判定部は、撮像部130による撮像画像からユーザの表情や振る舞い等を検出することにより、ユーザ行動として認識してもよい。ユーザ行動認識部114は、認識したユーザ行動を、該当するユーザのユーザ情報に追加し、履歴情報として記憶する。ユーザ行動認識部114は、本発明の行動認識手段として機能する。 The user behavior recognition unit 114 recognizes behavior of the user with respect to the robot 100 (hereinafter referred to as “user behavior”). The user action recognition unit 114 recognizes the user action according to, for example, the content of the user's utterance recognized by the voice recognition unit 113, the contact intensity detected by the touch sensor of the sensor unit 140, and the like. For example, when the contact strength detected by the touch sensor is lower than a preset reference value, the user action recognition unit 114 recognizes the user action as "stroking", and the contact strength reaches the preset reference value. If it is higher than the value, the user action is recognized as "hitting". Note that the user behavior determination unit may detect the user's facial expression, behavior, and the like from the image captured by the image capturing unit 130, thereby recognizing the user behavior. The user behavior recognition unit 114 adds the recognized user behavior to the user information of the user and stores it as history information. The user action recognition unit 114 functions as action recognition means of the present invention.

好感度設定部(好感度取得部)115は、各ユーザの好感度を設定(取得)する。好感度設定部115は、例えば、ロボット100に対するユーザ行動に応じて、そのユーザに対する好感度を決定する。好感度設定部115は、好感度を決定するにあたり、例えば、記憶部120に記憶されたユーザ行動テーブル及び好感度設定テーブル(好感度取得テーブル)を参照する。 The positivity setting unit (positiveness acquisition unit) 115 sets (acquires) the positivity of each user. The likability setting unit 115 determines the likability for the user, for example, according to the user's behavior toward the robot 100 . The positivity setting unit 115 refers to, for example, a user behavior table and a positivity setting table (positiveness acquisition table) stored in the storage unit 120 when determining positivity.

ユーザ行動テーブルは、図3に示すように、「ユーザ行動」と「付与ポイント」とが対応付けられている。「ユーザ行動」として、「話しかける」、「撫でる」等が列挙されている。また、「付与ポイント」は、各ユーザ行動に予め設定された数値である。各ユーザ行動に異なる付与ポイントを設定することにより、ユーザ行動の属性(ロボット100に対するユーザの好意性)に応じた重み付けが施されている。例えば、「話しかける」、「撫でる」等の好意的な行動には正値が設定され、「応答しない」、「叩く」等の非好意的な行動には負値が設定されている。このような重み付けを施すことにより、各ユーザ行動を、好意的な行動と非好意的な行動とに区別することができるとともに、好意的な行動であれば好感度を上げ、非好意的な行動であれば好感度を下げることができる。 In the user behavior table, as shown in FIG. 3, "user behavior" and "granted points" are associated with each other. As "user actions", "talking", "stroking", etc. are listed. Also, the "given point" is a numerical value preset for each user action. By setting different points for each user action, weighting according to the attribute of the user action (the user's favorability toward the robot 100) is applied. For example, positive values are set for favorable actions such as "talking" and "stroking", and negative values are set for unfavorable actions such as "not responding" and "hitting". By applying such weighting, it is possible to distinguish each user behavior into favorable behavior and unfavorable behavior, and if the behavior is favorable, the favorability is increased, and if the behavior is unfavorable, If so, you can lower your sensitivity.

好感度設定テーブルは、図4に示すように、「好感度」と「好感度ポイント」とが対応付けられている。「好感度」は、好感度の度合いに応じて、「A」、「B」、「C」、「D」、「E」の5つのレベルに分類されている。「好感度ポイント」は、所定期間において同一のユーザによって実施された各ユーザ行動に設定された付与ポイントの合計値である。好感度「A」~「E」の順に高い好感度ポイントが対応付けられている。すなわち、好感度に関する1または複数の閾値が設けられ、好感度は、設けられた閾値によって複数の区分に分類されている。「好感度ポイント」は、例えば、直近の所定期間における付与ポイントの合計値、最近の所定期間における好感度ポイントほど重みを大きくして求めた加重平均値、直近の所定期間を含むある程度長期間の好感度ポイントによって求めた移動平均値等を用いることができる。 As shown in FIG. 4, the favorable impression setting table associates "positive impression" with "positive impression point". "Favorability" is classified into five levels of "A", "B", "C", "D", and "E" according to the degree of favorability. The “favorable impression point” is the total value of points given to each user action performed by the same user during a predetermined period. Favorability points are associated in the order of favorability "A" to "E". That is, one or a plurality of thresholds are provided for favorable ratings, and positive ratings are classified into a plurality of categories according to the provided thresholds. "Favorability points" are, for example, the total value of the points granted in the most recent predetermined period, the weighted average value obtained by increasing the weight as the favorability points in the most recent predetermined period, and the A moving average or the like obtained from favorable impression points can be used.

好感度設定部115は、例えば、所定期間が経過する毎に、各ユーザの好感度(好感度レベル)を設定し、記憶部120のユーザ情報DB121に格納された対応するユーザ情報に含まれる現状の好感度を更新して記憶する。また、好感度設定部115は、ユーザ情報DB121に格納された該当するユーザ情報を参照して予め設定された好感度を適宜取得することができる。このように、好感度設定部115は、本発明の記録手段、取得手段として機能する。 The favorability setting unit 115 sets the favorability (favorability level) of each user, for example, each time a predetermined period elapses, and the current status included in the corresponding user information stored in the user information DB 121 of the storage unit 120. Updates and memorizes the favorability of Also, the favorable rating setting unit 115 can refer to the corresponding user information stored in the user information DB 121 and appropriately obtain the favorable rating set in advance. Thus, the favorable impression setting unit 115 functions as recording means and acquisition means of the present invention.

応対制御部116は、対象ユーザに対する好感度に応じて応対様態を決定し、決定された応対様態に基づいて、感情表現をするように、移動部150、動作部160、音声出力部180のうち少なくとも1つを制御して、各種行動を実行する。 The response control unit 116 determines a response mode according to the favorability of the target user, and controls one of the movement unit 150, the operation unit 160, and the voice output unit 180 so as to express emotions based on the determined response mode. Control at least one to perform various actions.

応対制御部116は、ユーザ行動認識部114がユーザ行動を認識した場合、そのユーザ行動に応答するロボット100の行動(以下、「応答行動(応答動作)」と称する)を実行するための応対様態を好感度に応じて決定する。応対制御部116は、例えば、ユーザ行動認識部114が「おはよう」、「こんにちは」等のあいさつを認識した場合、好感度が高い対象ユーザに対しては、「おはよう」、「こんにちは」等のあいさつと、これに続けて、「今日はいい天気だね」、「今日は何をするの?」等の対象ユーザとの対話を持続、発展させるような発話を加えた応答を応対様態として決定する。一方、好感度が低い対象ユーザに対しては、「おはよう」、「こんにちは」等のあいさつのみの形式的、儀礼的な応答を応対様態として決定する。そして、応対制御部116は、音声出力部180を制御して、決定された応答様態を示す音声を出力する。 When the user action recognition unit 114 recognizes a user action, the response control unit 116 sets a response mode for executing the action of the robot 100 in response to the user action (hereinafter referred to as "response action (response action)"). is determined according to favorability. For example, when the user action recognition unit 114 recognizes greetings such as "Good morning" and "Hello", the response control unit 116 recognizes greetings such as "Good morning" and "Hello" for the target user with a high favorable rating. , followed by utterances such as "It's nice weather today" and "What are you doing today?" . On the other hand, for a target user with low favorability, formal and polite responses such as greetings such as "Good morning" and "Hello" are determined as the mode of reception. Response control unit 116 then controls voice output unit 180 to output voice indicating the determined response mode.

また、応対制御部116は、ユーザ行動認識部114がユーザ行動を認識した場合、対象ユーザが予め設定された接近条件を満たすか否かを判定し、接近条件を満たすと判定した場合には、好感度に応じて応対様態としての接近様態を決定する。接近条件として、対象ユーザがロボット100を自身の近傍に呼び寄せるための呼びかけ(例えば、「おいで」、「こっちに来て」等)があったこと等が挙げられる。この場合、応対制御部116は、音声認識部113による発話認識結果に基づいて、接近条件を満たすか否かを判定すればよい。以下の説明では、接近条件を満たす対象ユーザを、「接近対象ユーザ」と称する。接近条件を満たすと判定した場合、応対制御部116は、例えば、図5に示す接近様態決定テーブルを参照して、接近様態として、接近対象ユーザに接近中の移動経路(接近経路)及び移動速度(接近速度)、接近終了時の接近対象ユーザとの間の対向距離(接近距離)及びユーザと向き合う接近中又は接近終了時の対向姿勢(接近姿勢)のうちの少なくとも1つを決定する。このように、応対制御部(接近制御部)116は、本発明の制御手段、決定手段として機能する。 Further, when the user behavior recognition unit 114 recognizes a user behavior, the response control unit 116 determines whether or not the target user satisfies a preset approach condition. The manner of approach as a manner of reception is determined according to the favorability. As the approach condition, there is a call (for example, "come here", "come over here", etc.) for the target user to call the robot 100 to the vicinity of the target user. In this case, the response control unit 116 may determine whether or not the approach condition is satisfied based on the speech recognition result of the speech recognition unit 113 . In the following description, a target user who satisfies the approach condition is referred to as an "approach target user". If it is determined that the approach condition is satisfied, the response control unit 116 refers to, for example, the approach mode determination table shown in FIG. At least one of (approaching speed), the facing distance (approaching distance) to the approaching target user at the end of approaching, and the facing attitude (approaching attitude) during approaching or at the end of approaching facing the user is determined. Thus, the response control unit (approach control unit) 116 functions as control means and determination means of the present invention.

接近様態決定テーブルは、例えば、図5に示すように、好感度のレベル毎に、応対様態(接近様態)として「移動経路」、「移動速度」、「対向距離」、「対向姿勢」が対応付けられている。 For example, as shown in FIG. 5, the approach mode determination table corresponds to "moving path", "moving speed", "facing distance", and "facing posture" as the response mode (approach mode) for each level of favorability. attached.

「移動経路(接近経路)」は、好感度が高いほど接近対象ユーザに向かって直行する(直線的な)経路パターンが設定され、好感度が低いほど遠回りをする(蛇行する)経路パターンが設定されている。例えば、好感度「A」には直線的な経路である「直線」、好感度「C」には曲率が小さい経路である「湾曲(大)」、好感度「E」には蛇行幅が大きい経路である「蛇行(大)」、がそれぞれ設定されている。 For the "movement route (approach route)", the higher the favorability, the direct (straight) route pattern toward the approach target user is set, and the lower the favorability, the more detour (meandering) route pattern is set. It is For example, "Straight" is a straight path for favorable rating "A"; A path "Meandering (Large)" is set.

より具体的には、移動経路「直線」の場合、図6に示すように、ロボット100は、接近対象ユーザURに向かって、直線的な移動経路MRに沿って接近する。また、移動経路「湾曲(大)」、「湾曲(小)」の場合、図7に示すように、ロボット100は、接近対象ユーザURに向かって、湾曲した移動経路MRに沿って接近する。なお、「湾曲(大)」は、「湾曲(小)」よりも曲率が小さいことを示す。また、移動経路「蛇行(大)」、「蛇行(小)」の場合、図8に示すように、ロボット100は、接近対象ユーザURに向かって、蛇行した移動経路MRに沿って接近する。なお、「蛇行(大)」は、「蛇行(小)」よりも蛇行幅が大きいことを示す。このように、「移動経路」は、好感度が低くなるに従って移動距離が長くなるように設定されている。応対制御部116は、ユーザ認識部111が認識した対象ユーザの位置及び対象ユーザまでの距離、「移動経路」が示す経路パターンに基づいて、具体的な移動経路を決定する。 More specifically, in the case of the movement route “straight line”, as shown in FIG. 6, the robot 100 approaches the approaching user UR along the straight movement route MR. In the case of the movement route “curved (large)” and “curved (small)”, as shown in FIG. 7, the robot 100 approaches the approaching user UR along the curved movement route MR. Note that "curvature (large)" indicates that the curvature is smaller than "curvature (small)". In the case of the moving route “meandering (large)” and “meandering (small)”, as shown in FIG. 8, the robot 100 approaches the approaching user UR along the meandering movement route MR. Note that "meandering (large)" indicates that the meandering width is larger than "meandering (small)". In this way, the "moving route" is set so that the moving distance increases as the favorability decreases. The response control unit 116 determines a specific travel route based on the position of the target user recognized by the user recognition unit 111, the distance to the target user, and the route pattern indicated by the “travel route”.

「移動速度(接近速度)」は、好感度が高いほど高速で移動するように設定され、好感度が低いほど低速で移動するように設定されている。例えば、好感度「A」には予め設定された標準速度(例えば、0.3m/秒)よりも高速である「高」(例えば、0.5m/秒)、好感度「B」には標準速度よりもやや高速である「やや高」(例えば、0.4m/秒)、好感度「C」には標準速度である「中」、好感度「D」には標準速度よりもやや低速である「やや低」(例えば、0.2m/秒)、好感度「E」には標準速度よりも低速である「低」(例えば、0.1m/秒)が設定されている。 The "moving speed (approaching speed)" is set such that the higher the favorability, the higher the speed, and the lower the favorability, the lower the speed. For example, "high" (e.g., 0.5 m/sec), which is faster than a preset standard speed (e.g., 0.3 m/sec), is for favorability "A", and standard speed is for favorability "B". "Slightly high" (for example, 0.4 m / sec), which is slightly faster than the speed, "Medium", which is the standard speed for favorability "C", and slightly slower than the standard speed for favorability "D" Some "slightly low" (for example, 0.2 m/sec), and the favorability "E" is set to "low" (for example, 0.1 m/sec), which is slower than the standard speed.

「対向距離(接近距離)」は、好感度が高いほど移動終了時にロボット100と接近対象ユーザとの間の距離が短くなるように設定され、好感度が低いほど移動終了時にロボット100と接近対象ユーザとの間の距離が長くなるように設定されている。例えば、好感度「A」には予め設定された標準距離(例えば、0.5m)よりも短い距離(例えば、0.3m)である「短」、好感度「B」には標準距離よりもやや短い距離(例えば、0.4m)である「やや短」、好感度「C」には標準距離である「中」、好感度「D」には標準距離よりもやや長い距離(例えば、0.6m)である「やや長」、好感度「E」には標準距離よりも長い距離(例えば、0.7m)である「長」が設定されている。このように、「対向距離」は、好感度が低くなるに従って、離間した位置で接近移動を終了して接近対象ユーザと向き合うように設定されている。 The "opposing distance (approaching distance)" is set so that the higher the favorability, the shorter the distance between the robot 100 and the approaching target user at the end of movement. It is set so that the distance between it and the user is long. For example, "short", which is a distance (e.g., 0.3 m) shorter than a preset standard distance (e.g., 0.5 m) for the favorability "A", and for the favorability "B", A slightly short distance (eg, 0.4 m) is "slightly short," a standard distance is "medium" for favorability "C," and a slightly longer distance (eg, 0.4 m) is for favorability "D." .6 m), and the favorability rating "E" is set to "long", which is a longer distance (for example, 0.7 m) than the standard distance. In this way, the "facing distance" is set so that, as the favorability decreases, the approaching user ends the approaching movement at a distant position and faces the approaching target user.

「対向姿勢(接近姿勢)」は、ロボット100が、接近対象ユーザに向かう接近中又は接近終了時にユーザに向き合う姿勢であって、図9及び図10に示すように、接近対象ユーザURの正面方向UDとロボット100の正面方向RDとがなす角度である対向角度αによって表されている。ここで、接近対象ユーザの正面方向UDは、接近対象ユーザの左右方向に沿った面を後方から前方に垂直に貫く方向である。また、ロボット100の正面方向RDとは、ロボット100の左右方向に沿った面を後方から前方に垂直に貫く方向である。好感度が高いほど接近対象ユーザと真正面で向き合うように設定され、好感度が低いほど接近対象ユーザと斜めに向き合うように設定されている。例えば、好感度「A」には「0°」、好感度「B」には「10°」好感度「C」には「20°」、好感度「D」には「30°」、好感度「E」には「40°」が設定されている。対向角度αが0°の場合には、図9に示すように、ロボット100は接近対象ユーザURと真正面に向き合い、対向角度αが0°以外の場合には、図10に示すように、ロボット100が接近対象ユーザURと斜めに向き合うことになる。 The "facing posture (approaching posture)" is a posture in which the robot 100 faces the user during approaching toward the approaching user or when the approaching end is completed. It is represented by the opposing angle α that is the angle between UD and the front direction RD of the robot 100 . Here, the frontal direction UD of the approaching user is a direction that vertically pierces the surface along the horizontal direction of the approaching user from the rear to the front. Further, the front direction RD of the robot 100 is a direction that vertically pierces the surface along the left-right direction of the robot 100 from the rear to the front. The higher the favorability, the more the user is set to face the approach target user head-on, and the lower the favorability, the setting is set to face the approach target user obliquely. For example, “0°” for favorability “A”, “10°” for favorability “B”, “20°” for favorability “C”, and “30°” for favorability “D”. Sensitivity "E" is set to "40°". When the facing angle α is 0°, as shown in FIG. 9, the robot 100 faces the approaching user UR head-on. 100 obliquely faces the approaching user UR.

なお、ロボット100の胴体部101と頭部102の正面方向が一致するものとして説明したが、ロボット100の胴体部101を接近対象ユーザと真正面で向き合うようにして、ロボット100の頭部102(顔部)の正面方向と接近対象ユーザの正面方向とがなす角度を対向角度αとしてもよい。すなわち、好感度が低くなるにつれて、頭部102を左右いずれかの方向に回転させて、ロボット100の頭部102(顔部)を接近対象ユーザからそむけるようにしてもよい。 Although the front directions of the body portion 101 and the head portion 102 of the robot 100 have been described as being the same, the body portion 101 of the robot 100 is made to face the approaching target user head-on. ) and the front direction of the approaching target user may be the opposing angle α. That is, as the favorability becomes lower, the head 102 may be rotated left or right to turn the head 102 (face) of the robot 100 away from the approaching target user.

このように、図5に示す接近様態決定テーブルには、ロボット100が、好感度が高いユーザに対して早く近くに接近するといった好意的な動作を実行する一方、好感度が低いユーザに対して時間をかけて移動し離れた位置で接近をやめるといった好意的でない動作を実行するように、接近様態が設定されている。なお、接近様態決定テーブルにおいて、好感度の度合い(レベル)に応じて、優先的な動作や優先的でない動作を設定してもよい。 As described above, in the approach mode determination table shown in FIG. 5, the robot 100 executes a favorable action such as quickly approaching a user with a high likability, while The approach mode is set to perform unfavorable actions such as moving over time and stopping approaching at a distant position. In addition, in the approach mode determination table, a preferential action or a non-prioritized action may be set according to the degree (level) of favorability.

さらに、応対制御部116は、ユーザ行動認識部114がユーザ行動を認識しない場合であっても、ロボット100の自発的な行動(以下、「自発行動」と称する)を実行するか否かを判定し、実行すると判定した場合には、自発行動を実行するための応対様態を好感度に応じて決定する。自発行動を実行するか否かの判定に際して、例えば、ユーザ行動認識部114がユーザ行動を認識しない時間、すなわち、対象ユーザがロボット100に対して何ら働きかけをしない時間が、所定時間(例えば、30分)継続したこと等を判定条件として用いればよい。自発行動としては、対象ユーザにロボットとのコミュニケーションを促す発話(例えば、「何をしているの?」、「会話しようよ」等)や動作(例えば、対象ユーザの注意を引くように手を振る動作等)が挙げられ、好感度に応じて発話内容や動作の程度が適宜調整される。なお、ユーザ行動の有無や接近条件を満たすか否かに関わらず、好感度の高い対象ユーザに対しては自発的に接近するようにしてもよい。 Furthermore, even if the user action recognition unit 114 does not recognize the user action, the response control unit 116 determines whether or not the robot 100 will perform a spontaneous action (hereinafter referred to as "spontaneous action"). Then, when it is determined that the action is to be performed, the mode of reception for performing the spontaneous action is determined according to the favorability. When determining whether or not to perform a spontaneous action, for example, the time during which the user action recognition unit 114 does not recognize the user action, that is, the time during which the target user does not act on the robot 100 is a predetermined time (for example, 30 minutes). Minutes) Continuation, etc. may be used as a determination condition. Spontaneous actions include utterances that encourage the target user to communicate with the robot (e.g., "What are you doing?", "Let's have a conversation, etc.") and actions (e.g., hand gestures to attract the target user's attention). shaking motion, etc.), and the contents of the utterance and the extent of the motion are appropriately adjusted according to the favorability. It should be noted that irrespective of the presence or absence of user behavior and whether or not an approach condition is satisfied, a target user with a high favorable rating may be approached voluntarily.

なお、ユーザ認識部111、顔認識部112、音声認識部113、ユーザ行動認識部114、好感度設定部115、応対制御部116は、単一のコンピュータで各機能を実現してもよいし、各々別個のコンピュータによって各機能を実現してもよい。 The user recognition unit 111, the face recognition unit 112, the voice recognition unit 113, the user action recognition unit 114, the favorability setting unit 115, and the reception control unit 116 may realize their respective functions with a single computer, Each function may be implemented by a separate computer.

記憶部120は、記憶内容が書き換え可能な不揮発性の半導体メモリ、ハードディスクドライブ等を備え、制御部110がロボット100の各部を制御するために必要な各種データを記憶する。記憶部120は、例えば、前述したユーザ行動テーブル、好感度設定テーブル、接近様態決定テーブル等を所定の記憶領域に記憶する。記憶部120は、本発明の記録手段として機能する。 The storage unit 120 includes a rewritable non-volatile semiconductor memory, hard disk drive, etc., and stores various data necessary for the control unit 110 to control each unit of the robot 100 . The storage unit 120 stores, for example, the above-described user behavior table, favorability setting table, approach mode determination table, and the like in a predetermined storage area. The storage unit 120 functions as recording means of the present invention.

また、記憶部120は、各種データをそれぞれ格納する複数のデータベースを有する。記憶部120は、例えば、ユーザ情報DB121、音声認識DB122、対話情報DB123を有する。 The storage unit 120 also has a plurality of databases each storing various data. The storage unit 120 has, for example, a user information DB 121, a speech recognition DB 122, and a conversation information DB 123.

ユーザ情報DB121は、登録ユーザに関する各種情報をユーザ情報として蓄積して記憶する。ユーザ情報は、例えば、ユーザを識別するために予め割り当てられたユーザ識別情報、ユーザの顔の特徴量を示す顔特徴情報、ユーザの音声の特徴量を示す音声特徴情報、所定の期間毎のユーザ行動や好感度ポイント等の履歴情報、現状の好感度等を含む。 The user information DB 121 accumulates and stores various types of information about registered users as user information. The user information includes, for example, user identification information assigned in advance to identify the user, facial feature information indicating the feature amount of the user's face, voice feature information indicating the feature amount of the user's voice, user Includes history information such as actions and favorability points, and current favorability ratings.

音声認識DB122は、音声認識処理に用いられる音声認識データを格納する。音声認識データには、例えば、他の語と意味を区別する音の最小単位である音素の各々の特徴(周波数特性)を表わす音響モデル、音素の特徴と単語とを対応付ける単語辞書、単語の並びとその連接確率を表す言語モデルが含まれる。 The speech recognition DB 122 stores speech recognition data used for speech recognition processing. The speech recognition data includes, for example, an acoustic model representing the characteristics (frequency characteristics) of each phoneme, which is the minimum unit of sound that distinguishes the meaning from other words, a word dictionary that associates the characteristics of the phoneme with words, and a list of words. and a language model representing its concatenation probabilities.

対話情報DB123は、応対制御部116が、ユーザとの対話におけるロボット100の応答及び発話に係る音声データを生成するために必要となる対話情報を格納する。対話情報は、例えば、ユーザの発話に対するロボット100の応答を生成するために用いられる応答情報、ユーザに自発的に話しかける際のロボット100の発話を生成するために用いられる発話情報、ロボット100の応答及び発話の合成音声波形を示す音声データを生成するために用いられる音声合成情報を含む。応答情報は、例えば、ユーザの発話内容を示すテキストデータと、ロボット100の応答内容を示すテキストデータとが対応付けられている。発話情報は、例えば、ロボット100の発話内容を示すテキストデータを含む。また、音声合成情報は、例えば、テキストデータを音声化するために用いられる各音素の音声波形を示す音声データを含む。 The dialogue information DB 123 stores dialogue information necessary for the response control unit 116 to generate voice data relating to responses and utterances of the robot 100 in dialogue with the user. The dialogue information includes, for example, response information used to generate a response of the robot 100 to the user's utterance, utterance information used to generate an utterance of the robot 100 when spontaneously speaking to the user, and the response of the robot 100. and speech synthesis information used to generate speech data representing the synthesized speech waveform of the utterance. As the response information, for example, text data indicating the content of the user's utterance and text data indicating the content of the response of the robot 100 are associated with each other. The utterance information includes, for example, text data indicating the utterance content of the robot 100 . In addition, the speech synthesis information includes, for example, speech data indicating the speech waveform of each phoneme used for voicing text data.

撮像部130は、レンズ、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を備えるカメラで構成され、ロボット100の周囲を撮像する。撮像部130は、例えば頭部102の正面上部に設置され、頭部102の前方を撮像し、デジタル画像データを生成して出力する。カメラは、レンズが向く方向を変えるように動作可能なモータ駆動の架台(ジンバル等)に取り付けられ、ユーザの顔等を追尾することができるように構成される。撮像部130は、本発明の撮像手段として機能する。 The imaging unit 130 is configured by a camera having an imaging device such as a lens, a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like, and images the surroundings of the robot 100 . The imaging unit 130 is installed, for example, in the front upper part of the head 102, images the front of the head 102, and generates and outputs digital image data. The camera is mounted on a motorized mount (such as a gimbal) operable to change the direction in which the lens points, and is configured to be able to track the user's face or the like. The imaging unit 130 functions as imaging means of the present invention.

センサ部140は、ロボット100の外部状態及び内部状態を示す情報(物理量)を取得し、適宜、所定の信号に変換して制御部110に供給する。センサ部140は、例えば、ユーザの接触により受けた圧力を検知するタッチセンサ、ロボット100の加速度を検知する加速度センサ、外部の温度及び湿度を検知する温湿度センサ等の各種センサを有する。タッチセンサは、接触圧力の大きさに応じて、「撫でる」や「叩く」といったユーザの物理的な働きかけを認識するために、例えば、頭部102の上方部に配置される。なお、加速度センサを用いて、互いに直交する3軸方向の加速度から接触強度を検出してもよい。 The sensor unit 140 acquires information (physical quantity) indicating the external state and internal state of the robot 100 , converts it into a predetermined signal as appropriate, and supplies the signal to the control unit 110 . The sensor unit 140 includes various sensors such as a touch sensor that detects pressure received by a user's contact, an acceleration sensor that detects acceleration of the robot 100, and a temperature/humidity sensor that detects external temperature and humidity. A touch sensor is arranged, for example, in the upper part of the head 102 in order to recognize a user's physical action such as "stroking" or "hitting" according to the magnitude of the contact pressure. Note that an acceleration sensor may be used to detect contact strength from acceleration in three mutually orthogonal directions.

移動部150は、ロボット100を移動可能とするための部位である。移動部150は、例えば、ロボット100の左右の足部104の底部にそれぞれ設けられた車輪と、左右の車輪を回転駆動するモータと、モータを駆動制御する駆動回路と、を有する。制御部110から受信した制御信号に従って、駆動回路は、モータに駆動用のパルス信号を供給する。モータは、駆動用のパルス信号に従って、左右の車輪を回転駆動させ、ロボット100を移動させる。このように、移動部150は、本発明の移動手段として機能する。なお、左右の車輪がそれぞれ独立して回転駆動するように構成され、ロボット100が前進、後退、旋回、加減速などの走行が可能であれば、モータの数は任意である。例えば、連結機構や操舵機構を設けるなどして1つのモータで左右の車輪を駆動させてもよい。また、モータの数に合わせて駆動回路の数も適宜変更することができる。 The moving part 150 is a part that enables the robot 100 to move. The moving unit 150 includes, for example, wheels provided on the bottoms of the left and right legs 104 of the robot 100, motors that rotationally drive the left and right wheels, and drive circuits that drive and control the motors. According to the control signal received from the control unit 110, the drive circuit supplies the motor with a pulse signal for driving. The motor rotates the left and right wheels according to the drive pulse signal to move the robot 100 . In this way, the moving section 150 functions as the moving means of the present invention. Any number of motors may be used as long as the left and right wheels are configured to rotate independently and the robot 100 can move forward, backward, turn, accelerate and decelerate. For example, a single motor may drive the left and right wheels by providing a coupling mechanism or a steering mechanism. Also, the number of drive circuits can be appropriately changed according to the number of motors.

動作部160は、制御部110の制御に従って予め定められた動作を行う部位である。動作部160は、頭部102、手部103、足部104等の被駆動部材と、被駆動部材を駆動するアクチュエータ等の駆動部材と、駆動部材を駆動制御する駆動回路と、により構成される。動作部160は、制御部110(応対制御部116)の制御の下、駆動回路から供給された駆動信号に従って駆動部材が被駆動部材を駆動することにより、例えば、手足を動かす動作や頭を上下左右に振る動作を行う。このように、動作部160は、本発明の動作手段として機能する。 The action unit 160 is a part that performs a predetermined action under the control of the control unit 110 . The operating unit 160 includes driven members such as the head 102, hand 103, and foot 104, drive members such as actuators that drive the driven members, and a drive circuit that drives and controls the drive members. . Under the control of the control unit 110 (response control unit 116), the driving member drives the driven member in accordance with the drive signal supplied from the drive circuit. Make a motion to swing left and right. In this way, the operating section 160 functions as operating means of the present invention.

音声入力部170は、複数のマイクで構成されるマイクユニット、A/D(Analog to Digital)変換器等で構成され、例えば頭部102の異なる位置に設置された複数のマイクで集音した音声を増幅し、A/D変換、符号化等の信号処理を施したデジタル音声データ(音声情報)を制御部110に出力する。音声入力部170は、本発明の音声入力手段として機能する。 The voice input unit 170 is composed of a microphone unit composed of a plurality of microphones, an A/D (Analog to Digital) converter, and the like. is amplified, and digital audio data (audio information) subjected to signal processing such as A/D conversion and encoding is output to the control unit 110 . The voice input section 170 functions as voice input means of the present invention.

音声出力部180は、スピーカ、D/A(Digital to Analog)変換器等で構成され、制御部110(応対制御部116)から供給される音声データに復号化、D/A変換、増幅等の信号処理を施し、アナログ音声信号を例えば口部106に設置されたスピーカから出力する。このように、音声出力部180は、本発明の音声出力手段として機能する。 The audio output unit 180 includes a speaker, a D/A (Digital to Analog) converter, etc., and performs decoding, D/A conversion, amplification, etc. on the audio data supplied from the control unit 110 (response control unit 116). After signal processing, an analog audio signal is output from a speaker installed at the mouth 106, for example. Thus, the audio output unit 180 functions as audio output means of the present invention.

次に、図11に示すフローチャートを参照しながら、ロボット100が実行する応対制御処理について説明する。応対制御処理は、ロボット100が好感度に応じた応対様態で対象ユーザと応対するようにロボット100の行動を制御する処理である。制御部110は、ユーザ認識部111がロボット100の周囲に存在するユーザを認識したことを契機に、応対制御処理を開始する。 Next, the response control process executed by the robot 100 will be described with reference to the flowchart shown in FIG. The response control process is a process for controlling the behavior of the robot 100 so that the robot 100 responds to the target user in a mode of response according to the favorable impression. The control unit 110 starts response control processing when the user recognition unit 111 recognizes a user present around the robot 100 .

制御部110は、応対制御処理を開始すると、まず、対象ユーザに対する好感度を設定する(ステップS101)。制御部110(好感度設定部115)は、記憶部120に記憶されたユーザ行動テーブル及び好感度設定テーブルを参照し、好感度ポイントに対応付けられた好感度のレベルを特定することにより、対象ユーザに対する好感度を設定する。なお、好感度設定部115は、ユーザ情報DB121を参照して、対象ユーザのユーザ情報に含まれる予め設定された現状の好感度を取得してもよい。 When starting the reception control process, the control unit 110 first sets the favorability rating for the target user (step S101). The control unit 110 (favorability setting unit 115) refers to the user behavior table and the positivity setting table stored in the storage unit 120, and by specifying the positivity level associated with the positivity point, the target Sets the user's favorability. Note that the positivity setting unit 115 may refer to the user information DB 121 to acquire the preset current positivity included in the user information of the target user.

次に、制御部110は、ロボット100の周囲に対象ユーザが存在するか否かを判定する(ステップS102)。制御部110は、撮像部130が撮像した撮像画像に基づいて、対象ユーザが依然として周囲に存在するか否かを確認する。ロボット100の周囲に対象ユーザが存在しないと判定した場合(ステップS102:NO)、制御部110は、応対制御処理を終了する。 Next, the control unit 110 determines whether or not the target user exists around the robot 100 (step S102). The control unit 110 checks whether or not the target user still exists around based on the captured image captured by the imaging unit 130 . When determining that the target user does not exist around the robot 100 (step S102: NO), the control unit 110 terminates the reception control process.

一方、ロボット100の周囲に対象ユーザが存在すると判定した場合(ステップS102:YES)、制御部110は、ユーザ行動を認識したか否かを判定する(ステップS103)。制御部110(ユーザ行動認識部114)は、例えば、音声認識部113により認識されたユーザの発話内容、センサ部140のタッチセンサにより検出された接触強度等に基づいて、ユーザ行動を新たに認識したか否かに応じて判定する。 On the other hand, when it is determined that the target user exists around the robot 100 (step S102: YES), the control unit 110 determines whether or not the user's behavior has been recognized (step S103). The control unit 110 (user action recognition unit 114) newly recognizes user actions based on, for example, the user's utterance content recognized by the voice recognition unit 113, the contact intensity detected by the touch sensor of the sensor unit 140, and the like. It is determined according to whether or not

ユーザ行動を認識していないと判定した場合(ステップS103:NO)、制御部110は、自発行動を実行するか否かを判定する(ステップS104)。制御部110(応対制御部116)は、例えば、ユーザ行動認識部114がユーザ行動を認識しない時間が、所定時間継続したか否かに応じて判定する。自発行動を実行しないと判定した場合(ステップS104:NO)、制御部110は、処理をステップS102に戻し、対象ユーザが依然として周囲に存在するか否かを確認する。 When determining that the user action is not recognized (step S103: NO), the control unit 110 determines whether or not to execute spontaneous action (step S104). The control unit 110 (response control unit 116) determines, for example, whether or not the time during which the user action recognition unit 114 does not recognize the user action continues for a predetermined period of time. If it is determined not to perform the spontaneous action (step S104: NO), the control unit 110 returns the process to step S102 and confirms whether or not the target user still exists around.

ステップS103において、ユーザ行動を認識したと判定した場合(ステップS103:YES)、制御部110(応対制御部116)は、接近条件を満たすか否かを判定する(ステップS105)。応対制御部116は、例えば、対象ユーザがロボット100を自身の近傍に呼び寄せるための呼びかけの有無に応じて判定する。 If it is determined in step S103 that the user's behavior has been recognized (step S103: YES), the control unit 110 (response control unit 116) determines whether or not the approach condition is satisfied (step S105). The response control unit 116 determines, for example, whether or not the target user calls the robot 100 to his or her vicinity.

ステップS105を実行した後、又は、ステップS104において自発行動を実行すると判定した場合(ステップS104:YES)、制御部110(応対制御部116)は、好感度に応じた応対様態を決定する(ステップS106)。応対制御部116は、ステップS104における判定結果(自発行動を実行するという判定結果)、ステップS105における判定結果(接近条件を満たすか否かの判定結果)に基づいて、好感度に応じた応対様態を決定する。 After executing step S105, or when it is determined to execute a spontaneous action in step S104 (step S104: YES), the control unit 110 (reception control unit 116) determines a reception mode according to the favorability (step S106). The response control unit 116, based on the determination result of step S104 (determination result of executing the spontaneous action) and the determination result of step S105 (determination result of whether or not the approach condition is satisfied), responds according to the favorability. to decide.

ステップS104において自発行動を実行すると判定した場合、応対制御部116は、ステップS101において設定された好感度に応じて、発話内容や動作の程度を適宜調整して、自発行動を実行するための応対様態を決定する。 When it is determined in step S104 that a spontaneous action is to be performed, the response control unit 116 appropriately adjusts the utterance content and the extent of the action according to the favorable rating set in step S101, and prepares a response for performing the spontaneous action. determine the modality.

ステップS105において接近条件を満たさないと判定した場合、応対制御部116は、ステップS103において認識したユーザ行動に対する応答行動を実行するための応対様態を好感度に応じて決定する。 When it is determined in step S105 that the approach condition is not satisfied, the response control unit 116 determines a response mode for executing an action in response to the user action recognized in step S103 according to the favorability.

ステップS105において接近条件を満たすと判定した場合、応対制御部116は、応対様態として、接近対象ユーザに接近中の移動経路及び移動速度、接近終了時の接近対象ユーザとの間の対向距離及びユーザと向き合う接近中又は接近終了時の対向姿勢のうちの少なくとも1つを決定する。 When it is determined in step S105 that the approaching condition is satisfied, the response control unit 116 sets, as the response mode, the moving route and moving speed during approaching the approaching user, the facing distance from the approaching user at the end of the approach, and the user. determine at least one of the facing attitudes during approaching or at the end of approaching facing the

続いて、制御部110は、ステップS106において決定した応対様態に基づいて、各部を制御して各種行動を実行する(ステップS107)。応対制御部116は、ステップS106において、自発行動を実行するための応対様態を好感度に応じて決定した場合、その応対様態に基づいて、各部を制御して自発行動を実行する。自発行動に係る応対様態が、例えば、対象ユーザにロボット100とのコミュニケーションを促す発話である場合、その発話内容を示す音声データを生成し、音声出力部180を制御して、生成した音声データに基づく音声を出力する。 Subsequently, the control unit 110 controls each unit to perform various actions based on the manner of reception determined in step S106 (step S107). When the response control unit 116 determines the response mode for executing the spontaneous action in step S106 according to the favorability rating, the response control unit 116 controls each section based on the response mode to perform the spontaneous action. For example, if the response mode related to the spontaneous action is an utterance that prompts the target user to communicate with the robot 100, voice data indicating the content of the utterance is generated, and the voice output unit 180 is controlled to convert the generated voice data into Outputs audio based on

応対制御部116は、ステップS106において、接近条件を満たさず、ステップS103において認識したユーザ行動に対する応答行動を実行するための応対様態を好感度に応じて決定した場合、その応対様態に基づいて、各部を制御して応答行動を実行する。応答行動に係る応対様態が、例えば、対象ユーザのあいさつに応答する発話である場合、その発話内容を示す音声データを生成し、音声出力部180を制御して、生成した音声データに基づく音声を出力する。 If the response control unit 116 determines in step S106 a response mode for executing a response action to the user behavior recognized in step S103 without satisfying the approach condition, based on the response mode, Each part is controlled to execute a response action. For example, if the response behavior related to the response behavior is an utterance in response to the target user's greeting, voice data indicating the content of the utterance is generated, and the voice output unit 180 is controlled to output voice based on the generated voice data. Output.

応対制御部116は、ステップS106において、接近条件を満たし、接近対象ユーザに接近中の移動経路及び移動速度、接近終了時の接近対象ユーザとの間の対向距離及び接近対象ユーザと向き合う接近中又は接近終了時の対向姿勢のうちの少なくとも1つを決定した場合、その応対様態に基づいて、移動部150、動作部160を制御して接近行動を実行する。 In step S106, the response control unit 116 satisfies the approach condition, determines the moving path and moving speed while approaching the approaching user, the facing distance to the approaching user when the approaching ends, and the approaching or When at least one of the facing attitudes at the end of the approach is determined, based on the manner of response, the moving part 150 and the action part 160 are controlled to execute the approaching action.

ステップS107を実行した後、制御部110は、処理をステップS102に戻し、対象ユーザが依然として周囲に存在するか否かを確認する。 After executing step S107, the control unit 110 returns the process to step S102 and checks whether the target user still exists around.

以上に説明したように、本実施の形態によれば、ロボット100は、ユーザに対する好感度に応じて応対様態を決定し、決定した応対様態に基づいて、各部を制御することにより、各種行動を実行する。例えば、応対制御部116は、予め定められた接近条件を満たす場合、応対様態として、接近対象であるユーザに接近する際の移動経路及び移動速度、接近終了時の接近対象ユーザとの間の対向距離及びユーザと向き合う接近中又は接近終了時の対向姿勢のうちの少なくとも1つを好感度に応じて決定し、決定した応対様態に基づいて接近行動を実行する。これにより、好感度に応じた応対を向上させることができる。 As described above, according to the present embodiment, the robot 100 determines the mode of response according to the user's favorability, and controls each part based on the determined mode of response to perform various actions. Run. For example, when a predetermined approach condition is satisfied, the response control unit 116 sets, as a response mode, the movement path and movement speed when approaching the user who is the approach target, and the facing of the approach target user when the approach ends. At least one of the distance and the attitude toward the user while approaching or at the end of approaching is determined according to the favorability, and the approach action is executed based on the determined manner of handling. Thereby, it is possible to improve the response according to the favorability.

また、ロボット100は、接近条件を満たす場合以外にも、ユーザ行動に対する応答行動に係る応対様態を好感度に応じて決定し、決定した応対様態に基づいて応答行動を実行する。さらに、自発行動に係る応対様態を好感度に応じて決定し、決定された応対様態に基づいて自発行動を実行する。これにより、好感度に応じた応対を向上させることができる。 Also, the robot 100 determines a response mode related to a response action to a user action according to the favorability, and executes the response action based on the determined response mode, even when the approach condition is satisfied. Furthermore, the manner of responding to the spontaneous action is determined according to the favorability, and the spontaneous behavior is executed based on the determined manner of responding. Thereby, it is possible to improve the response according to the favorability.

なお、本発明は、前記の実施の形態に限定されず、種々の変形及び応用が可能である。前記の実施の形態は、次のように変形されてもよい。 The present invention is not limited to the above-described embodiments, and various modifications and applications are possible. The above embodiment may be modified as follows.

前記の実施の形態において、ユーザ認識部111により認識された所定の対象に対する好感度を好感度設定部(好感度取得部)115が設定または取得して、好感度設定部(好感度取得部)115により設定または取得された所定の対象に対する好感度に基づいて、所定の対象への接近中の接近様態を応対制御部(接近制御部)116が決定していた。しかしながら、本発明は、これに限定されず、ユーザ認識部111により認識された所定の対象に対する好感度に基づいて、所定の対象への接近中の接近様態を応対制御部(接近制御部)116が決定してもよい。 In the above-described embodiment, the positivity setting unit (positivity acquisition unit) 115 sets or acquires the positivity for a predetermined target recognized by the user recognition unit 111, and the positivity setting unit (positivity acquisition unit) A response control unit (approach control unit) 116 determines the manner of approaching a predetermined target based on the likability for the predetermined target set or acquired by 115 . However, the present invention is not limited to this. may be determined.

例えば、ユーザ認識部111が、移動経路上において接近対象ユーザとは異なる他のユーザを認識した場合には、好感度設定部115は、他のユーザに対する好感度を設定し、応対制御部116は、他のユーザに対する好感度に応じて、接近対象ユーザの応対様態及び他のユーザの応対様態を決定してもよい。この場合、応対制御部116は、接近対象ユーザの応対様態として決定された移動経路において、他のユーザを避けて通過するための迂回経路(通過経路)を決定する。ここで、接近対象ユーザは、本発明の所定の対象の一例であり、他のユーザは、本発明の他の対象の一例である。 For example, when the user recognition unit 111 recognizes another user different from the user to be approached on the movement route, the liking setting unit 115 sets the liking for the other user, and the reception control unit 116 , the approach target user's response mode and the other user's response mode may be determined according to the favorability of the other user. In this case, the response control unit 116 determines a detour route (passage route) for avoiding other users and passing through the movement route determined as the response mode of the approaching user. Here, the approach target user is an example of the predetermined target of the present invention, and the other user is an example of another target of the present invention.

図12を参照しながら説明すると、応対制御部116は、接近対象ユーザURに接近中の移動経路MR上に、他のユーザUR’が存在する場合、他のユーザUR’を避けて通過するために、迂回経路(通過経路)DRを形成した新たな移動経路MRを決定する。この際、応対制御部116は、他のユーザUR’に対する好感度に応じて迂回経路DRを形成する。応対制御部116は、例えば、他のユーザUR’の好感度が高い場合には、他のユーザUR’のすぐそばを通過するように迂回経路DRを形成し、他のユーザUR’の好感度が低い場合には、他のユーザUR’を大回りして通過する迂回経路DRを形成する。また、応対制御部116は、他のユーザUR’の応対様態として、他のユーザUR’に対する好感度に応じてロボット100が迂回経路DRを通過する際の移動姿勢を決定する。応対制御部116は、移動姿勢として、例えば、他のユーザUR’の好感度が高い場合には、迂回経路DRを通過する際に、ロボット100の頭部102(顔部)の正面方向が他のユーザUR’に向くようにし(ロボット100が他のユーザUR’を見ているようにする)、他のユーザUR’の好感度が低い場合には、迂回経路DRを通過する際に、ロボット100の頭部102(顔部)の正面方向が他のユーザUR’を向かないようにする(そっぽを向くようにする)。これにより、好感度に応じて多様な表現を演出することができ、好感度に応じた応対をさらに向上させることができる。 To explain with reference to FIG. 12, when another user UR' exists on the moving route MR approaching the approaching target user UR, the response control unit 116 avoids the other user UR' when passing through. Then, a new moving route MR is determined that forms a detour route (passing route) DR. At this time, the response control unit 116 forms a detour route DR according to the favorability of the other user UR'. For example, when another user UR' has a high favorable rating, the response control unit 116 forms a detour route DR so as to pass right by the other user UR', thereby increasing the favorable rating of the other user UR'. is low, a detour route DR that goes around the other user UR' is formed. In addition, the response control unit 116 determines the movement posture when the robot 100 passes through the detour route DR, as a mode of response to the other user UR', according to the favorable impression of the other user UR'. As for the movement posture, for example, when the other user UR' has a high favorable rating, the response control unit 116 changes the front direction of the head 102 (face) of the robot 100 when passing the detour route DR. (Robot 100 looks at another user UR'), and if the favorability of another user UR' is low, robot The front direction of the head 102 (face part) of 100 is made not to face another user UR' (to face away). As a result, it is possible to produce various expressions according to the favorable impression, and to further improve the response according to the favorable impression.

前記の実施の形態において、ロボット100が、例えば、無線通信モジュール等を有する通信部を備え、インターネット上に構築されたクラウドシステムを利用して記憶部120が記憶する各種データを記憶し、ロボット100からこれらのデータに適宜アクセスできるようにしてもよい。 In the above-described embodiment, the robot 100 includes a communication unit having, for example, a wireless communication module, etc., and stores various data stored in the storage unit 120 using a cloud system built on the Internet. These data may be appropriately accessed from.

また、ロボット100が、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイ等の表示装置により構成される表示部を備えることにより、ユーザ毎の応対をさらに多様化してもよい。例えば、ロボット100の目部105に表示部を備え、好感度に応じた異なる目を表現する画像を表示することにより、ロボット100の表情を演出するようにしてもよい。 Further, the robot 100 is provided with a display unit configured by a display device such as an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), an organic EL (Electro-Luminescence) display, or the like, so that it is possible to respond to each user. It may be further diversified. For example, the robot 100 may be provided with a display section in the eye section 105, and the facial expression of the robot 100 may be produced by displaying images expressing different eyes according to the favorability.

前記の実施の形態において、制御部110のCPUが実行する制御プログラムは、予めROM等に記憶されていた。しかしながら、本発明は、これに限定されず、前記の各種処理を実行させるための制御プログラムを、既存の汎用コンピュータや、フレームワーク、ワークステーション等の電子機器に実装することにより、前記の実施の形態に係るロボット100に相当する装置として機能させてもよい。 In the embodiment described above, the control program executed by the CPU of the control unit 110 is stored in the ROM or the like in advance. However, the present invention is not limited to this. It may function as a device corresponding to the robot 100 according to the form.

このようなプログラムの提供方法は任意であり、例えば、コンピュータが読取可能な記録媒体(フレキシブルディスク、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM)等に格納して配布してもよいし、インターネット等のネットワーク上のストレージにプログラムを格納しておき、これをダウンロードさせることにより提供してもよい。 The method of providing such a program is arbitrary, and for example, storing and distributing it in a computer-readable recording medium (flexible disc, CD (Compact Disc)-ROM, DVD (Digital Versatile Disc)-ROM), etc. Alternatively, the program may be stored in storage on a network such as the Internet and provided by downloading the program.

また、前記の処理をOS(Operating System)とアプリケーションプログラムとの分担、又は、OSとアプリケーションプログラムとの協働によって実行する場合には、アプリケーションプログラムのみを記録媒体やストレージに格納してもよい。また、搬送波にプログラムを重畳し、ネットワークを介して配信することも可能である。例えば、ネットワーク上の掲示板(Bulletin Board System:BBS)に前記プログラムを掲示し、ネットワークを介してプログラムを配信してもよい。そして、配信されたプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。 Further, when the above-described processing is performed by an OS (Operating System) and an application program, or by cooperation between the OS and an application program, only the application program may be stored in a recording medium or storage. It is also possible to superimpose a program on a carrier wave and distribute it via a network. For example, the program may be posted on a bulletin board system (BBS) on the network and distributed via the network. Then, the distributed program may be activated and executed in the same manner as other application programs under the control of the OS so that the above processing can be executed.

本発明は、本発明の広義の精神と範囲とを逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、前述した実施の形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及び特許請求の範囲と同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。 The present invention is capable of various embodiments and modifications without departing from the broader spirit and scope of the invention. Moreover, the embodiments described above are for explaining the present invention, and do not limit the scope of the present invention. That is, the scope of the present invention is indicated by the claims rather than the embodiments. Various modifications made within the scope of the claims and within the meaning of the invention equivalent to the scope of the claims are considered to be within the scope of the present invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 The invention described in the original claims of the present application is appended below.

(付記)
(付記1)
所定の対象を認識する認識手段と、
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように自装置を制御する制御手段と、
を備える、
ことを特徴とするロボット。
(Appendix)
(Appendix 1)
recognition means for recognizing a predetermined target;
determining means for determining an approaching manner during approaching the predetermined target based on the liking for the predetermined target recognized by the recognizing means;
a control means for controlling the apparatus to express an emotion to the predetermined object according to the approach mode determined by the determining means while the apparatus is approaching the predetermined object;
comprising
A robot characterized by:

(付記2)
前記自装置に移動をさせる移動手段を更に備え、
前記所定の対象への接近中の前記接近様態は、接近経路を含み、
前記制御手段は、前記所定の対象への接近中において、決定された前記接近経路に応じて前記所定の対象に前記感情表現をするように前記移動手段を制御する、
ことを特徴とする付記1に記載のロボット。
(Appendix 2)
further comprising a moving means for moving the own device,
The manner of approach while approaching the predetermined target includes an approach route,
The control means controls the moving means so that the predetermined object expresses the emotion according to the determined approach route while the predetermined object is being approached.
The robot according to appendix 1, characterized by:

(付記3)
前記自装置に動作をさせる動作手段を更に備え、
前記所定の対象への接近中の前記接近様態は、接近姿勢を含み、
前記制御手段は、前記所定の対象への接近中において、決定された前記接近姿勢に応じて前記所定の対象に前記感情表現をするように前記動作手段を制御する、
ことを特徴とする付記1又は2に記載のロボット。
(Appendix 3)
further comprising operation means for causing the self-device to operate;
the manner of approach while approaching the predetermined target includes an approach posture;
The control means controls the action means so that the predetermined object expresses the emotion according to the determined approaching posture while the predetermined object is being approached.
The robot according to appendix 1 or 2, characterized by:

(付記4)
画像を撮像する撮像手段と、
前記撮像手段により撮像された画像から顔を検出して顔認識を行う顔認識手段と、
音声を入力する音声入力手段と、
前記音声入力手段により入力された音声から音声認識をする音声認識手段と、
を更に備え、
前記認識手段は、前記顔認識手段、又は/及び、前記音声認識手段により前記所定の対象を認識する、
ことを特徴とする付記1乃至3の何れか1つに記載のロボット。
(Appendix 4)
an imaging means for imaging an image;
face recognition means for performing face recognition by detecting a face from the image captured by the imaging means;
voice input means for inputting voice;
voice recognition means for performing voice recognition from voice input by the voice input means;
further comprising
the recognition means recognizes the predetermined target by the face recognition means and/or the voice recognition means;
4. The robot according to any one of Appendices 1 to 3, characterized by:

(付記5)
前記認識手段により認識された前記所定の対象に対する前記好感度を取得する取得手段と、
前記自装置に対する前記所定の対象の行動を認識する行動認識手段と、
を更に備え、
前記取得手段は、前記行動認識手段により認識された前記所定の対象の行動に応じて、前記好感度を取得する、
ことを特徴とする付記1乃至4の何れか1つに記載のロボット。
(Appendix 5)
acquisition means for acquiring the favorable rating for the predetermined target recognized by the recognition means;
Action recognition means for recognizing the action of the predetermined target with respect to the own device;
further comprising
The acquisition means acquires the favorable rating according to the behavior of the predetermined target recognized by the behavior recognition means.
5. The robot according to any one of Appendices 1 to 4, characterized by:

(付記6)
前記取得手段は、
前記行動認識手段により認識された前記所定の対象の行動が、好意的な行動である場合には現状の好感度よりも前記好感度の度合いを上げ、前記好意的な行動でない場合には、前記現状の好感度よりも前記好感度の度合いを下げる、
ことを特徴とする付記5に記載のロボット。
(Appendix 6)
The acquisition means is
If the action of the predetermined target recognized by the action recognition means is a favorable action, the degree of favorable rating is increased from the current favorable rating, and if the action is not favorable, the lowering the degree of favorability below the current favorability,
The robot according to appendix 5, characterized by:

(付記7)
情報を記録する記録手段を更に備え、
前記記録手段は、
前記行動認識手段により認識された前記所定の対象の行動が、前記好意的な行動である場合には前記好感度を閾値よりも高く記録し、前記好意的な行動でない場合には、前記好感度を前記閾値よりも低く記録し、
前記取得手段は、前記記録手段を介して前記所定の対象の前記好感度を取得する、
ことを特徴とする付記6に記載のロボット。
(Appendix 7)
Further comprising recording means for recording information,
The recording means
When the behavior of the predetermined target recognized by the behavior recognition means is the favorable behavior, the favorable rating is recorded higher than a threshold, and when the behavior is not favorable, the favorable rating is recorded. is recorded below the threshold,
The acquisition means acquires the favorable impression of the predetermined target via the recording means.
The robot according to appendix 6, characterized by:

(付記8)
前記行動認識手段は、
前記所定の対象によって前記自装置が撫でられた場合、又は、前記所定の対象によって前記自装置が話しかけられた場合、前記所定の対象の行動が、前記好意的な行動であると認識し、
前記所定の対象によって前記自装置が叩かれた場合、又は、前記所定の対象によって前記自装置が無視された場合、前記所定の対象の行動が、前記好意的な行動でないと認識する、
ことを特徴とする付記6又は7に記載のロボット。
(Appendix 8)
The action recognition means is
when the device is stroked by the predetermined object, or when the device is spoken to by the predetermined object, recognizing that the behavior of the predetermined object is the favorable behavior;
When the device is hit by the predetermined target, or when the device is ignored by the predetermined target, the behavior of the predetermined target is recognized as not the favorable behavior.
The robot according to appendix 6 or 7, characterized by:

(付記9)
前記制御手段は、前記所定の対象への接近中の前記接近様態として、前記自装置が前記所定の対象に接近する場合の接近経路、接近速度、対向角度、接近姿勢を前記好感度に基づいて決定する、
ことを特徴とする付記1に記載のロボット。
(Appendix 9)
The control means determines, as the manner of approach during approach to the predetermined object, an approach route, an approach speed, an opposing angle, and an approach attitude when the self-apparatus approaches the predetermined object based on the favorability. decide,
The robot according to appendix 1, characterized by:

(付記10)
前記制御手段は、前記所定の対象への接近中において、
前記好感度が閾値よりも高い場合、直線的な第1の接近経路で、第1の接近速度で、前記所定の対象と正面から向き合うような第1の接近姿勢に対応する第1の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、蛇行する第2の接近経路で、前記第1の接近速度よりも遅い第2の接近速度で、前記所定の対象と正面から向き合わないような第2の接近姿勢に対応する第2の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御する、
ことを特徴とする付記9に記載のロボット。
(Appendix 10)
While the control means is approaching the predetermined target,
When the favorability is higher than a threshold, a first approach angle corresponding to a first approach posture facing the predetermined target head-on on a straight first approach path at a first approach speed. and controlling the self-device so that the self-device approaches the predetermined target,
When the favorability is lower than the threshold value, a meandering second approach route, a second approach speed slower than the first approach speed, and a second approach speed that does not face the predetermined target head-on. controlling the self-device so that the self-device approaches the predetermined target at a second facing angle corresponding to the approach posture;
The robot according to appendix 9, characterized by:

(付記11)
前記制御手段は、前記所定の対象への接近中において、前記感情表現として、
前記好感度が閾値よりも高い場合、前記所定の対象に好意的な動作又は優先的な動作をするように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、前記所定の対象に好意的でない動作又は優先的でない動作をするように前記自装置を制御する、
ことを特徴とする付記1に記載のロボット。
(Appendix 11)
The control means, while approaching the predetermined object, as the emotional expression,
controlling the self-device to perform a favorable action or a preferential action for the predetermined target when the favorability is higher than a threshold;
If the favorable impression is lower than the threshold, controlling the own device to perform an action that is not favorable or preferential to the predetermined target;
The robot according to appendix 1, characterized by:

(付記12)
前記制御手段は、前記所定の対象への接近中において、前記好感度に応じて前記所定の対象に対する前記好意的な動作の程度又は前記優先的な動作の程度を変更する、
ことを特徴とする付記11に記載のロボット。
(Appendix 12)
The control means, while approaching the predetermined target, changes the degree of the favorable action or the degree of the preferential action with respect to the predetermined target according to the likability.
The robot according to appendix 11, characterized by:

(付記13)
前記制御手段は、前記所定の対象への接近中において、前記好感度に応じて前記所定の対象に対する前記好意的でない動作の程度又は前記優先的でない動作の程度を変更する、
ことを特徴とする付記11又は12に記載のロボット。
(Appendix 13)
The control means, while approaching the predetermined target, changes the degree of the unfavorable action or the degree of the non-preferential action with respect to the predetermined target according to the likability.
13. The robot according to appendix 11 or 12, characterized by:

(付記14)
前記所定の対象は、人又は動物又は他のロボットを含む、
ことを特徴とする付記1乃至13の何れか1つに記載のロボット。
(Appendix 14)
the predetermined target includes a human or animal or other robot;
14. The robot according to any one of appendices 1 to 13, characterized by:

(付記15)
前記所定の対象への接近中において、前記認識手段が、前記所定の対象とは異なる他の対象を認識した場合、
前記決定手段は、前記認識手段により認識された前記他の対象に対する他の好感度に基づいて、前記他の対象に対する通過中の通過様態を決定して、
前記制御手段は、前記他の対象への通過中において、前記決定手段により決定された前記通過様態に応じて前記他の対象に他の感情表現をするように前記自装置を制御する、
ことを特徴とする付記1に記載のロボット。
(Appendix 15)
When the recognition means recognizes another target different from the predetermined target while approaching the predetermined target,
The determining means determines a passing mode during passage for the other object based on the other favorable impression of the other object recognized by the recognizing means,
The control means controls the own device to express another emotion to the other object in accordance with the passage mode determined by the determination means during passage to the other object.
The robot according to appendix 1, characterized by:

(付記16)
前記制御手段は、
前記他の対象への前記通過様態として、前記他の対象を避けて通過するための通過経路を決定する、
ことを特徴とする付記15に記載のロボット。
(Appendix 16)
The control means is
Determining a passage route for avoiding the other object and passing through the other object as the passage mode to the other object;
16. The robot according to appendix 15, characterized by:

(付記17)
前記制御手段は、
前記他の対象への前記通過様態として、前記通過経路を通過する場合の通過姿勢を決定する、
ことを特徴とする付記16に記載のロボット。
(Appendix 17)
The control means is
Determining a passing posture when passing through the passing route as the passing manner to the other object;
The robot according to appendix 16, characterized by:

(付記18)
前記他の対象は、人又は動物又は他のロボットを含む、
ことを特徴とする付記15乃至17の何れか1つに記載のロボット。
(Appendix 18)
said other subject comprises a human or animal or other robot;
18. The robot according to any one of appendices 15 to 17, characterized in that:

(付記19)
所定の対象を認識する認識ステップと、
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定ステップと、
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするようにロボットを制御する制御ステップと、
を含む、
ことを特徴とするロボットの制御方法。
(Appendix 19)
a recognition step of recognizing a predetermined target;
a determination step of determining an approach mode during approach to the predetermined target based on the likability of the predetermined target recognized in the recognition step;
a control step of controlling the robot to express an emotion toward the predetermined object according to the manner of approach determined in the determining step while the robot is approaching the predetermined object;
including,
A robot control method characterized by:

(付記20)
ロボットのコンピュータに、
所定の対象を認識する認識処理と、
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定処理と、
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
を実行させる、
ことを特徴とするプログラム。
(Appendix 20)
to the robot's computer
a recognition process for recognizing a predetermined target;
a determination process of determining an approach state during approach to the predetermined target based on the likability for the predetermined target recognized by the recognition process;
a control process for controlling the robot to express an emotion toward the predetermined target according to the approach mode determined by the determination process while the robot is approaching the predetermined target;
to run
A program characterized by

100…ロボット、101…胴体部、102…頭部、103…手部、104…足部、105…目部、106…口部、110…制御部、111…ユーザ認識部、112…顔認識部、113…音声認識部、114…ユーザ行動認識部、115…好感度設定部(好感度取得部)、116…応対制御部(接近制御部)、120…記憶部、121…ユーザ情報DB、122…音声認識DB、123…対話情報DB、130…撮像部、140…センサ部、150…移動部、160…動作部、170…音声入力部、180…音声出力部、BL…バスライン、DR…迂回経路(通過経路)、MR…移動経路(接近経路)、RD…正面方向、UD…正面方向、UR…接近対象ユーザ(所定の対象)、UR’…他のユーザ(他の対象) DESCRIPTION OF SYMBOLS 100... Robot, 101... Body part, 102... Head, 103... Hand part, 104... Foot part, 105... Eye part, 106... Mouth part, 110... Control part, 111... User recognition part, 112... Face recognition part , 113... Voice recognition unit, 114... User action recognition unit, 115... Favorability setting unit (favorability acquisition unit), 116... Response control unit (approach control unit), 120... Storage unit, 121... User information DB, 122 Voice recognition DB 123 Dialogue information DB 130 Imaging unit 140 Sensor unit 150 Moving unit 160 Operating unit 170 Voice input unit 180 Voice output unit BL Bus line DR detour route (passing route), MR...moving route (approaching route), RD...front direction, UD...front direction, UR...approaching user (predetermined target), UR'...other user (other target)

Claims (22)

所定の対象を認識する認識手段と、
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態として、自装置が前記所定の対象に接近する場合の接近経路、接近速度、対向角度、接近姿勢を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように前記自装置を制御する制御手段と、
を備え
前記制御手段は、
前記好感度が閾値よりも高い場合、直線的な第1の接近経路で、第1の接近速度で、前記所定の対象と正面から向き合うような第1の接近姿勢に対応する第1の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、蛇行する第2の接近経路で、前記第1の接近速度よりも遅い第2の接近速度で、前記所定の対象と正面から向き合わないような第2の接近姿勢に対応する第2の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御する、
ことを特徴とするロボット。
recognition means for recognizing a predetermined target;
Based on the likability of the predetermined target recognized by the recognition means, as an approach mode during approaching the predetermined target, an approach route, an approach speed, and an opposing direction when the device approaches the predetermined target. Determining means for determining the angle and approach attitude ;
a control means for controlling the self -apparatus to express an emotion toward the predetermined object according to the manner of approach determined by the determination means while the apparatus is approaching the predetermined object;
with
The control means is
When the favorability is higher than a threshold, a first approach angle corresponding to a first approach posture facing the predetermined target head-on on a straight first approach path at a first approach speed. and controlling the self-device so that the self-device approaches the predetermined target,
When the favorability is lower than the threshold value, a meandering second approach route, a second approach speed slower than the first approach speed, and a second approach speed that does not face the predetermined target head-on. controlling the self-device so that the self-device approaches the predetermined target at a second facing angle corresponding to the approach posture;
A robot characterized by:
前記自装置に移動をさせる移動手段を更に備えたことを特徴とする請求項1に記載のロボット。 2. The robot according to claim 1, further comprising moving means for moving said own device. 前記自装置に動作をさせる動作手段を更に備えたことを特徴とする請求項1又は2に記載のロボット。 3. The robot according to claim 1, further comprising operating means for causing said own device to operate. 画像を撮像する撮像手段と、
前記撮像手段により撮像された画像から顔を検出して顔認識を行う顔認識手段と、
音声を入力する音声入力手段と、
前記音声入力手段により入力された音声から音声認識をする音声認識手段と、
を更に備え、
前記認識手段は、前記顔認識手段、又は/及び、前記音声認識手段により前記所定の対象を認識する、
ことを特徴とする請求項1乃至3の何れか1項に記載のロボット。
an imaging means for imaging an image;
face recognition means for performing face recognition by detecting a face from the image captured by the imaging means;
voice input means for inputting voice;
voice recognition means for performing voice recognition from voice input by the voice input means;
further comprising
the recognition means recognizes the predetermined target by the face recognition means and/or the voice recognition means;
4. The robot according to any one of claims 1 to 3, characterized in that:
前記認識手段により認識された前記所定の対象に対する前記好感度を取得する取得手段と、
前記自装置に対する前記所定の対象の行動を認識する行動認識手段と、
を更に備え、
前記取得手段は、前記行動認識手段により認識された前記所定の対象の行動に応じて、前記好感度を取得する、
ことを特徴とする請求項1乃至4の何れか1項に記載のロボット。
acquisition means for acquiring the favorable rating for the predetermined target recognized by the recognition means;
Action recognition means for recognizing the action of the predetermined target with respect to the own device;
further comprising
The acquisition means acquires the favorable rating according to the behavior of the predetermined target recognized by the behavior recognition means.
5. The robot according to any one of claims 1 to 4, characterized in that:
前記取得手段は、
前記行動認識手段により認識された前記所定の対象の行動が、好意的な行動である場合には現状の好感度よりも前記好感度の度合いを上げ、前記好意的な行動でない場合には、前記現状の好感度よりも前記好感度の度合いを下げる、
ことを特徴とする請求項5に記載のロボット。
The acquisition means is
If the action of the predetermined target recognized by the action recognition means is a favorable action, the degree of favorable rating is increased from the current favorable rating, and if the action is not favorable, the lowering the degree of favorability below the current favorability,
6. The robot according to claim 5, characterized in that:
情報を記録する記録手段を更に備え、
前記記録手段は、
前記行動認識手段により認識された前記所定の対象の行動が、前記好意的な行動である場合には前記好感度を閾値よりも高く記録し、前記好意的な行動でない場合には、前記好感度を前記閾値よりも低く記録し、
前記取得手段は、前記記録手段を介して前記所定の対象の前記好感度を取得する、
ことを特徴とする請求項6に記載のロボット。
Further comprising recording means for recording information,
The recording means
When the behavior of the predetermined target recognized by the behavior recognition means is the favorable behavior, the favorable rating is recorded higher than a threshold, and when the behavior is not favorable, the favorable rating is recorded. is recorded below the threshold,
The acquisition means acquires the favorable impression of the predetermined target via the recording means.
7. The robot according to claim 6, characterized by:
前記行動認識手段は、
前記所定の対象によって前記自装置が撫でられた場合、又は、前記所定の対象によって前記自装置が話しかけられた場合、前記所定の対象の行動が、前記好意的な行動であると認識し、
前記所定の対象によって前記自装置が叩かれた場合、又は、前記所定の対象によって前記自装置が無視された場合、前記所定の対象の行動が、前記好意的な行動でないと認識する、
ことを特徴とする請求項6又は7に記載のロボット。
The action recognition means is
when the device is stroked by the predetermined object, or when the device is spoken to by the predetermined object, recognizing that the behavior of the predetermined object is the favorable behavior;
When the device is hit by the predetermined target, or when the device is ignored by the predetermined target, the behavior of the predetermined target is recognized as not the favorable behavior.
8. The robot according to claim 6 or 7, characterized in that:
所定の対象を認識する認識手段と、
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように自装置を制御する制御手段と、
を備え、
前記制御手段は、前記所定の対象への接近中において、前記感情表現として、
前記好感度が閾値よりも高い場合、前記所定の対象に好意的な動作をするように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、前記所定の対象に好意的でない動作をするように前記自装置を制御する、
ことを特徴とするロボット。
recognition means for recognizing a predetermined target;
determining means for determining an approaching manner during approaching the predetermined target based on the liking for the predetermined target recognized by the recognizing means;
a control means for controlling the apparatus to express an emotion to the predetermined object according to the approach mode determined by the determining means while the apparatus is approaching the predetermined object;
with
The control means, while approaching the predetermined object, as the emotional expression,
controlling the self-device to perform a favorable action toward the predetermined target when the favorability is higher than a threshold;
controlling the self-device to perform an action unfavorable to the predetermined target when the favorability is lower than the threshold;
A robot characterized by:
前記制御手段は、前記所定の対象への接近中において、前記好感度に応じて前記所定の対象に対する前記好意的な動作の程度を変更する、
ことを特徴とする請求項に記載のロボット。
The control means, while approaching the predetermined target, changes the degree of the favorable action with respect to the predetermined target according to the likability.
10. The robot according to claim 9 , characterized by:
前記制御手段は、前記所定の対象への接近中において、前記好感度に応じて前記所定の対象に対する前記好意的でない動作の程度を変更する、
ことを特徴とする請求項又は10に記載のロボット。
The control means, while approaching the predetermined target, changes the degree of the unfavorable action toward the predetermined target according to the favorable sensitivity.
11. The robot according to claim 9 or 10 , characterized in that:
前記所定の対象は、人又は動物又は他のロボットを含む、
ことを特徴とする請求項1乃至11の何れか1項に記載のロボット。
the predetermined target includes a human or animal or other robot;
12. The robot according to any one of claims 1 to 11 , characterized in that:
所定の対象を認識する認識手段と、
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように自装置を制御する制御手段と、
を備え、
前記所定の対象への接近中において、前記認識手段が、前記所定の対象とは異なる他の対象を認識した場合、
前記決定手段は、前記認識手段により認識された前記他の対象に対する他の好感度に基づいて、前記他の対象に対する通過中の通過様態を決定して、
前記制御手段は、前記他の対象への通過中において、前記決定手段により決定された前記通過様態に応じて前記他の対象に他の感情表現をするように前記自装置を制御する、
ことを特徴とするロボット。
recognition means for recognizing a predetermined target;
determining means for determining an approaching manner during approaching the predetermined target based on the liking for the predetermined target recognized by the recognizing means;
a control means for controlling the apparatus to express an emotion to the predetermined object according to the approach mode determined by the determining means while the apparatus is approaching the predetermined object;
with
When the recognition means recognizes another target different from the predetermined target while approaching the predetermined target,
The determining means determines a passing mode during passage for the other object based on the other favorable impression of the other object recognized by the recognizing means,
The control means controls the own device to express another emotion to the other object in accordance with the passage mode determined by the determination means during passage to the other object.
A robot characterized by:
前記制御手段は、
前記他の対象への前記通過様態として、前記他の対象を避けて通過するための通過経路を決定する、
ことを特徴とする請求項13に記載のロボット。
The control means is
Determining a passage route for avoiding the other object and passing through the other object as the passage mode to the other object;
14. The robot according to claim 13 , characterized by:
前記制御手段は、
前記他の対象への前記通過様態として、前記通過経路を通過する場合の通過姿勢を決定する、
ことを特徴とする請求項14に記載のロボット。
The control means is
Determining a passing posture when passing through the passing route as the passing manner to the other object;
15. The robot according to claim 14 , characterized by:
前記他の対象は、人又は動物又は他のロボットを含む、
ことを特徴とする請求項13乃至15の何れか1項に記載のロボット。
said other subject comprises a human or animal or other robot;
16. The robot according to any one of claims 13 to 15 , characterized in that:
所定の対象を認識する認識ステップと、
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中のロボットの接近様態として、前記ロボットが前記所定の対象に接近する場合の接近経路、接近速度、対向角度、接近姿勢を決定する決定ステップと、
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするように前記ロボットを制御する制御ステップと、を含
前記制御ステップにおいて、
前記好感度が閾値よりも高い場合、直線的な第1の接近経路で、第1の接近速度で、前記所定の対象と正面から向き合うような第1の接近姿勢に対応する第1の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御して、
前記好感度が前記閾値よりも低い場合、蛇行する第2の接近経路で、前記第1の接近速度よりも遅い第2の接近速度で、前記所定の対象と正面から向き合わないような第2の接近姿勢に対応する第2の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御する、
ことを特徴とするロボットの制御方法。
a recognition step of recognizing a predetermined target;
An approach path and an approach speed when the robot approaches the predetermined object as an approach mode of the robot that is approaching the predetermined object, based on the likability for the predetermined object recognized in the recognition step , the facing angle and the approaching attitude ;
a control step of controlling the robot to express an emotion toward the predetermined object according to the manner of approach determined in the determining step while the robot is approaching the predetermined object;
In the control step,
When the favorability is higher than a threshold, a first approach angle corresponding to a first approach posture facing the predetermined target head-on on a straight first approach path at a first approach speed. and controlling the robot so that the robot approaches the predetermined target,
When the favorability is lower than the threshold value, a meandering second approach route, a second approach speed slower than the first approach speed, and a second approach speed that does not face the predetermined target head-on. controlling the robot so that the robot approaches the predetermined target at a second facing angle corresponding to the approach posture;
A robot control method characterized by:
所定の対象を認識する認識ステップと、 a recognition step of recognizing a predetermined target;
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定ステップと、 a determination step of determining an approach mode during approach to the predetermined target based on the likability of the predetermined target recognized in the recognition step;
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするようにロボットを制御する制御ステップと、を含み、 a control step of controlling the robot to express an emotion toward the predetermined object according to the manner of approach determined in the determining step while the robot is approaching the predetermined object;
前記制御ステップでは、前記所定の対象への接近中において、前記感情表現として、 In the control step, during the approach to the predetermined target, as the emotional expression,
前記好感度が閾値よりも高い場合、前記所定の対象に好意的な動作をするように前記ロボットを制御して、 controlling the robot to perform a favorable action toward the predetermined target when the favorable rating is higher than a threshold;
前記好感度が前記閾値よりも低い場合、前記所定の対象に好意的でない動作をするように前記ロボットを制御する、 controlling the robot to perform an unfavorable action toward the predetermined target when the favorable rating is lower than the threshold;
ことを特徴とするロボットの制御方法。A robot control method characterized by:
所定の対象を認識する認識ステップと、 a recognition step of recognizing a predetermined target;
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定ステップと、 a determination step of determining an approach mode during approach to the predetermined target based on the likability of the predetermined target recognized in the recognition step;
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするようにロボットを制御する制御ステップと、を含み、 a control step of controlling the robot to express an emotion toward the predetermined object according to the manner of approach determined in the determining step while the robot is approaching the predetermined object;
前記所定の対象への接近中において、前記所定の対象とは異なる他の対象が認識された場合、 When another target different from the predetermined target is recognized while approaching the predetermined target,
認識された前記他の対象に対する他の好感度に基づいて、前記他の対象に対する通過中の通過様態を決定して、 Determining a transit mode during transit for the other object based on the perceived other likability for the other object,
前記他の対象への通過中において、決定された前記通過様態に応じて前記他の対象に他の感情表現をするように前記ロボットを制御する、 controlling the robot to express another emotion to the other object in accordance with the determined passage mode during the passage to the other object;
ことを特徴とするロボットの制御方法。A robot control method characterized by:
ロボットのコンピュータに、
所定の対象を認識する認識処理と、
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態として、前記ロボットが前記所定の対象に接近する場合の接近経路、接近速度、対向角度、接近姿勢を決定する決定処理と、
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
を実行させ
前記制御処理において、
前記好感度が閾値よりも高い場合、直線的な第1の接近経路で、第1の接近速度で、前記所定の対象と正面から向き合うような第1の接近姿勢に対応する第1の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御して、
前記好感度が前記閾値よりも低い場合、蛇行する第2の接近経路で、前記第1の接近速度よりも遅い第2の接近速度で、前記所定の対象と正面から向き合わないような第2の接近姿勢に対応する第2の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御する、
ことを特徴とするプログラム。
to the robot's computer
a recognition process for recognizing a predetermined target;
Based on the likability for the predetermined object recognized by the recognition process, as an approach mode during approaching the predetermined object, an approach route, an approach speed, and an opposing position when the robot approaches the predetermined object. determination processing for determining an angle and an approach posture ;
a control process for controlling the robot to express an emotion toward the predetermined target according to the approach mode determined by the determination process while the robot is approaching the predetermined target;
and
In the control process,
When the favorability is higher than a threshold, a first approach angle corresponding to a first approach posture facing the predetermined target head-on on a straight first approach path at a first approach speed. and controlling the robot so that the robot approaches the predetermined target,
When the favorability is lower than the threshold value, a meandering second approach route, a second approach speed slower than the first approach speed, and a second approach speed that does not face the predetermined target head-on. controlling the robot so that the robot approaches the predetermined target at a second facing angle corresponding to the approach posture ;
A program characterized by
ロボットのコンピュータに、 to the robot's computer
所定の対象を認識する認識処理と、 a recognition process for recognizing a predetermined target;
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定処理と、 a determination process of determining an approach state during approach to the predetermined target based on the likability for the predetermined target recognized by the recognition process;
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、 a control process for controlling the robot to express an emotion toward the predetermined target according to the approach mode determined by the determination process while the robot is approaching the predetermined target;
を実行させ、and
前記制御処理では、前記所定の対象への接近中において、前記感情表現として、 In the control process, during the approach to the predetermined object, as the emotional expression,
前記好感度が閾値よりも高い場合、前記所定の対象に好意的な動作をするように前記ロボットを制御して、 controlling the robot to perform a favorable action toward the predetermined target when the favorable rating is higher than a threshold;
前記好感度が前記閾値よりも低い場合、前記所定の対象に好意的でない動作をするように前記ロボットを制御する、 controlling the robot to perform an unfavorable action toward the predetermined target when the favorable rating is lower than the threshold;
ことを特徴とするプログラム。A program characterized by
ロボットのコンピュータに、 to the robot's computer
所定の対象を認識する認識処理と、 a recognition process for recognizing a predetermined target;
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定処理と、 a determination process of determining an approach state during approach to the predetermined target based on the likability for the predetermined target recognized by the recognition process;
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、 a control process for controlling the robot to express an emotion toward the predetermined target according to the approach mode determined by the determination process while the robot is approaching the predetermined target;
を実行させ、and
前記所定の対象への接近中において、前記所定の対象とは異なる他の対象が認識された場合、 When another target different from the predetermined target is recognized while approaching the predetermined target,
認識された前記他の対象に対する他の好感度に基づいて、前記他の対象に対する通過中の通過様態を決定して、 Determining a transit mode during transit for the other object based on the perceived other likability for the other object,
前記他の対象への通過中において、決定された前記通過様態に応じて前記他の対象に他の感情表現をするように前記ロボットを制御する、 controlling the robot to express another emotion to the other object in accordance with the determined passage mode during the passage to the other object;
ことを特徴とするプログラム。A program characterized by
JP2018118480A 2018-06-22 2018-06-22 Robot, robot control method and program Active JP7180139B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018118480A JP7180139B2 (en) 2018-06-22 2018-06-22 Robot, robot control method and program
JP2022180696A JP7476941B2 (en) 2018-06-22 2022-11-11 ROBOT, ROBOT CONTROL METHOD AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018118480A JP7180139B2 (en) 2018-06-22 2018-06-22 Robot, robot control method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022180696A Division JP7476941B2 (en) 2018-06-22 2022-11-11 ROBOT, ROBOT CONTROL METHOD AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2019217122A JP2019217122A (en) 2019-12-26
JP7180139B2 true JP7180139B2 (en) 2022-11-30

Family

ID=69094786

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018118480A Active JP7180139B2 (en) 2018-06-22 2018-06-22 Robot, robot control method and program
JP2022180696A Active JP7476941B2 (en) 2018-06-22 2022-11-11 ROBOT, ROBOT CONTROL METHOD AND PROGRAM

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022180696A Active JP7476941B2 (en) 2018-06-22 2022-11-11 ROBOT, ROBOT CONTROL METHOD AND PROGRAM

Country Status (1)

Country Link
JP (2) JP7180139B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7442341B2 (en) * 2020-02-28 2024-03-04 株式会社国際電気通信基礎技術研究所 Robot, robot control program and robot control method
JP7431149B2 (en) 2020-12-17 2024-02-14 トヨタ自動車株式会社 mobile system
JP2023049116A (en) 2021-09-29 2023-04-10 カシオ計算機株式会社 Robot, robot control method, and program
JP2023141463A (en) 2022-03-24 2023-10-05 カシオ計算機株式会社 Device control unit, device control method, and program
JP2024076459A (en) 2022-11-25 2024-06-06 カシオ計算機株式会社 Operation control device, operation control method, and program
CN117708305B (en) * 2024-02-05 2024-04-30 天津英信科技有限公司 Dialogue processing method and system for response robot

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000326274A (en) 1999-05-24 2000-11-28 Nec Corp Acting robot
JP2004042246A (en) 2002-05-17 2004-02-12 Victor Co Of Japan Ltd Moving robot
JP2004114285A (en) 2002-09-02 2004-04-15 Sony Corp Robotic device and its behavior control method
JP2005084789A (en) 2003-09-05 2005-03-31 Advanced Telecommunication Research Institute International Personal computer
JP2017226044A (en) 2016-06-23 2017-12-28 カシオ計算機株式会社 Robot, control method, and program of the robot

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000326274A (en) 1999-05-24 2000-11-28 Nec Corp Acting robot
JP2004042246A (en) 2002-05-17 2004-02-12 Victor Co Of Japan Ltd Moving robot
JP2004114285A (en) 2002-09-02 2004-04-15 Sony Corp Robotic device and its behavior control method
JP2005084789A (en) 2003-09-05 2005-03-31 Advanced Telecommunication Research Institute International Personal computer
JP2017226044A (en) 2016-06-23 2017-12-28 カシオ計算機株式会社 Robot, control method, and program of the robot

Also Published As

Publication number Publication date
JP2023027060A (en) 2023-03-01
JP2019217122A (en) 2019-12-26
JP7476941B2 (en) 2024-05-01

Similar Documents

Publication Publication Date Title
JP7180139B2 (en) Robot, robot control method and program
JP7173031B2 (en) Information processing device, information processing method, and program
JP7416295B2 (en) Robots, dialogue systems, information processing methods and programs
JP2020151070A (en) Robot and control method of robot
US20190295526A1 (en) Dialogue control device, dialogue system, dialogue control method, and recording medium
WO2024054714A1 (en) Avatar representation and audio generation
JP7156300B2 (en) Information processing device, information processing method, and program
JP7435641B2 (en) Control device, robot, control method and program
JP6972526B2 (en) Content providing device, content providing method, and program
JP7425681B2 (en) Social ability generation device, social ability generation method, and communication robot
US20240078732A1 (en) Avatar facial expressions based on semantical context
WO2024190616A1 (en) Action control system and program
WO2023017745A1 (en) Communication robot, communication robot control method, and program
WO2024195570A1 (en) Action control system, information presentation system, program, and robot
JP2024155805A (en) Electronics
JP2024155785A (en) Electronics
JP2024155799A (en) Electronics
JP2024155782A (en) Electronics
JP2024155786A (en) Electronics
JP2024155820A (en) Electronics
JP2024155851A (en) Electronics
JP2024155809A (en) Behavior Control System
JP2024155861A (en) Electronics
JP2024155774A (en) Electronics
JP2024155854A (en) Electronics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221031

R150 Certificate of patent or registration of utility model

Ref document number: 7180139

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150