[go: nahoru, domu]

JP2001160021A - Communication system in virtual space - Google Patents

Communication system in virtual space

Info

Publication number
JP2001160021A
JP2001160021A JP34491999A JP34491999A JP2001160021A JP 2001160021 A JP2001160021 A JP 2001160021A JP 34491999 A JP34491999 A JP 34491999A JP 34491999 A JP34491999 A JP 34491999A JP 2001160021 A JP2001160021 A JP 2001160021A
Authority
JP
Japan
Prior art keywords
avatar
user
virtual space
client
conversation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP34491999A
Other languages
Japanese (ja)
Inventor
Hiroki Tsukahara
広樹 束原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP34491999A priority Critical patent/JP2001160021A/en
Publication of JP2001160021A publication Critical patent/JP2001160021A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a communication system in a virtual space, capable of appropriately communicating the feeling of the sender of a message to the opposite user with so much presence in the same way as in actual conversation. SOLUTION: Plural users perform access to a shared virtual space 1 by each client 2a-2n and holds conversation with a chat message by avatars 3a-3n in a shared virtual space 1. When an averter managing server 5 detects a character string, 'Hello' in the chat message from the speaker user, the avatar of the listener user is allowed to make a bow. When it is decided that a user, whose keying speed of the client is beyond a prescribed value is in an excited conversational state, light-shaped display around the avatar, is operated. When it is judged that the user is bored after the lapse of a prescribed time since the stop of the operation of the client, the avatar is allowed to yawn. Thus, the user can confirm the feeling or mental and physical action states of the opposite user through the display which accompanying presence, and make a conversation under the consideration of the feeling or mental and physical action states of the opposite-side user.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、仮想空間において
ユーザのアバタを利用して行う通信システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a communication system that utilizes a user's avatar in a virtual space.

【0002】[0002]

【従来の技術】所定のユーザの間でネットワークを利用
して、相手のメールボックスに、メッセージやデータを
送信することにより、情報交換を行う電子メールや、ネ
ットワークに現在接続中のユーザの間で、リアルタイム
にキーボードの操作によるメッセージの交換により会話
を行うチャットなどの文字をベースにしたコミュニケー
ションが広く行われている。この場合、互いの表情が見
えないネットワークを介しての情報交換において、相手
ユーザに伝送するメッセージに、微妙な気分や感情を込
めるために、各種の記号や文字で構成されるフェースマ
ーク(facemark;顔文字)が使用されることが
ある。このフェースマークでは、例えば、(^_^);
笑顔、(T_T):悲しい顔、(‐_‐)zzz;眠い
顔のように、予め定められた気分や感情を示す表示が使
用されている。
2. Description of the Related Art E-mail for exchanging information by transmitting a message or data to a mailbox of a partner by using a network between predetermined users, or between users currently connected to the network. 2. Description of the Related Art Character-based communication, such as chat, in which conversation is performed by exchanging messages by operating a keyboard in real time, is widely performed. In this case, in exchanging information via a network in which the expressions of each other are not visible, in order to put a subtle mood and emotion in a message transmitted to the other user, a face mark composed of various symbols and characters is used. Emoticons) may be used. In this face mark, for example, (^ _ ^);
Smile, (T_T): sad face, (-_-) zzz; a display indicating a predetermined mood or feeling is used like a sleepy face.

【0003】[0003]

【発明が解決しようとする課題】前述のフェースマーク
を使用したメッセージを利用することにより、相手ユー
ザに送信するメッセージに、送り手のユーザの微妙な気
分や感情を込めることが可能になった。しかし、この方
法によっても、特にリアルタイムでメッセージの交換を
行うチャットでは、実際に相手ユーザと直接向かい合っ
て、直接会話を行う場合の感情の交流とは異質な感情の
交流しか得られず、ユーザ間で十分な満足感を持ったコ
ミュニケーションが行われるとは言い難い。
By using a message using the above-mentioned face mark, it has become possible to put a subtle mood and feelings of the sender user in a message transmitted to the other user. However, even with this method, especially in a chat in which messages are exchanged in real time, it is only possible to obtain emotional exchanges different from the emotional exchanges when directly facing the other user and having a direct conversation. It is hard to say that communication with sufficient satisfaction is performed.

【0004】本発明は、前述したようなネットワークを
介してのメッセージ授受の現状に鑑みてなされたもので
あり、その目的は、メッセージの送り手の感情を、実際
の会話時と同様に、相手ユーザに臨場感を伴って適確に
伝えることが可能な仮想空間による通信システムを提供
することにある。
[0004] The present invention has been made in view of the current state of message exchange via a network as described above, and its purpose is to determine the emotion of the sender of a message in the same way as during an actual conversation. An object of the present invention is to provide a communication system in a virtual space that can accurately convey a user with a sense of realism.

【0005】[0005]

【課題を解決するための手段】前記目的を達成するため
に、請求項1記載の発明は、クライントがアクセス自在
な共有仮想空間を提供する共有仮想空間サーバと、前記
共有仮想空間内でのアバタの動作を管理制御するアバタ
管理サーバと、前記共有仮想空間内におけるアバタと他
のアバタとの会話を制御しチャットメッセージを提供す
るチャット管理サーバと、前記アバタ管理サーバに設け
られ、アバタが互いに会話中の状態で、話し手側のアバ
タのチャットメッセージから、特定文字列を検出する
と、該特定文字列に対して予め設定されている特定動作
を、聞き手側のアバタに行わせるアバタ動作制御手段
と、前記アバタ管理サーバに設けられ、互いに会話中の
アバタの生体活動情報を検出し、所定の生体活動情報を
検出したアバタに対して、該生体活動情報に対応する生
体状態を設定する生体状態設定手段とを有することを特
徴とするものである。
According to one aspect of the present invention, there is provided a shared virtual space server for providing a shared virtual space accessible to a client, and an avatar in the shared virtual space. An avatar management server that manages and controls the operation of the avatar; a chat management server that controls a conversation between the avatar and another avatar in the shared virtual space and provides a chat message; In the middle state, when a specific character string is detected from the chat message of the speaker's avatar, avatar operation control means for causing the listener's avatar to perform a specific operation preset for the specific character string, Provided in the avatar management server, detects the life activity information of the avatar during a conversation with each other, for the avatar that has detected predetermined life activity information And it is characterized by having a biological condition setting means for setting a biological state corresponding to the biological activity information.

【0006】このような手段によると、仮想空間内でア
バタ相互間のチャットメッセージによる会話が行われる
が、アバタ管理サーバのアバタ動作制御手段により、話
し手側のアバタのチャットメッセージから、特定文字列
が検出されると、聞き手側のアバタが、検出された特定
文字列に対応する特定動作を行うように制御され、アバ
タ管理サーバの生体状態設定手段により、互いに会話中
のアバタの生体活動情報が検出され、所定の生体活動情
報が検出されたアバタに対して、該生体活動情報に対応
する生体状態が設定される。
According to such a means, a conversation is performed between avatars in a virtual space using a chat message. The avatar operation control means of the avatar management server converts a specific character string from the chat message of the avatar on the speaker side. When the avatar is detected, the avatar on the listener side is controlled to perform a specific operation corresponding to the detected specific character string. Then, a biological state corresponding to the life activity information is set for the avatar for which the predetermined life activity information is detected.

【0007】同様に前記目的を達成するために、請求項
2記載の発明は、請求項1記載の発明において、前記生
体活動情報が、アバタに対応する利用者のクライアント
の打鍵状態であることを特徴とするものである。
[0007] Similarly, in order to achieve the above object, according to a second aspect of the present invention, in the first aspect of the present invention, it is preferable that the life activity information is a keying state of a client of a user corresponding to an avatar. It is a feature.

【0008】このような手段によると、アバタに対応す
る利用者のクライアントの打鍵状態を生体活動情報とし
て、生体活動状態が検出され、打鍵状態が活発である
と、現在の会話に興味を持って興奮状態で話をしている
と判断され、打鍵状態が次第に活発さを欠いて打鍵停止
になると、現在の会話に関心がなくなったと判断され、
それぞれ対応する生体状態が設定されて請求項1記載の
発明での作用が実行される。
[0008] According to such means, a key activity of the client of the user corresponding to the avatar is detected as life activity information, and the life activity is detected. If the key activation is active, the user is interested in the current conversation. When it is determined that the user is talking in an excited state, and the key-pressing state gradually becomes less active and the key-stop is stopped, it is determined that the current conversation is no longer of interest,
The corresponding biological condition is set, and the operation according to the first aspect of the present invention is performed.

【0009】[0009]

【発明の実施の形態】以下に、本発明の一実施の形態
を、図1ないし図6を参照して説明する。図1は本実施
の形態の仮想空間へのアクセスの説明図、図2は本実施
の形態のチャット動作の説明図、図3は本実施の形態の
チャット管理サーバとアバタ管理サーバの動作を示す説
明図、図4は本実施の形態のチャットメッセージの伝達
動作を示す説明図、図5は本実施の形態の生体状態設定
動作の例を示す説明図、図6は本実施の形態の生体状態
設定動作の他の例を示す説明図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to FIGS. FIG. 1 is a diagram illustrating access to a virtual space according to the present embodiment, FIG. 2 is a diagram illustrating a chat operation according to the present embodiment, and FIG. 3 illustrates operations of a chat management server and an avatar management server according to the present embodiment. FIG. 4 is an explanatory view showing an operation of transmitting a chat message according to the present embodiment. FIG. 5 is an explanatory view showing an example of a biological state setting operation according to the present embodiment. FIG. 6 is a biological state according to the present embodiment. FIG. 14 is an explanatory diagram illustrating another example of the setting operation.

【0010】本実施の形態には、VRML(Virtu
alRealityModeingLanguage)
により、www上で3次元仮想空間1を構築提供する共
有仮想空間サーバが設けられ、図1に示すように、この
共有仮想空間1には、それぞれのクライアント2a、2
b、2c・・2nが、アクセス自在に接続されており、
共有仮想空間1にアクセスしたクライアント2a〜2n
からは、各クライアントのユーザのアバタ(avata
r)が、共有仮想空間1に登場するように構成されてい
る。また、本実施の形態には、共有仮想空間1でのアバ
タの動作を管理制御するアバタ管理サーバ6と、共有仮
想空間1において、アバタと他のアバタとの会話を制御
しチャットメッセージを提供するチャット管理サーバ5
とが設けられ、アバタ管理サーバ6には、チャットメッ
セージの特定の文字列群にそれぞれ対応して、アバタに
行わせる動作群が格納されたアバタ制御辞書7が接続さ
れている。
In the present embodiment, VRML (virtual) is used.
alRealityModeratingLanguage)
Thus, a shared virtual space server for constructing and providing a three-dimensional virtual space 1 on the www is provided, and as shown in FIG.
b, 2c... 2n are connected so as to be freely accessible,
Clients 2a-2n that have accessed shared virtual space 1
From the avatar of each client user (avata
r) is configured to appear in the shared virtual space 1. Further, in the present embodiment, an avatar management server 6 for managing and controlling the operation of an avatar in the shared virtual space 1 and a chat message by controlling a conversation between the avatar and another avatar in the shared virtual space 1 are provided. Chat management server 5
The avatar management server 6 is connected to an avatar control dictionary 7 which stores a group of actions to be performed by an avatar in correspondence with a specific character string group of a chat message.

【0011】前述のアバタ管理サーバ6には、アバタが
互いに会話中の状態で、話し手側のアバタのチャットメ
ッセージから、特定文字列を検出すると、アバタ制御辞
書7を参照して、聞き手側のアバタに、検出した特定文
字列に対応する動作を行わせるアバタ動作制御手段が設
けられている。さらに、アバタ管理サーバ6には、互い
に会話中のアバタの生体活動情報を、該アバタに対応す
るユーザのクライアントの打鍵状態で検出し、該アバタ
に対応する生体状態を設定する生体状態設定手段が設け
られている。
When the avatar management server 6 detects a specific character string from the chat message of the avatar on the speaker side while the avatars are in conversation with each other, the avatar management server 6 refers to the avatar control dictionary 7 to read the avatar on the listener side. Is provided with avatar operation control means for performing an operation corresponding to the detected specific character string. Further, the avatar management server 6 includes a biological state setting unit that detects biological activity information of avatars that are talking with each other by using a keystroke state of a client of a user corresponding to the avatar and sets a biological state corresponding to the avatar. Is provided.

【0012】このような構成の本実施の形態の動作を説
明する。例えば、クライアント2aのユーザと、クライ
アント2bのユーザとが、それぞれクライアント2aと
クライアント2bを操作して、共有仮想空間1にアクセ
スすると、クライアント2a、2bのwwwブラウザに
よって、図3に示すように、それぞれのユーザのアバタ
3a、3bが、共有仮想空間1に登場する。この状態
で、クライアント2aのユーザが、クライアント2aを
操作してチャットメッセージを入力すると、図3に示す
ように、クライアント2aからメッセージ信号Fmが出
力されて、ネットワークを介してチャット管理サーバ5
で受信され、受信されたメッセージ信号Fmは、チャッ
ト管理サーバ5によって、ネットワークを介してクライ
アント2bに転送され、同時にアバタ管理サーバ6によ
って、このチャットメッセージから特定の文字列の検出
が行われる。この場合、クライアント2aのユーザのチ
ャートメッセージの入力によって、チャットメッセージ
は、図4に示すように、クライアント2aのブラウザに
付随するチャットウィンドウ8aに表示され、クライア
ント2bで受信されたチャットメッセージは、クライア
ント2bのブラウザに付随するウィンドウ8bに表示さ
れる。
The operation of this embodiment having such a configuration will be described. For example, when the user of the client 2a and the user of the client 2b operate the client 2a and the client 2b, respectively, to access the shared virtual space 1, as shown in FIG. The avatars 3a and 3b of the respective users appear in the shared virtual space 1. In this state, when the user of the client 2a operates the client 2a and inputs a chat message, a message signal Fm is output from the client 2a as shown in FIG.
The received message signal Fm is transferred by the chat management server 5 to the client 2b via the network, and at the same time, the avatar management server 6 detects a specific character string from the chat message. In this case, when the chart message of the user of the client 2a is input, the chat message is displayed in the chat window 8a attached to the browser of the client 2a as shown in FIG. 4, and the chat message received by the client 2b is displayed on the client 2b. 2b is displayed in the window 8b attached to the browser.

【0013】ここで、クライアント2a、2bのユーザ
を、それぞれユーザA、ユーザBとし、ユーザAがクラ
イアント2aから「Bさん、こんにちは」と入力する
と、アバタ管理サーバ6によって、クライアント2aか
ら送信されるチャットメッセージに特定の文字列「こん
にちは」があることが検出され、アバタ制御辞書7の検
索が行われる。この検索によって、アバタ制御辞書7か
ら、特定の文字列「こんにちは」に対応する動作が「お
辞儀をして挨拶する」ことであると読み出されると、ア
バタ管理サーバ6からコマンド信号Fc1が出力され、
このコマンド信号Fc1によって、アバタ3bが、ユー
ザAのチャットに自動的に反応して、お辞儀をしてアバ
タ3aに挨拶をするように動作制御が行われる。
[0013] In this case, the client 2a, 2b of the user, and each user A, user B, the user A is input from the client 2a and the "B's, Hello", by the avatar management server 6, is sent from the client 2a chat message is that there is a specific character string "Hello" is detected, the search of avatar control dictionary 7 is performed. This search, the avatar control dictionary 7, when the operation corresponding to the specific character string "Hello" is read and is to "greeting bowed" command signal Fc1 is output from the avatar management server 6,
The command signal Fc1 controls the avatar 3b to automatically react to the chat of the user A, bow, and greet the avatar 3a.

【0014】このアバタ制御辞書には、「こんにちは」
の他にも、「さようなら」、「嬉しい」「悲しい」「怒
りを覚える」などの特定の文字列と、これらに対応する
動作が「右手を振る」「両手をあげる」「肩を落として
うな垂れる」「両腕を開いて、頭を左右に強く振る」な
どとして格納されており、話し手側のユーザのチャット
メッセージにこれらの特定文字列が検出されると、アバ
タ管理サーバ6の制御によって、聞き手側のアバタに、
それぞれ対応する動作が行われる。
[0014] The avatar control dictionary, "Hello"
In addition, specific character strings such as "Goodbye", "Happy", "Sad", "Angry" and the corresponding actions are "Wave your right hand", "Rise both hands", "Don't drop your shoulders". When the specific character strings are detected in the chat message of the user on the speaker side, the avatar management server 6 controls the avatar management server 6. To the listener's avatar,
The corresponding operation is performed.

【0015】また、アバタ管理サーバ6では、チャット
管理サーバ5に送信される話し手側のユーザからのチャ
ットメッセージの打鍵速度と、聞き手側のユーザからの
チャットメッセージの打鍵速度とを監視していて、チャ
ットメッセージの送信元のユーザの生体活動情報を常に
検出し、該ユーザのアバタに検出状態に対応する生体状
態を設定する。例えば、ユーザBが所定の分野に関する
質問をユーザAにした場合に、図5に示すように、ユー
ザAのチャットメッセージ送信時のクライアント2aの
打鍵速度が、予め設定した基準値を越えて高速度になる
と、この分野がユーザAの関心のある分野であるため
に、ユーザAが熱心に興奮してチャットメッセージを送
信していると判断される。そして、アバタ管理サーバ5
からは、コマンド信号Fc1が出力され、このコマンド
信号Fc1によって、共有仮想空間1内において、ユー
ザAのアバタ3aの周囲に、生体状態表示画像10aが
次第に明るくなるように形成される。このために、ユー
ザBは、クライアント2bのディスプレイ上で、アバタ
3aの周囲に、次第に明るくなる光状態の生体状態表示
画像10aを観察し、ユーザAが興奮状態になっている
ことを、実際の臨場感をもって把握する。
The avatar management server 6 monitors the keying speed of the chat message from the user on the talker side transmitted to the chat management server 5 and the keying speed of the chat message from the user on the listener side. The biological activity information of the user who has transmitted the chat message is always detected, and a biological state corresponding to the detected state is set in the avatar of the user. For example, when the user B asks the user A a question regarding a predetermined field, as shown in FIG. 5, the keying speed of the client 2a at the time of transmitting the chat message of the user A exceeds Then, it is determined that the user A is eagerly excited to transmit the chat message because this field is the field of interest of the user A. And the avatar management server 5
, A command signal Fc1 is output, and the command signal Fc1 is formed around the avatar 3a of the user A in the shared virtual space 1 so that the biological condition display image 10a becomes gradually brighter. For this reason, the user B observes the biological state display image 10a in a light state gradually brightening around the avatar 3a on the display of the client 2b, and confirms that the user A is in the excited state. Grasp with a sense of reality.

【0016】また、ユーザAが興奮して送信するチャッ
トメッセージが、次第に専門化してきたために、ユーザ
Bは、最初は相槌を打つチャットメッセージをユーザA
に適宜返信していたが、次第にユーザAの一方的で長い
講釈に飽きて、ユーザAに返信するチャットメッセージ
の打鍵速度が次第に低下し、ついには打鍵を停止して離
席してしまったとする。この場合、アバタ管理サーバ5
は、この状態を監視していて、ユーザBの打鍵が停止し
て、予め設定した時間が経過すると、コマンド信号Fc
2を出力し、このコマンド信号Fc2によって、アバタ
3bが欠伸をする生体状態表示画像10bが形成され、
ユーザAはクライアント2bのディスプレイ上で、アバ
タ3bが説明に飽きて欠伸をしたことを知る。
Further, since the chat message transmitted by the user A with excitement has gradually become more specialized, the user B first transmits the chat message hitting the user A to the user A.
It is assumed that the user A gradually became tired of the one-sided and long lecture of the user A, the keying speed of the chat message returned to the user A gradually decreased, and finally stopped the keying and left the seat. . In this case, the avatar management server 5
Is monitoring this state, and when the keying of the user B stops and a preset time elapses, the command signal Fc
2 and the command signal Fc2 forms the biological state display image 10b in which the avatar 3b loses its length.
The user A knows on the display of the client 2b that the avatar 3b was bored with the explanation and lost his growth.

【0017】このように、本実施の形態によると、複数
のユーザは、それぞれのクライアント2a〜2nによっ
て共有仮想空間1にアクセスし、共有仮想空間1内でア
バタ3a〜3nによって、チャットメッセージに基づく
会話を互いに交わすが、話し手側のユーザから送信され
るチャットメッセージから、アバタ管理サーバ5が、特
定文字列、例えば「こんにちは」を検出すると、聞き手
側のユーザのアバタは、該文字列に反応するお辞儀をす
るように動作制御される。また、ユーザのクライアント
の打鍵速度が、所定値を越えると、このユーザが、チャ
ットメッセージの送信に熱中興奮していると判定され、
アバタの周囲に光状の表示画像が形成され、ユーザのク
ライアントの打鍵が停止して所定時間が経過すると、ユ
ーザが会話に厭きたと判定され、アバタは欠伸をするよ
うに動作制御される。
As described above, according to the present embodiment, a plurality of users access the shared virtual space 1 by the respective clients 2a to 2n, and based on the chat messages by the avatars 3a to 3n in the shared virtual space 1. While exchanging conversation with each other, from the chat message sent from the speaker side of the user, the avatar management server 5, the specific character string, for example, to detect "hello", the avatar of audience side of the user, responsive to the string The operation is controlled to bow. Also, when the keying speed of the user's client exceeds a predetermined value, it is determined that the user is excited about transmitting the chat message,
When a light display image is formed around the avatar, and when the user's client stops tapping the key for a predetermined period of time, it is determined that the user is unwilling to talk, and the avatar is operation-controlled so as to stretch out.

【0018】このために、本実施の形態によると、互い
に会話中のユーザは、クライアントのディスプレイでの
表示を通じて、相手ユーザのチャットに反応する動作
や、相手ユーザの現在の生体状態を確認することが可能
で、相手ユーザの感情や心身の微妙な活動状態を、実際
の会話時と同様に臨場感を伴って受け取ることにより、
ユーザは、相互に相手の感情や身体状態を理解しながら
スムースな会話交流を行うことが可能になる。
For this reason, according to the present embodiment, the users who are talking with each other can confirm the operation responding to the chat of the partner user and the current biological state of the partner user through the display on the display of the client. By receiving the emotional state of the partner user and the delicate activity of mind and body with the presence as in actual conversation,
The user can have a smooth conversation exchange while understanding each other's emotion and physical condition.

【0019】なお、以上の実施の形態においては、アバ
タに対応するユーザのクライアントの打鍵状態を、生体
活動情報として捉える場合について説明したが、本発明
は、この実施の形態に限定されるものではなく、ユーザ
の体温、脈拍或いは瞳孔の大きさを、生体活動情報とし
て捉えることも可能である。
In the above-described embodiment, a case has been described where the key-pressing state of the user's client corresponding to the avatar is regarded as life activity information. However, the present invention is not limited to this embodiment. Instead, the user's body temperature, pulse, or pupil size can be captured as life activity information.

【0020】[0020]

【発明の効果】請求項1記載の発明によると、クライア
ントからのアクセスによって、共有仮想空間サーバによ
り提供される共有仮想空間に登場するユーザのアバタの
動作が、アバタ管理サーバにより管理制御され、チャッ
ト管理サーバによって、仮想空間内でのアバタ相互間の
会話が制御され、チャットメッセージによる会話が行わ
れるが、アバタが互いに会話中の状態で、アバタ管理サ
ーバのアバタ動作制御手段によって、話し手側のアバタ
のチャットメッセージから、特定文字列が検出される
と、聞き手側のアバタが、検出された特定文字列に対応
する特定動作を行うように制御が行われ、アバタ管理サ
ーバの生体状態設定手段によって、互いに会話中のアバ
タの生体活動情報が検出され、所定の生体活動情報が検
出されたアバタに対して、該生体活動情報に対応する生
体状態が設定される。このために、共有仮想空間内でチ
ャットメッセージによって互いに会話を行うアバタは、
話し手側のアバタのチャットメッセージに、聞き手側の
アバタが適確に反応する動作を行い、互いに会話中のア
バタは、それぞれの生体活動状態に応じた生体状態とな
るので、ユーザは、仮想空間を介しての相互会話時に、
ディスプレイを通じて、相手ユーザの感情や心身の微妙
な活動状態を、実際の会話時と同様に臨場感を伴って受
け取って、ユーザが互いに相手の感情や身体状態を理解
しながらスムースな会話交流を行うことが可能になる。
According to the first aspect of the present invention, the operation of the avatar of a user appearing in the shared virtual space provided by the shared virtual space server is managed and controlled by the avatar management server by the access from the client, and the chat is performed. The conversation between the avatars in the virtual space is controlled by the management server, and the conversation by the chat message is carried out. When a specific character string is detected from the chat message, the avatar on the listener side is controlled to perform a specific operation corresponding to the detected specific character string. Life activity information of the avatars that are talking with each other are detected, and a predetermined avatar is detected. Te biological state that corresponds to the biological activity information is set. For this reason, avatars that talk to each other by chat messages in the shared virtual space,
The avatar on the listener's side performs an operation of responding to the chat message of the avatar on the speaker's side accurately, and the avatars conversing with each other have a biological state according to their respective biological activity states. During mutual conversation through
Through the display, receive the other user's emotions and subtle activities of mind and body with a sense of realism as in the actual conversation, and allow the users to have a smooth conversation exchange while understanding each other's emotions and physical conditions It becomes possible.

【0021】請求項2記載の発明によると、アバタに対
応するユーザのクライアントの打鍵状態を生体活動情報
として生体活動状態が検出され、打鍵状態が活発である
と、現在の会話に興味を持って興奮状態で話をしている
と判断され、打鍵状態が次第に活発さを欠いて打鍵停止
になると、現在の会話に関心がなくなったと判断され、
それぞれ対応する生体状態が設定されて請求項1記載の
発明での効果が実現される。
According to the second aspect of the present invention, the keystroke state of the user's client corresponding to the avatar is detected as the life activity information, and the life activity state is detected. If the keystroke state is active, the user is interested in the current conversation. When it is determined that the user is talking in an excited state, and the key-pressing state gradually becomes less active and the key-stop is stopped, it is determined that the current conversation is no longer of interest,
The corresponding biological condition is set, and the effect of the invention described in claim 1 is realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施の形態の仮想空間へのアクセス
の説明図である。
FIG. 1 is an explanatory diagram of access to a virtual space according to an embodiment of the present invention.

【図2】同実施の形態のチャット動作の説明図である。FIG. 2 is an explanatory diagram of a chat operation according to the embodiment;

【図3】同実施の形態のチャット管理サーバとアバタ管
理サーバの動作を示す説明図である。
FIG. 3 is an explanatory diagram showing operations of a chat management server and an avatar management server of the embodiment.

【図4】同実施の形態のチャットメッセージの伝達動作
を示す説明図である。
FIG. 4 is an explanatory diagram showing a chat message transmitting operation according to the embodiment;

【図5】同実施の形態の生体状態設定動作の例を示す説
明図である。
FIG. 5 is an explanatory diagram showing an example of a biological condition setting operation according to the embodiment;

【図6】同実施の形態の生体状態設定動作の他の例を示
す説明図である。
FIG. 6 is an explanatory diagram showing another example of the biological condition setting operation of the embodiment.

【符号の説明】[Explanation of symbols]

1・・共有仮想空間、2a〜2c・・クライアント、3
a〜3n・・アバタ、5・・チャット管理サーバ、6・
・アバタ管理サーバ、7・・アバタ制御辞書、8a〜8
c・・チャットウィンドウ、10a、10b・・生体状
態表示画像。
1. Shared virtual space, 2a to 2c, client, 3
a to 3n avatar, 5. chat management server, 6.
・ Avatar management server, 7 ・ ・ Avatar control dictionary, 8a-8
c chat window, 10a, 10b biological state display image.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 クライントがアクセス自在な共有仮想空
間を提供する共有仮想空間サーバと、 前記共有仮想空間内でのアバタの動作を管理制御するア
バタ管理サーバと、 前記共有仮想空間内におけるアバタと他のアバタとの会
話を制御しチャットメッセージを提供するチャット管理
サーバと、 前記アバタ管理サーバに設けられ、アバタが互いに会話
中の状態で、話し手側のアバタのチャットメッセージか
ら、特定文字列を検出すると、該特定文字列に対して予
め設定されている特定動作を、聞き手側のアバタに行わ
せるアバタ動作制御手段と、 前記アバタ管理サーバに設けられ、互いに会話中のアバ
タの生体活動情報を検出し、所定の生体活動情報を検出
したアバタに対して、該生体活動情報に対応する生体状
態を設定する生体状態設定手段とを有することを特徴と
する仮想空間による通信システム。
1. A shared virtual space server that provides a shared virtual space accessible to clients, an avatar management server that manages and controls the operation of an avatar in the shared virtual space, an avatar in the shared virtual space, and the like. A chat management server that controls the conversation with the avatar and provides a chat message, provided in the avatar management server, when the avatar is in a conversation with each other, and when a specific character string is detected from the chat message of the speaker's avatar. An avatar operation control means for causing an avatar on the listener side to perform a specific operation set in advance for the specific character string; and an avatar management server, wherein the avatar management server detects biological activity information of the avatar during a conversation with each other. A biological condition setting step of setting a biological condition corresponding to the biological activity information for an avatar having detected predetermined biological activity information; Communication system according to a virtual space and having and.
【請求項2】 前記生体活動情報が、アバタに対応する
利用者のクライアントの打鍵状態であることを特徴とす
る請求項1記載の仮想空間による通信システム。
2. The communication system according to claim 1, wherein the life activity information is a keystroke state of a client of a user corresponding to an avatar.
JP34491999A 1999-12-03 1999-12-03 Communication system in virtual space Pending JP2001160021A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34491999A JP2001160021A (en) 1999-12-03 1999-12-03 Communication system in virtual space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34491999A JP2001160021A (en) 1999-12-03 1999-12-03 Communication system in virtual space

Publications (1)

Publication Number Publication Date
JP2001160021A true JP2001160021A (en) 2001-06-12

Family

ID=18373025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34491999A Pending JP2001160021A (en) 1999-12-03 1999-12-03 Communication system in virtual space

Country Status (1)

Country Link
JP (1) JP2001160021A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003016022A (en) * 2001-06-27 2003-01-17 Nisshin Seifun Group Inc Method for teleconference
JP2003108502A (en) * 2001-09-28 2003-04-11 Interrobot Inc Physical media communication system
WO2004053702A1 (en) * 2002-12-11 2004-06-24 Sony Corporation Information processing device and method, program, and recording medium
JP2005202909A (en) * 2003-12-16 2005-07-28 Kyoto Univ Avatar control system
JP2006338685A (en) * 2006-08-02 2006-12-14 Konami Digital Entertainment:Kk Chat system, communication equipment, its control method, and program
JP2007287177A (en) * 2002-12-11 2007-11-01 Sony Corp Information processing device and method, program, and recording medium
JP2008123508A (en) * 2006-10-19 2008-05-29 Yafoo Japan Corp System about status change information
NL2000569C2 (en) * 2007-04-02 2008-10-06 Zappspace B V Method for setting up a virtual contact network.
JP2009146041A (en) * 2007-12-12 2009-07-02 Internatl Business Mach Corp <Ibm> Communication support method, system, and server device
JP2011138464A (en) * 2010-01-04 2011-07-14 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program of character input communication
JP2015046065A (en) * 2013-08-28 2015-03-12 ヤフー株式会社 Information processing device, control method, and control program
JP2015046070A (en) * 2013-08-28 2015-03-12 ヤフー株式会社 Information processing device, determination method, and determination program
JP2015509238A (en) * 2012-01-09 2015-03-26 華為技術有限公司Huawei Technologies Co.,Ltd. User status display method, display terminal, and server
WO2015186534A1 (en) * 2014-06-06 2015-12-10 ソニー株式会社 Information processing device and method, and program
US9509787B2 (en) 2012-01-09 2016-11-29 Huawei Technologies Co., Ltd. User status displaying method, and server
JP2016215292A (en) * 2015-05-15 2016-12-22 Kddi株式会社 Robot operation creation device and program
KR101855639B1 (en) 2009-12-17 2018-05-04 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Camera navigation for presentations
JP2019165490A (en) * 2012-11-05 2019-09-26 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and information processing system
CN110366046A (en) * 2019-07-25 2019-10-22 天脉聚源(杭州)传媒科技有限公司 A kind of virtual auditorium region pattern splicing method, system, device and storage medium

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003016022A (en) * 2001-06-27 2003-01-17 Nisshin Seifun Group Inc Method for teleconference
JP2003108502A (en) * 2001-09-28 2003-04-11 Interrobot Inc Physical media communication system
US7548891B2 (en) 2002-12-11 2009-06-16 Sony Corporation Information processing device and method, program, and recording medium
WO2004053702A1 (en) * 2002-12-11 2004-06-24 Sony Corporation Information processing device and method, program, and recording medium
JP2007287177A (en) * 2002-12-11 2007-11-01 Sony Corp Information processing device and method, program, and recording medium
CN1692341B (en) * 2002-12-11 2010-12-08 索尼株式会社 Information processing device and method
JP4525712B2 (en) * 2002-12-11 2010-08-18 ソニー株式会社 Information processing apparatus and method, program, and recording medium
JP2005202909A (en) * 2003-12-16 2005-07-28 Kyoto Univ Avatar control system
JP2006338685A (en) * 2006-08-02 2006-12-14 Konami Digital Entertainment:Kk Chat system, communication equipment, its control method, and program
JP2008123508A (en) * 2006-10-19 2008-05-29 Yafoo Japan Corp System about status change information
WO2008120988A2 (en) * 2007-04-02 2008-10-09 Zappspace B.V. Method for setting up a virtual network of contacts
WO2008120988A3 (en) * 2007-04-02 2009-10-29 Zappspace B.V. Method for setting up a virtual network of contacts
NL2000569C2 (en) * 2007-04-02 2008-10-06 Zappspace B V Method for setting up a virtual contact network.
JP2009146041A (en) * 2007-12-12 2009-07-02 Internatl Business Mach Corp <Ibm> Communication support method, system, and server device
US8954849B2 (en) 2007-12-12 2015-02-10 International Business Machines Corporation Communication support method, system, and server device
KR101855639B1 (en) 2009-12-17 2018-05-04 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Camera navigation for presentations
JP2011138464A (en) * 2010-01-04 2011-07-14 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program of character input communication
JP2015509238A (en) * 2012-01-09 2015-03-26 華為技術有限公司Huawei Technologies Co.,Ltd. User status display method, display terminal, and server
US9509787B2 (en) 2012-01-09 2016-11-29 Huawei Technologies Co., Ltd. User status displaying method, and server
JP2019165490A (en) * 2012-11-05 2019-09-26 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and information processing system
JP2015046070A (en) * 2013-08-28 2015-03-12 ヤフー株式会社 Information processing device, determination method, and determination program
US9235263B2 (en) 2013-08-28 2016-01-12 Yahoo Japan Corporation Information processing device, determination method, and non-transitory computer readable storage medium
US9313634B2 (en) 2013-08-28 2016-04-12 Yahoo Japan Corporation Information processing device, control method, and a non-transitory computer readable storage medium
JP2015046065A (en) * 2013-08-28 2015-03-12 ヤフー株式会社 Information processing device, control method, and control program
WO2015186534A1 (en) * 2014-06-06 2015-12-10 ソニー株式会社 Information processing device and method, and program
JPWO2015186534A1 (en) * 2014-06-06 2017-04-20 ソニー株式会社 Information processing apparatus and method, and program
JP2016215292A (en) * 2015-05-15 2016-12-22 Kddi株式会社 Robot operation creation device and program
CN110366046A (en) * 2019-07-25 2019-10-22 天脉聚源(杭州)传媒科技有限公司 A kind of virtual auditorium region pattern splicing method, system, device and storage medium

Similar Documents

Publication Publication Date Title
JP2001160021A (en) Communication system in virtual space
KR100841590B1 (en) Chat system, communication device, control method thereof and computer-readable information storage medium
US5880731A (en) Use of avatars with automatic gesturing and bounded interaction in on-line chat session
US20100153095A1 (en) Virtual Pet Chatting System, Method, and Virtual Pet Question and Answer Server
KR100968298B1 (en) User interface for conducting chats over a network
Kuwabara et al. Connectedness oriented communication: Fostering a sense of connectedness to augment social relationships
US20100017483A1 (en) Multi-topic instant messaging chat session
JP4391691B2 (en) Computer network
US20060010240A1 (en) Intelligent collaborative expression in support of socialization of devices
CN107135146B (en) The display methods and device of information
EP2690847A1 (en) Virtual assistant for a telecommunication system
CN112152901A (en) Virtual image control method and device and electronic equipment
JP2018092528A (en) Chat system, management device, terminal device, and method and program for assisting selection of destination
CN111108491A (en) Conference system
JP4854424B2 (en) Chat system, communication apparatus, control method thereof, and program
JP2001325200A (en) Chat system
JP7419849B2 (en) Information processing equipment and programs
JP3604915B2 (en) Communication method and communication device
KR102699745B1 (en) Apparatus, system, and method for generating emotion object
KR101542776B1 (en) Controlling Method of Instant Messenger Service for Mobile Communication Terminal
JP2003108502A (en) Physical media communication system
KR20060104980A (en) System and method for interlocking process between emoticon and avatar
KR20030026506A (en) System and method for interlocking process between emoticon and avatar
KR20060116880A (en) Method for displaying text animation in messenger and record medium for the same
KR20010084085A (en) Network-based character providing method and system thereof