[go: nahoru, domu]

JP7275134B2 - Systems and methods for modifying playback of media assets in response to verbal commands unrelated to playback of media assets - Google Patents

Systems and methods for modifying playback of media assets in response to verbal commands unrelated to playback of media assets Download PDF

Info

Publication number
JP7275134B2
JP7275134B2 JP2020531696A JP2020531696A JP7275134B2 JP 7275134 B2 JP7275134 B2 JP 7275134B2 JP 2020531696 A JP2020531696 A JP 2020531696A JP 2020531696 A JP2020531696 A JP 2020531696A JP 7275134 B2 JP7275134 B2 JP 7275134B2
Authority
JP
Japan
Prior art keywords
user
command
determining
playback
media guidance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020531696A
Other languages
Japanese (ja)
Other versions
JP2021506187A5 (en
JP2021506187A (en
Inventor
グレン イー. ロー,
マイケル マッカーティー,
チャールズ ドーズ,
ミラン パテル,
Original Assignee
ロヴィ ガイズ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/839,569 external-priority patent/US10135632B1/en
Priority claimed from US15/839,540 external-priority patent/US10425247B2/en
Application filed by ロヴィ ガイズ, インコーポレイテッド filed Critical ロヴィ ガイズ, インコーポレイテッド
Publication of JP2021506187A publication Critical patent/JP2021506187A/en
Publication of JP2021506187A5 publication Critical patent/JP2021506187A5/ja
Priority to JP2023076097A priority Critical patent/JP2023087057A/en
Application granted granted Critical
Publication of JP7275134B2 publication Critical patent/JP7275134B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Social Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)

Description

口頭コマンドまたは検出された音声に応答して、メディアアセットの再生を修正することは、コマンドに基づいて、アクションを実施するようにコマンドの受信者を促すことに役立つために使用される技法である。関連技術は、再生に関連する口頭コマンドに基づいて、再生を修正する種々の方法を説明する。例えば、関連技術は、再生に関連する口頭コマンド(例えば、ユーザが「Alexa、映画を一時停止して」と発すること)を検出し、次いで、検出されたコマンドに基づいて再生を修正する、システムを説明する。典型的メディアアプリケーションは、ガイド動作に関するコマンドを探すが、非ガイドコマンドが受信されるときに動作する方法を考慮することができない。関連技術はまた、周囲音声を拾い、検出された音声に応答して再生動作を実施することもできる。しかしながら、関連技術は、ユーザが音声の目標を満たすアクションを実施する権限を与えられているかどうかに基づく、異なる動作モードを説明しない。 Modifying the playback of media assets in response to verbal commands or detected sounds is a technique used to help prompt recipients of commands to perform actions based on the command. . The related art describes various methods of modifying playback based on verbal commands associated with the playback. For example, related art describes systems that detect verbal commands associated with playback (e.g., a user saying "Alexa, pause the movie") and then modify playback based on the detected commands. explain. Typical media applications look for commands related to guided actions, but cannot consider how to act when non-guided commands are received. Related technology can also pick up ambient sounds and perform playback actions in response to detected sounds. However, the related art does not describe different modes of operation based on whether the user is authorized to perform actions that meet the audio goals.

システムおよび方法が、再生に無関係であるコマンドを関連する再生修正に変換し、コマンドを実行するようにコマンドの受信者を促すために、本明細書で提供される。例えば、第1のユーザが映画を鑑賞しており、第2のユーザが第1のユーザに「夕食ができたよ!」と呼び掛ける場合、映画の再生は、映画の鑑賞を止めて夕食を食べに行くように第1のユーザを促すために一時停止されてもよい。 Systems and methods are provided herein for converting commands that are irrelevant to playback into relevant playback modifications and prompting the recipient of the command to execute the command. For example, if a first user is watching a movie and a second user calls out to the first user, "Dinner is ready!" A pause may be made to prompt the first user to go.

この目的および他の目的のために、本開示のいくつかの側面では、メディアガイドアプリケーションは、第1のユーザから第2のユーザへのコマンドを検出してもよい。第1のユーザは、メディアアセットの再生を現在鑑賞していないユーザであってもよく、メディアアセットの視聴環境外の環境内にいてもよい。第2のユーザは、メディアアセットの視聴環境内でメディアアセットの再生を現在視聴しているユーザであってもよい。例えば、メディアガイドアプリケーションは、知的パーソナルアシスタントデバイス(例えば、Amazon Echo)を使用して、第1のユーザから第2のユーザへの口頭コマンド(例えば、「夕食ができたから席について!」)を検出してもよい。 For this and other purposes, in some aspects of the disclosure, the media guidance application may detect commands from the first user to the second user. The first user may be a user not currently viewing playback of the media asset, or may be in an environment outside the viewing environment of the media asset. The second user may be the user currently viewing the playback of the media asset within the media asset's viewing environment. For example, a media guidance application may use an intelligent personal assistant device (eg, Amazon Echo) to issue a verbal command from a first user to a second user (eg, "Dinner is ready, take a seat!"). may be detected.

いくつかの実施形態では、メディアガイドアプリケーションが、第1のユーザから第2のユーザへのコマンドを検出するとき、メディアガイドアプリケーションは、第1のユーザからの口頭入力を検出してもよい。例えば、メディアガイドアプリケーションは、オーディオ検出センサを使用して、第1のユーザからの口頭入力(例えば、ユーザが「夕食ができたよ!」と発すること)を検出してもよい。 In some embodiments, the media guidance application may detect verbal input from the first user when the media guidance application detects a command from the first user to the second user. For example, the media guidance application may use an audio detection sensor to detect verbal input from the first user (eg, the user saying "Dinner is ready!").

メディアガイドアプリケーションは、口頭入力をコマンドのデータベースと比較してもよく、データベースは、各口頭入力に対応するコマンドを含有する。例えば、メディアガイドアプリケーションは、口頭入力(例えば、ユーザが「夕食ができたよ!」と発すること)を、コマンド(例えば、夕食を食べる、ドアに応答する、掃除する、掃除機をかける等)を含有するデータベースと比較してもよい。 The media guidance application may compare the spoken input to a database of commands, the database containing commands corresponding to each spoken input. For example, a media guidance application may convert verbal input (e.g., a user saying "Dinner is ready!") into commands (e.g., eat dinner, answer the door, clean, vacuum, etc.). It may be compared to a containing database.

メディアガイドアプリケーションは、比較から、第1のユーザからの口頭入力に対応するコマンドを決定してもよい。例えば、メディアガイドアプリケーションは、ユーザプロファイルから、入力とコマンドとの間のパターン認識を使用して、口頭入力(例えば、「夕食ができたよ!」)がコマンド(例えば、夕食を食べる)に対応することを決定してもよい。 The media guidance application may determine from the comparison a command corresponding to the verbal input from the first user. For example, the media guidance application uses pattern recognition between inputs and commands from the user profile to map verbal input (e.g., "Dinner is ready!") to command (e.g., eat dinner). may decide to

いくつかの実施形態では、メディアガイドアプリケーションが、比較から、第1のユーザからの口頭入力に対応するコマンドを決定するとき、メディアガイドアプリケーションは、口頭入力とコマンドのデータベースとの間の合致を決定してもよい。例えば、メディアガイドアプリケーションは、口頭入力がコマンド内に含有されるキーワード(例えば、「夕食」)に合致するため、口頭入力(例えば、「夕食ができたよ!」)がコマンド(例えば、夕食を食べる)に対応することを決定してもよい。メディアガイドアプリケーションは、合致に対応するコマンド(例えば、夕食を食べる)が、第1のユーザからの口頭入力に対応するコマンドであることを決定してもよい。 In some embodiments, when the media guidance application determines from the comparison the command corresponding to the verbal input from the first user, the media guidance application determines a match between the verbal input and the database of commands. You may For example, the media guidance application may determine that a verbal input (eg, "dinner is ready!") is a command (eg, eat dinner) because the verbal input matches keywords contained within the command (eg, "dinner"). ). The media guidance application may determine that the command corresponding to the match (eg, eat dinner) is the command corresponding to verbal input from the first user.

メディアガイドアプリケーションは、コマンドを、第2のユーザによって現在再生されているメディアアセットのための再生動作コマンドのセットと比較してもよい。例えば、メディアガイドアプリケーションは、コマンド(例えば、夕食を食べる)を、第2のユーザによって現在再生されているメディアアセット(例えば、映画)のための再生動作コマンドのセット(例えば、一時停止、早送り、ミュート等)と比較してもよい。 The media guidance application may compare the commands to a set of playback action commands for the media asset currently being played by the second user. For example, the media guidance application may translate a command (e.g., eat dinner) into a set of playback action commands (e.g., pause, fast forward, mute, etc.).

比較に応答して、メディアガイドアプリケーションは、コマンドが再生動作コマンドのセット内に含有されていないことを決定してもよい。例えば、メディアガイドアプリケーションは、コマンド(例えば、夕食を食べる)が再生動作コマンドのセット(例えば、一時停止、早送り、ミュート等)内に含有されていないことを決定してもよい。 In response to the comparison, the media guidance application may determine that the command is not contained within the set of playback action commands. For example, the media guidance application may determine that a command (eg, eat dinner) is not contained within a set of playback action commands (eg, pause, fast forward, mute, etc.).

メディアガイドアプリケーションは、第1のユーザのユーザプロファイルおよび第2のユーザのユーザプロファイルに基づいて、コマンドの複数の結果からコマンドの所望の結果を決定してもよい。例えば、メディアガイドアプリケーションは、第1のユーザのユーザプロファイル(例えば、プロファイルは、第1のユーザが母親であることを記述し得る)および第2のユーザのユーザプロファイル(例えば、第2のプロファイルは、第2のユーザが母親のコマンドに従う母親の息子であることを記述し得る)に基づいて、コマンドの所望の結果(例えば、第2のユーザが映画の鑑賞を止めて夕食を食べる)を決定してもよい。 The media guidance application may determine the desired result of the command from multiple results of the command based on the first user's user profile and the second user's user profile. For example, the media guidance application may include a user profile of a first user (eg, the profile may describe that the first user is a mother) and a user profile of a second user (eg, the second profile may be , that the second user is the mother's son following the mother's command), determines the desired outcome of the command (e.g., the second user stops watching a movie and eats dinner). You may

いくつかの実施形態では、メディアガイドアプリケーションが、第1のユーザのユーザプロファイルおよび第2のユーザのユーザプロファイルに基づいて、コマンドの複数の結果からコマンドの所望の結果を決定しているとき、メディアガイドアプリケーションは、コマンドの属性を決定してもよい。例えば、メディアガイドアプリケーションは、コマンドを属性のデータベースのエントリと比較することに基づいて、コマンドの属性(例えば、コマンドの発話者、コマンドの口調、コマンドの重大性等)を決定してもよい。 In some embodiments, when the media guidance application is determining the desired result of the command from the multiple results of the command based on the user profile of the first user and the user profile of the second user, the media The guide application may determine the attributes of the command. For example, the media guidance application may determine the attributes of the command (eg, who spoke the command, the tone of the command, the severity of the command, etc.) based on comparing the command to entries in a database of attributes.

メディアガイドアプリケーションは、コマンドの属性をコマンドの複数の結果の属性と比較してもよい。例えば、メディアガイドアプリケーションは、コマンドの属性(例えば、コマンドの発話者、コマンドの口調、コマンドの重大性、コマンドの目的等)をコマンドの複数の結果の属性(例えば、コマンドが従われる場合の結果、コマンドが無視される場合の結果、コマンドに従うことの結論、コマンドに従わないことの結論等)と比較してもよい。 The media guidance application may compare attributes of the command with attributes of multiple results of the command. For example, a media guidance application may match attributes of a command (e.g., who is speaking the command, tone of the command, severity of the command, purpose of the command, etc.) to attributes of multiple outcomes of the command (e.g., the outcome when the command is followed). , the consequences if the command is ignored, the consequences of following the command, the consequences of not following the command, etc.).

メディアガイドアプリケーションは、比較から、コマンドの属性を含有する複数の結果の中の結果を、所望の結果であると決定してもよい。例えば、メディアガイドアプリケーションは、比較から、コマンドの属性(例えば、コマンドの意図された結論)を含有する結果(例えば、ユーザが映画を一時停止して夕食を食べに行く)を、所望の結果であると決定してもよい。 The media guidance application may determine from the comparison that the result among the multiple results containing the attributes of the command is the desired result. For example, the media guidance application may select from the comparison a result containing the attributes of the command (e.g., the intended conclusion of the command) (e.g., the user pauses the movie and goes to dinner) with the desired result. You may decide that there is.

メディアガイドアプリケーションは、第2のユーザによって実行されるアクションを検出してもよい。例えば、メディアガイドアプリケーションは、カメラを介して、ユーザが、映画の再生が起こっている視聴環境から退出し、ダイニングルームに進入したことを検出してもよい。 The media guidance application may detect actions performed by the second user. For example, a media guidance application may detect, via a camera, that a user has left a viewing environment in which a movie is playing and has entered a dining room.

いくつかの実施形態では、メディアガイドアプリケーションが、第2のユーザによって実行されるアクションを検出しているとき、メディアガイドアプリケーションは、センサを使用して、メディアアセットを提示しているメディア機器デバイスの視聴環境から退出する第2のユーザを検出してもよい。例えば、メディアガイドアプリケーションは、モーション検出センサを介して、第2のユーザが、ユーザが映画を鑑賞しているテレビの視聴環境から退出していることを検出してもよい。 In some embodiments, when the media guidance application detects an action performed by the second user, the media guidance application uses the sensor to detect the motion of the media equipment device presenting the media asset. A second user exiting the viewing environment may be detected. For example, the media guidance application may detect, via a motion detection sensor, that a second user is leaving the television viewing environment in which the user is watching a movie.

いくつかの実施形態では、メディアガイドアプリケーションが、第2のユーザによって実行されるアクションを検出しているとき、メディアガイドアプリケーションは、メディアアセットの再生を修正するコマンドを実行する第2のユーザを検出してもよい。例えば、メディアガイドアプリケーションは、リモートコントロールデバイス上の入力コマンド、例えば、「一時停止」を押下し、ユーザが鑑賞している映画の再生を一時停止するユーザを検出してもよい。 In some embodiments, when the media guidance application is detecting actions performed by the second user, the media guidance application detects the second user executing a command to modify the playback of the media asset. You may For example, the media guidance application may detect the user pressing an input command, eg, "pause", on the remote control device to pause playback of the movie the user is watching.

いくつかの実施形態では、メディアガイドアプリケーションが、第2のユーザによって実行されるアクションを検出しているとき、メディアガイドアプリケーションは、センサを使用して、第2のユーザがメディアアセットデバイスの視聴環境内に留まることを検出してもよい。例えば、メディアガイドアプリケーションは、ヒートマッピングセンサを使用して、第2のユーザが、ユーザが映画の再生を鑑賞している長椅子から離れていないことを検出してもよい。 In some embodiments, when the media guidance application is detecting an action performed by a second user, the media guidance application uses the sensors to indicate that the second user is viewing the media asset device's viewing environment. It may detect that it stays inside. For example, the media guidance application may use heat mapping sensors to detect that the second user has not left the couch where the user is watching a movie play.

メディアガイドアプリケーションは、第2のユーザのアクションをコマンドの所望の結果と比較してもよい。例えば、メディアガイドアプリケーションは、アクション(例えば、第2のユーザが映画を鑑賞し続けること)をコマンドの所望の結果(例えば、第2のユーザが夕食を食べに行くこと)と比較してもよい。 The media guidance application may compare the second user's actions with the desired result of the command. For example, the media guidance application may compare an action (eg, the second user continues watching a movie) with the desired result of the command (eg, the second user goes out to dinner). .

いくつかの実施形態では、第2のユーザの読み出された特性からの特性をコマンドと比較するとき、メディアガイドアプリケーションは、年齢、家庭内のランク、他のユーザとの関係、および時刻から成る特性の群から特性を選択してもよく、メディアガイドアプリケーションは、食事、掃除、勉強、調理、および睡眠から成るコマンドの群からコマンドを選択してもよい。 In some embodiments, when comparing the characteristics from the retrieved characteristics of the second user to the command, the media guidance application consists of age, household rank, relationship with other users, and time of day. A characteristic may be selected from a group of characteristics, and the media guidance application may select a command from a group of commands consisting of eating, cleaning, studying, cooking, and sleeping.

メディアガイドアプリケーションは、比較から、コマンドが第2のユーザの特性を共有するかどうかを決定してもよい。例えば、メディアガイドアプリケーションは、比較から、コマンド(例えば、食事)が第2のユーザの特性(例えば、時刻)を共有するかどうかを決定してもよい。 The media guidance application may determine from the comparison whether the command shares the characteristics of the second user. For example, the media guidance application may determine from the comparison whether the command (eg, meal) shares the second user's characteristic (eg, time of day).

コマンドが特性を共有することを決定するステップに応答して、メディアガイドアプリケーションは、メディアアセットの再生を修正してもよい。例えば、コマンドが特性を共有することを決定するステップに応答して、メディアガイドアプリケーションは、メディアアセットの再生を一時停止してもよい。 In response to determining that the command shares characteristics, the media guidance application may modify the playback of the media asset. For example, in response to determining that the command shares properties, the media guidance application may pause playback of the media asset.

第2のユーザのアクションがコマンドの所望の結果に対応しないことを決定するステップに応答して、メディアガイドアプリケーションは、第2のユーザのユーザプロファイルから第2のユーザの特性を読み出してもよい。例えば、メディアガイドアプリケーションは、第2のユーザのユーザプロファイルから特性(例えば、年齢、第1のユーザとの関係、家庭内のユーザランク等)を読み出してもよい。 In response to determining that the second user's action does not correspond to the desired result of the command, the media guidance application may retrieve characteristics of the second user from the second user's user profile. For example, the media guidance application may retrieve characteristics (eg, age, relationship to the first user, user rank within the household, etc.) from the second user's user profile.

メディアガイドアプリケーションは、第1のユーザから検出されるコマンドおよび第2のユーザの読み出された特性に基づいて、メディアアセットの再生を修正するかどうかを決定してもよい。例えば、メディアガイドアプリケーションは、第1のユーザから検出されるコマンド(例えば、夕食を食べる)および第2のユーザの特性(例えば、第2のユーザが、常に、第1のユーザからのコマンドに従わなければならない)に基づいて、メディアアセットの再生を修正する(例えば、一時停止、ミュート、巻き戻し、早送り、オフにする等)かどうかを決定してもよい。 The media guidance application may determine whether to modify the playback of the media asset based on commands detected from the first user and the retrieved characteristics of the second user. For example, the media guidance application may detect commands detected from a first user (e.g., eat dinner) and characteristics of a second user (e.g., the second user should always follow commands from the first user). must), may determine whether to modify the playback of the media asset (eg, pause, mute, rewind, fast forward, turn off, etc.).

いくつかの実施形態では、メディアガイドアプリケーションが、第1のユーザから検出されるコマンドおよび第2のユーザの読み出された特性に基づいて、メディアアセットの再生を修正するかどうかを決定しているとき、メディアガイドアプリケーションは、第1のユーザのランクおよび第2のユーザのランクを読み出してもよい。例えば、メディアガイドアプリケーションは、第1のユーザのランク(例えば、第1のユーザは、5人のユーザの中から第1にランク付けされる)および第2のユーザのランク(例えば、第2のユーザは、5人のユーザの中から第4にランク付けされる)を読み出してもよい。 In some embodiments, the media guidance application determines whether to modify the playback of the media asset based on commands detected from the first user and the retrieved characteristics of the second user. At some point, the media guidance application may retrieve the first user's rank and the second user's rank. For example, the media guidance application may determine the rank of the first user (eg, the first user is ranked first out of five users) and the rank of the second user (eg, the second The user may read (ranked 4th out of 5 users).

メディアガイドアプリケーションは、ランクから、第1のユーザが第2のユーザよりも高くランク付けされているかどうかを決定してもよい。例えば、メディアガイドアプリケーションは、第1のユーザ(例えば、第1にランク付けされる)が第2のユーザ(例えば、第2にランク付けされる)よりも高くランク付けされていることを決定してもよい。 The media guidance application may determine from the ranks whether the first user is ranked higher than the second user. For example, the media guidance application determines that a first user (eg, ranked first) is ranked higher than a second user (eg, ranked second). may

第1のユーザが第2のユーザよりも高くランク付けされていることを決定するステップに応答して、メディアガイドアプリケーションは、メディアアセットの再生を修正してもよい。例えば、第1のユーザが第2のユーザよりも高くランク付けされていることを決定するステップに応答して、メディアガイドアプリケーションは、メディアアセットの再生を修正してもよい(例えば、現在再生している映画を一時停止する)。 In response to determining that the first user is ranked higher than the second user, the media guidance application may modify playback of the media asset. For example, in response to determining that the first user is ranked higher than the second user, the media guidance application may modify the playback of the media asset (e.g., the currently playing media asset). pause the movie that is playing).

第2のユーザが第1のユーザよりも高くランク付けされていることを決定するステップに応答して、メディアガイドアプリケーションは、メディアアセットを再生し続けてもよい。例えば、第2のユーザが第1のユーザよりも高くランク付けされていることを決定するステップに応答して、メディアガイドアプリケーションは、メディアアセット(例えば、第2のユーザが鑑賞している映画)を再生し続けてもよい。 In response to determining that the second user is ranked higher than the first user, the media guidance application may continue playing the media asset. For example, in response to determining that the second user is ranked higher than the first user, the media guidance application may select a media asset (eg, a movie that the second user is watching) may continue to play.

いくつかの実施形態では、メディアガイドアプリケーションは、第1のユーザから第2のユーザおよび第3のユーザへのコマンドを検出してもよい。例えば、メディアガイドアプリケーションは、第1のユーザから第2のユーザおよび第3のユーザへのコマンド(例えば、夕食を食べる)を検出してもよい。 In some embodiments, the media guidance application may detect commands from the first user to the second and third users. For example, the media guidance application may detect commands from a first user to a second user and a third user (eg, eat dinner).

メディアガイドアプリケーションは、第1のユーザのユーザプロファイル、第2のユーザのユーザプロファイル、および第3のユーザのユーザプロファイルに基づいて、コマンドの複数の結果からコマンドの所望の結果を決定してもよい。 The media guidance application may determine a desired result of the command from multiple results of the command based on the first user's user profile, the second user's user profile, and the third user's user profile. .

メディアガイドアプリケーションは、第2のユーザによって実行される第1のアクションおよび第3のユーザによって実行される第2のアクションを検出してもよい。例えば、メディアガイドアプリケーションは、第2のユーザによって実行される第1のアクション(例えば、第2のユーザが映画の音量を上げる)および第3のユーザによって実行される第2のアクション(例えば、モーションセンサが、第3のユーザが視聴環境から退出して夕食を食べに行くことを検出すること)を検出してもよい。 The media guidance application may detect a first action performed by a second user and a second action performed by a third user. For example, the media guidance application may select a first action performed by a second user (e.g., the second user increases the volume of a movie) and a second action performed by a third user (e.g., motion A sensor may detect that a third user has left the viewing environment to go to dinner).

メディアガイドアプリケーションは、第2のユーザのアクションおよび第3のユーザのアクションをコマンドの所望の結果と比較してもよい。例えば、メディアガイドアプリケーションは、第2のユーザのアクション(例えば、リモートを介して映画の音量を上げること)および第3のユーザのアクション(例えば、モーションセンサが視聴環境から退出する第3のユーザを検出すること)をコマンドの所望の結果(例えば、第2および第3のユーザが夕食を食べに行くこと)と比較してもよい。 The media guidance application may compare the second user's action and the third user's action to the desired result of the command. For example, the media guidance application may detect a second user's action (e.g., turning up the volume of a movie via a remote) and a third user's action (e.g., a third user exiting the viewing environment when the motion sensor detecting) may be compared to the desired result of the command (eg, second and third users going out to dinner).

第2のユーザのアクションおよび第3のユーザのアクションがコマンドの所望の結果に対応しないことを決定するステップに応答して、メディアガイドアプリケーションは、第2のユーザのユーザプロファイルから第2のユーザの特性を、第3のユーザのユーザプロファイルから第3のユーザの特性を読み出してもよい。 In response to determining that the second user's action and the third user's action do not correspond to the desired result of the command, the media guidance application selects the second user's action from the second user's user profile. The characteristics may be retrieved from the third user's user profile.

メディアガイドアプリケーションは、第1のユーザから検出されるコマンドおよび第2のユーザの読み出された特性および第3のユーザの読み出された特性に基づいて、メディアアセットの再生を修正するかどうかを決定してもよい。例えば、メディアガイドアプリケーションは、第1のユーザのランクが第2および第3のユーザのランクよりも上であるため、第1のユーザから検出されるコマンド(例えば、夕食を食べる)および第1のユーザの読み出された特性(例えば、ランク等)および第3のユーザの読み出された特性(例えば、ランク等)に基づいて、メディアアセットの再生を修正することを決定してもよい。別の実施例として、メディアガイドアプリケーションは、第3のユーザのランクがコマンドおよび第1のユーザのランクより上であるため、第1のユーザから検出されるコマンド(例えば、夕食を食べる)および第1のユーザの読み出された特性(例えば、ランク等)および第2および第3のユーザの読み出された特性(例えば、ランク等)に基づいて、メディアアセットの再生を修正しないことを決定してもよい。 The media guidance application determines whether to modify the playback of the media asset based on commands detected from the first user and the retrieved characteristics of the second user and the retrieved characteristics of the third user. may decide. For example, the media guidance application may detect a command (e.g., eat dinner) from the first user and the first Based on the retrieved characteristics (eg, rank, etc.) of the user and the retrieved characteristics (eg, rank, etc.) of a third user, it may be determined to modify the playback of the media asset. As another example, the media guidance application detects commands (e.g., have dinner) and the first Determine not to modify the playback of the media asset based on the retrieved characteristics (eg, rank, etc.) of one user and the retrieved characteristics (eg, rank, etc.) of the second and third users. may

本開示のいくつかの側面では、システムおよび方法が、ユーザが音声の目標を満たすアクションを実施する権限を与えられているかどうかを決定するために、本明細書で提供される。例えば、鳴っているドアベルを検出するステップに応答して、ユーザは、ユーザが鑑賞している映画の再生を一時停止することを可能にされる場合とそうではない場合がある。ユーザが子供であり、家に独りでいる場合、ユーザは、家に独りでいるときにドアに応答しないようにユーザを促すために、映画の再生を一時停止することを可能にされ得ない。ユーザが子供であり、その親が家にいる場合、ユーザは、映画の再生を一時停止し、ドアに応答することを可能にされてもよい。 In some aspects of the disclosure, systems and methods are provided herein for determining whether a user is authorized to perform an action that meets a speech goal. For example, in response to detecting a ringing doorbell, the user may or may not be enabled to pause playback of a movie the user is watching. If the user is a child and is home alone, the user may not be allowed to pause the movie playback to prompt the user not to respond to the door when home alone. If the user is a child and their parents are at home, the user may be allowed to pause the movie and answer the door.

この目的および他の目的のために、本開示のいくつかの側面では、メディアガイドアプリケーションは、メディア機器デバイスの外部の第1のデバイスによって生成される音声を検出してもよい。例えば、メディアガイドアプリケーションは、センサを使用して、メディア機器デバイス(例えば、テレビ)の外部の第1のデバイス(例えば、ドアベル)による音声(例えば、ドアベルが鳴ること)を検出してもよい。 For this and other purposes, in some aspects of the disclosure, the media guidance application may detect audio generated by the first device external to the media equipment device. For example, the media guidance application may use a sensor to detect sound (eg, doorbell ringing) by a first device (eg, doorbell) external to the media equipment device (eg, television).

メディアガイドアプリケーションは、複数の目標の中の目標を、複数のアクションの中のアクションのセットおよび複数の音声の中の音声と関連付ける、データベースを記憶してもよい。例えば、メディアガイドアプリケーションは、複数の目標(例えば、ドアに応答する、電話に応答する、家から退出する等)の中の目標(例えば、ドアに応答する)を、複数のアクション(例えば、メディアアセットの再生を一時停止してドアに応答する、メディアアセットの再生を鑑賞し続けてドアベルを無視する等)の中のアクションのセット(例えば、メディアアセットの再生を鑑賞し続けてドアベルを無視する)および複数の音声(例えば、ドアベルが鳴ること、電話が鳴ること、煙検出器のビープ音等)の中の音声(例えば、ドアベルが鳴ること)と関連付ける、データベースを記憶してもよい。 The media guidance application may store a database that associates goals in the plurality of goals with sets of actions in the plurality of actions and sounds in the plurality of sounds. For example, a media guidance application may map a goal (e.g., answer door) within multiple goals (e.g., answer door, answer phone, leave home, etc.) to multiple actions (e.g., media A set of actions within a set of actions (e.g., continue watching a media asset playing and ignore the doorbell, etc.) ) and multiple sounds (eg, doorbell ringing, phone ringing, smoke detector beeping, etc.).

メディアガイドアプリケーションは、第1のデバイスによって生成される音声をデータベースと比較し、音声と関連付けられる目標および目標と関連付けられる対応するアクションのセットを決定してもよい。例えば、メディアガイドアプリケーションは、第1のデバイスによって生成される音声(例えば、ドアベルが鳴ること)を、データベースと比較し、音声と関連付けられる目標(例えば、ドアに応答する)および目標と関連付けられる対応するアクションのセット(例えば、メディアアセットの再生を一時停止する、視聴環境から退出してドアに応答する等)を決定してもよい。 The media guidance application may compare the audio generated by the first device to the database and determine a goal associated with the audio and a set of corresponding actions associated with the goal. For example, the media guidance application compares a sound generated by the first device (e.g., ringing the doorbell) to the database and determines a goal associated with the sound (e.g., answering the door) and a response associated with the goal. A set of actions to take (eg, pause playback of the media asset, exit the viewing environment and answer the door, etc.) may be determined.

いくつかの実施形態では、第1のデバイスによって生成される音声をデータベースと比較し、音声と関連付けられる目標および目標と関連付けられる対応するアクションのセットを決定するとき、メディアガイドアプリケーションは、音声の特性に基づいて、音声とデータベース内のエントリとの間の合致を決定してもよい。例えば、メディアガイドアプリケーションは、音声の特性(例えば、口調、音量、周波数等)を使用し、音声をデータベース内のその対応するエントリと合致させてもよい。 In some embodiments, when comparing the audio generated by the first device to the database and determining a goal associated with the audio and a set of corresponding actions associated with the goal, the media guidance application determines the characteristics of the audio. A match between the speech and the entries in the database may be determined based on the . For example, the media guidance application may use the audio's characteristics (eg, tone, volume, frequency, etc.) to match the audio with its corresponding entry in the database.

メディアガイドアプリケーションは、エントリから、音声と関連付けられる目標を読み出してもよい。例えば、メディアガイドアプリケーションは、エントリから、音声(例えば、ドアベルが鳴ること)と関連付けられる目標(例えば、ドアに応答する)を読み出してもよい。 The media guidance application may retrieve goals associated with the audio from the entry. For example, the media guidance application may read from the entry the goal (eg, answer the door) associated with the sound (eg, ringing the doorbell).

メディアガイドアプリケーションは、エントリから、目標と関連付けられる対応するアクションのセットを読み出してもよい。例えば、メディアガイドアプリケーションは、エントリから、目標(例えば、ドアに応答する)と関連付けられる対応するアクションのセット(例えば、メディアアセットの再生を一時停止する、メディアアセットの再生の音量をミュートする等)を読み出してもよい。 The media guidance application may retrieve from the entry a corresponding set of actions associated with the goal. For example, a media guidance application may, from an entry, create a corresponding set of actions (e.g., pause media asset playback, mute the volume of media asset playback, etc.) associated with a goal (e.g., answering a door). may be read.

メディアガイドアプリケーションは、メディア機器デバイスの視聴環境内のユーザを検出してもよい。例えば、メディアガイドアプリケーションは、センサ(例えば、カメラ)を使用し、メディア機器デバイス(例えば、テレビ)の視聴環境内のユーザを検出してもよい。 The media guidance application may detect the user within the viewing environment of the media equipment device. For example, the media guidance application may use sensors (eg, cameras) to detect users within the viewing environment of media equipment devices (eg, televisions).

いくつかの実施形態では、メディア機器デバイスの視聴環境内のユーザを検出するとき、メディアガイドアプリケーションは、センサを使用して、視聴環境内のユーザの存在を検出してもよい。例えば、メディアガイドアプリケーションは、赤外線センサを使用し、メディア機器デバイス(例えば、テレビ)の視聴環境内のユーザを検出してもよい。 In some embodiments, when detecting a user within the viewing environment of the media equipment device, the media guidance application may use sensors to detect the presence of the user within the viewing environment. For example, the media guidance application may use an infrared sensor to detect the user within the viewing environment of the media equipment device (eg, television).

メディアガイドアプリケーションは、ユーザのユーザプロファイルから、ユーザが目標と関連付けられる決定されたアクションのセットの中のアクションを実施する権限を与えられているかどうかを決定してもよい。例えば、メディアガイドアプリケーションは、ユーザのプロファイル内の承認データベースから、ユーザが目標(例えば、ドアに応答する)と関連付けられる視聴環境から退出する権限を与えられているかどうかを決定してもよい。 The media guidance application may determine from the user's user profile whether the user is authorized to perform actions in the determined set of actions associated with the goal. For example, the media guidance application may determine from an authorization database in the user's profile whether the user is authorized to exit the viewing environment associated with the goal (eg, answer the door).

いくつかの実施形態では、ユーザのユーザプロファイルから、ユーザが目標と関連付けられる決定されたアクションのセットの中のアクションを実施する権限を与えられているかどうかを決定するとき、メディアガイドアプリケーションは、ユーザプロファイルから、ユーザのためのランクを読み出してもよい。例えば、メディアガイドアプリケーションは、ユーザのためのランク(例えば、10の中から8)を読み出してもよい。 In some embodiments, when determining from the user's user profile whether the user is authorized to perform an action in the determined set of actions associated with the goal, the media guidance application prompts the user The rank for the user may be retrieved from the profile. For example, the media guidance application may retrieve the rank (eg, 8 out of 10) for the user.

メディアガイドアプリケーションは、データベースから、アクションのためのランクを読み出してもよい。例えば、メディアガイドアプリケーションは、データベースから、アクション(例えば、視聴環境から退出する)のためのランク(例えば、10の中から5)を読み出してもよい。 The media guidance application may retrieve ranks for actions from a database. For example, the media guidance application may retrieve a rank (eg, 5 out of 10) for an action (eg, exit the viewing environment) from a database.

メディアガイドアプリケーションは、ユーザのためのランクがアクションのためのランクを超えるかどうかを決定してもよい。例えば、メディアガイドアプリケーションは、ユーザのためのランク(例えば、10の中から8)がアクションのためのランク(例えば、10の中から5)を超えることを決定してもよい。 The media guidance application may determine whether the rank for the user exceeds the rank for the action. For example, the media guidance application may determine that the rank for the user (eg, 8 out of 10) exceeds the rank for the action (eg, 5 out of 10).

ユーザのためのランクがアクションのためのランクを超えることを決定するステップに応答して、メディアガイドアプリケーションは、ユーザがアクションを実施する権限を与えられていることを決定してもよい。例えば、メディアガイドアプリケーションは、ユーザが視聴環境から退出する権限を与えられていることを決定してもよい。 In response to determining that the rank for the user exceeds the rank for the action, the media guidance application may determine that the user is authorized to perform the action. For example, the media guidance application may determine that the user is authorized to exit the viewing environment.

ユーザがアクションを実施する権限を与えられていることを決定するステップに応答して、メディアガイドアプリケーションは、検出された音声を示すユーザのための通知を生成してもよい。例えば、メディアガイドアプリケーションは、音声通知(例えば、ドアベル音)を生成して、ユーザのためのメディアアセットの再生に勝るように再生し、検出された音声を示してもよい。 In response to determining that the user is authorized to perform the action, the media guidance application may generate a notification for the user indicating the detected sound. For example, the media guidance application may generate an audio notification (eg, a doorbell sound) and play it over the playback of the media asset for the user, indicating the detected audio.

いくつかの実施形態では、検出された音声を示すユーザのための通知を生成するとき、メディアガイドアプリケーションは、メディア機器デバイス上に表示されるべきオーバーレイを生成してもよく、オーバーレイは、音声についてのユーザのための通知を含有する。例えば、メディアガイドアプリケーションは、メディア機器デバイス上に表示されるべきオーバーレイ(例えば、「ドアベルが鳴っています!」と発するオーバーレイ)を生成してもよい。 In some embodiments, when generating a notification for a user indicating detected audio, the media guidance application may generate an overlay to be displayed on the media equipment device, the overlay indicating the audio. contains notifications for users of For example, the media guidance application may generate an overlay to be displayed on the media equipment device (eg, an overlay stating "The doorbell is ringing!").

メディアガイドアプリケーションは、メディアアセットの再生を修正し、ユーザが目標と関連付けられるアクションを実施することを可能にしてもよい。例えば、メディアガイドアプリケーションは、メディアアセットの再生を修正し(例えば、ユーザが鑑賞している映画を一時停止する)、ユーザが目標(例えば、ドアに応答する)と関連付けられるアクションを実施する(例えば、視聴環境から退出する)ことを可能にしてもよい。 The media guidance application may modify the playback of the media asset and allow the user to perform actions associated with the goal. For example, the media guidance application modifies the playback of a media asset (e.g., pauses a movie the user is watching) and performs an action associated with the user's goal (e.g., respond to a door) (e.g., , exit the viewing environment).

いくつかの実施形態では、メディアアセットの再生を修正し、ユーザが目標と関連付けられるアクションを実施することを可能にするとき、メディアガイドアプリケーションは、データベースから、目標と関連付けられる再生修正のセットを読み出してもよい。例えば、メディアガイドアプリケーションは、データベースから、目標と関連付けられる再生修正のセット(例えば、一時停止、再生、早送り、巻き戻し、ミュート、オン/オフにする等)を読み出してもよい。 In some embodiments, when modifying the playback of a media asset and allowing the user to perform an action associated with the goal, the media guidance application retrieves from the database the set of playback modifications associated with the goal. may For example, the media guidance application may retrieve from a database a set of playback modifications (eg, pause, play, fast forward, rewind, mute, turn on/off, etc.) associated with the goal.

メディアガイドアプリケーションは、ユーザのための選好に基づいて、再生修正のセットから再生修正を選択してもよい。例えば、メディアガイドアプリケーションは、ユーザのための選好(例えば、ユーザがドアに応答している間にいずれのコンテンツも見逃したくない)に基づいて、再生修正のセットから再生修正(例えば、一時停止)を選択してもよい。 The media guidance application may select playback modifications from the set of playback modifications based on preferences for the user. For example, the media guidance application may select a playback modification (eg, pause) from a set of playback modifications based on preferences for the user (eg, the user does not want to miss any content while answering the door). may be selected.

メディアガイドアプリケーションは、選択された再生修正に基づいて、メディアアセットの再生を修正してもよい。例えば、メディアガイドアプリケーションは、選択された再生修正(例えば、メディアアセットの再生を一時停止する)に基づいて、メディアアセットの再生を修正してもよい。 The media guidance application may modify the playback of the media asset based on the selected playback modifications. For example, the media guidance application may modify the playback of the media asset based on selected playback modifications (eg, pause playback of the media asset).

ユーザがアクションを実施する権限を与えられていないことを決定するステップに応答して、メディアガイドアプリケーションは、第2のユーザがアクションを実施するための通知を生成してもよい。例えば、メディアガイドアプリケーションは、アクション(例えば、ドアに応答する)を実施するための通知を生成してもよい(例えば、SMSメッセージを第2のユーザに送信する)。 In response to determining that the user is not authorized to perform the action, the media guidance application may generate a notification for the second user to perform the action. For example, the media guidance application may generate a notification (eg, send an SMS message to the second user) to perform an action (eg, answer the door).

いくつかの実施形態では、メディアガイドアプリケーションは、音声が視聴環境の可聴範囲内であることを決定してもよい。例えば、メディアガイドアプリケーションは、視聴環境内に含有されるセンサ(例えば、マイクロホン)を使用して、音声を検出してもよい。 In some embodiments, the media guidance application may determine that the audio is within audible range of the viewing environment. For example, the media guidance application may use sensors (eg, microphones) contained within the viewing environment to detect audio.

ユーザがアクションを実施する権限を与えられていないことを決定するステップに応答して、メディアガイドアプリケーションは、ユーザがメディアアセットの再生を修正することを防止してもよい。例えば、メディアガイドアプリケーションは、ユーザがメディアガイドアプリケーションの再生を修正することを防止してもよい(例えば、ユーザがメディアアセットの再生を一時停止することを可能にしない)。 In response to determining that the user is not authorized to perform the action, the media guidance application may prevent the user from modifying playback of the media asset. For example, the media guidance application may prevent the user from modifying the playback of the media guidance application (eg, do not allow the user to pause playback of the media asset).

メディアガイドアプリケーションは、メディアアセットの再生を修正し、ユーザが目標と関連付けられるアクションを実施することを防止してもよい。例えば、メディアガイドアプリケーションは、メディアアセットの再生の音量を増加させ、ユーザの可聴範囲内の音声をかき消してもよい。 The media guidance application may modify the playback of the media asset and prevent the user from performing actions associated with the goal. For example, the media guidance application may increase the volume of the playback of the media asset, drowning out sounds within the user's audible range.

いくつかの実施形態では、メディアアセットの再生を修正するとき、メディアガイドアプリケーションは、可聴範囲内である音声を減衰させる音量を決定してもよい。例えば、メディアガイドアプリケーションは、可聴範囲内の音声の決定された音量と同等である、またはそれよりも高い音量を決定してもよい。 In some embodiments, when modifying the playback of a media asset, the media guidance application may determine the volume at which to attenuate sounds that are within the audible range. For example, the media guidance application may determine a volume that is equal to or higher than the determined volume of speech within the audible range.

メディアガイドアプリケーションは、音声を減衰させる音量であるように、メディアアセットの再生に対応する音量を調節してもよい。例えば、メディアガイドアプリケーションは、可聴範囲内の音声の検出された音量よりも高い音量であるように、メディアアセットの再生音量を調節してもよい。
本発明は、例えば、以下を提供する。
(項目1)
方法であって、
第1のユーザから第2のユーザへのコマンドを決定することと、
前記コマンドを、現在再生されているメディアアセットのための再生動作コマンドのセットと比較することと、
前記比較することに応答して、前記コマンドが前記再生動作コマンドのセット内に含有されていないことを決定することと、
前記コマンドが前記再生動作コマンドのセット内に含有されていないことを決定することに応答して、前記第2のユーザが前記コマンドの所望の結果を実行するかどうかを決定することと、
前記第2のユーザが前記コマンドの所望の結果を実行しないことを決定することに応答して、前記メディアアセットの再生を修正するかどうかを決定することと
を含む、方法。
(項目2)
無関係なコマンドを関連する再生修正に変換し、前記コマンドを実行するように前記コマンドの受信者を促すための方法であって、前記方法は、
第1のユーザから第2のユーザへのコマンドを検出することと、
前記コマンドを、前記第2のユーザによって現在再生されているメディアアセットのための再生動作コマンドのセットと比較することと、
前記比較することに応答して、前記コマンドが前記再生動作コマンドのセット内に含有されていないことを決定することと、
前記第1のユーザのユーザプロファイルおよび前記第2のユーザのユーザプロファイルに基づいて、前記コマンドの複数の結果から前記コマンドの所望の結果を決定することと、
前記第2のユーザによって実行されるアクションを検出することと、
前記第2のユーザのアクションを前記コマンドの所望の結果と比較することと、
前記第2のユーザのアクションが前記コマンドの所望の結果に対応しないことを決定することに応答して、前記第2のユーザのユーザプロファイルから前記第2のユーザの特性を読み出すことと、
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定することと
を含む、方法。
(項目3)
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定することは、
前記第2のユーザの読み出された特性からの特性を前記コマンドと比較することであって、前記特性は、年齢、ランク、他のユーザとの関係、および時刻から成る特性の群から選択され、前記コマンドは、食事、掃除、勉強、調理、および睡眠から成るコマンドの群から選択される、ことと、
前記比較から、前記コマンドが前記第2のユーザの特性を共有するかどうかを決定することと、
前記コマンドが前記特性を共有することを決定することに応答して、前記メディアアセットの再生を修正することと
を含む、項目2に記載の方法。
(項目4)
前記第1のユーザから前記第2のユーザおよび第3のユーザへのコマンドを検出することと、
前記第1のユーザのユーザプロファイル、前記第2のユーザのユーザプロファイル、および前記第3のユーザのユーザプロファイルに基づいて、前記コマンドの複数の結果から前記コマンドの所望の結果を決定することと、
前記第2のユーザによって実行される第1のアクションおよび前記第3のユーザによって実行される第2のアクションを検出することと、
前記第2のユーザのアクションおよび前記第3のユーザのアクションを前記コマンドの所望の結果と比較することと、
前記第2のユーザのアクションおよび前記第3のユーザのアクションが前記コマンドの所望の結果に対応しないことを決定することに応答して、前記第2のユーザのユーザプロファイルから前記第2のユーザの特性を、前記第3のユーザのユーザプロファイルから前記第3のユーザの特性を読み出すことと、
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性および前記第3のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定することと
をさらに含む、項目2に記載の方法。
(項目5)
前記第1のユーザからの前記コマンドを検出することは、
前記第1のユーザからの口頭入力を検出することと、
前記口頭入力をコマンドのデータベースと比較することであって、前記データベースは、各口頭入力に対応するコマンドを含有する、ことと、
前記比較から、前記第1のユーザからの前記口頭入力に対応するコマンドを決定することと
を含む、項目2に記載の方法。
(項目6)
前記比較から、前記第1のユーザからの前記口頭入力に対応するコマンドを決定することは、
前記口頭入力と前記口頭コマンドのデータベースとの間の合致を決定することと、
前記合致に対応するコマンドを、前記第1のユーザからの前記口頭入力に対応する前記コマンドであると決定することと
を含む、項目5に記載の方法。
(項目7)
前記第1のユーザのユーザプロファイルおよび前記第2のユーザのユーザプロファイルに基づいて、前記コマンドの複数の結果から前記コマンドの所望の結果を決定することはさらに、
前記コマンドの属性を決定することと、
前記コマンドの属性を前記コマンドの複数の結果の属性と比較することと、
前記比較から、前記コマンドの属性を含有する前記複数の結果の中の結果を、前記所望の結果であると決定することと
を含む、項目2に記載の方法。
(項目8)
前記第2のユーザによって実行される前記アクションを検出することは、センサを使用して、前記メディアアセットを提示しているメディア機器デバイスの視聴環境から退出する前記第2のユーザを検出することを含む、項目2に記載の方法。
(項目9)
前記第2のユーザによって実行される前記アクションを検出することは、前記メディアアセットの再生を修正するコマンドを実行する前記第2のユーザを検出することを含む、項目2に記載の方法。
(項目10)
前記第2のユーザによって実行される前記アクションを検出することは、センサを使用して、前記第2のユーザがメディアアセットデバイスの前記視聴環境内に留まることを検出することを含む、項目2に記載の方法。
(項目11)
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定することは、
前記第1のユーザのランクおよび前記第2のユーザのランクを読み出すことと、
前記ランクから、前記第1のユーザが前記第2のユーザよりも高くランク付けされているかどうかを決定することと、
前記第1のユーザが前記第2のユーザよりも高くランク付けされていることを決定することに応答して、前記メディアアセットの再生を修正することと、
前記第2のユーザが前記第1のユーザよりも高くランク付けされていることを決定することに応答して、前記メディアアセットを再生し続けることと
を含む、項目2に記載の方法。
(項目12)
無関係なコマンドを関連する再生修正に変換し、前記コマンドを実行するように前記コマンドの受信者を促すためのシステムであって、前記システムは、
制御回路であって、
第1のユーザから第2のユーザへのコマンドを検出することと、
前記コマンドを、前記第2のユーザによって現在再生されているメディアアセットのための再生動作コマンドのセットと比較することと、
前記比較することに応答して、前記コマンドが前記再生動作コマンドのセット内に含有されていないことを決定することと、
前記第1のユーザのユーザプロファイルおよび前記第2のユーザのユーザプロファイルに基づいて、前記コマンドの複数の結果から前記コマンドの所望の結果を決定することと、
前記第2のユーザによって実行されるアクションを検出することと、
前記第2のユーザのアクションを前記コマンドの所望の結果と比較することと、
前記第2のユーザのアクションが前記コマンドの所望の結果に対応しないことを決定することに応答して、前記第2のユーザのユーザプロファイルから前記第2のユーザの特性を読み出すことと、
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定することと
を行うように構成される、制御回路
を備える、システム。
(項目13)
前記制御回路は、
前記第2のユーザの読み出された特性からの特性を前記コマンドと比較することであって、前記特性は、年齢、ランク、他のユーザとの関係、および時刻から成る特性の群から選択され、前記コマンドは、食事、掃除、勉強、調理、および睡眠から成るコマンドの群から選択される、ことと、
前記比較から、前記コマンドが前記第2のユーザの特性を共有するかどうかを決定することと、
前記コマンドが前記特性を共有することを決定することに応答して、前記メディアアセットの再生を修正することと
によって、前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定するように構成される、項目12に記載のシステム。
(項目14)
前記制御回路はさらに、
前記第1のユーザから前記第2のユーザおよび第3のユーザへのコマンドを検出することと、
前記第1のユーザのユーザプロファイル、前記第2のユーザのユーザプロファイル、および前記第3のユーザのユーザプロファイルに基づいて、前記コマンドの複数の結果から前記コマンドの所望の結果を決定することと、
前記第2のユーザによって実行される第1のアクションおよび前記第3のユーザによって実行される第2のアクションを検出することと、
前記第2のユーザのアクションおよび前記第3のユーザのアクションを前記コマンドの所望の結果と比較することと、
前記第2のユーザのアクションおよび前記第3のユーザのアクションが前記コマンドの所望の結果に対応しないことを決定することに応答して、前記第2のユーザのユーザプロファイルから前記第2のユーザの特性を、前記第3のユーザのユーザプロファイルから前記第3のユーザの特性を読み出すことと、
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性および前記第3のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定することと
を行うように構成される、項目12に記載のシステム。
(項目15)
前記制御回路は、
前記第1のユーザからの口頭入力を検出することと、
前記口頭入力をコマンドのデータベースと比較することであって、前記データベースは、各口頭入力に対応するコマンドを含有する、ことと、
前記比較から、前記第1のユーザからの前記口頭入力に対応するコマンドを決定することと
によって、前記第1のユーザからの前記コマンドを検出するように構成される、項目12に記載のシステム。
(項目16)
前記制御回路は、
前記口頭入力と前記口頭コマンドのデータベースとの間の合致を決定することと、
前記合致に対応するコマンドを、前記第1のユーザからの前記口頭入力に対応する前記コマンドであると決定することと
によって、前記比較から、前記第1のユーザからの前記口頭入力に対応するコマンドを決定するように構成される、項目15に記載の方法。
(項目17)
前記制御回路はさらに、
前記コマンドの属性を決定することと、
前記コマンドの属性を前記コマンドの複数の結果の属性と比較することと、
前記比較から、前記コマンドの属性を含有する前記複数の結果の中の結果を、前記所望の結果であると決定することと
によって、前記第1のユーザのユーザプロファイルおよび前記第2のユーザのユーザプロファイルに基づいて、前記コマンドの複数の結果から前記コマンドの所望の結果を決定するように構成される、
項目12に記載のシステム。
(項目18)
前記制御回路は、センサを使用して、前記メディアアセットを提示しているメディア機器デバイスの視聴環境から退出する前記第2のユーザを検出することによって、前記第2のユーザによって実行される前記アクションを検出するように構成される、項目12に記載のシステム。
(項目19)
前記制御回路は、前記メディアアセットの再生を修正するコマンドを実行する前記第2のユーザを検出することによって、前記第2のユーザによって実行される前記アクションを検出するように構成される、項目12に記載のシステム。
(項目20)
前記制御回路は、センサを使用して、前記第2のユーザがメディアアセットデバイスの前記視聴環境内に留まることを検出することによって、前記第2のユーザによって実行される前記アクションを検出するように構成される、項目12に記載のシステム。
(項目21)
前記制御回路は、
前記第1のユーザのランクおよび前記第2のユーザのランクを読み出すことと、
前記ランクから、前記第1のユーザが前記第2のユーザよりも高くランク付けされているかどうかを決定することと、
前記第1のユーザが前記第2のユーザよりも高くランク付けされていることを決定することに応答して、前記メディアアセットの再生を修正することと、
前記第2のユーザが前記第1のユーザよりも高くランク付けされていることを決定することに応答して、前記メディアアセットを再生し続けることと
によって、前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定するように構成される、項目12に記載のシステム。
(項目22)
無関係なコマンドを関連する再生修正に変換し、前記コマンドを実行するように前記コマンドの受信者を促すための装置であって、前記装置は、
第1のユーザから第2のユーザへのコマンドを検出するための手段と、
前記コマンドを、前記第2のユーザによって現在再生されているメディアアセットのための再生動作コマンドのセットと比較するための手段と、
前記比較することに応答して、前記コマンドが前記再生動作コマンドのセット内に含有されていないことを決定するための手段と、
前記第1のユーザのユーザプロファイルおよび前記第2のユーザのユーザプロファイルに基づいて、前記コマンドの複数の結果から前記コマンドの所望の結果を決定するための手段と、
前記第2のユーザによって実行されるアクションを検出するための手段と、
前記第2のユーザのアクションを前記コマンドの所望の結果と比較するための手段と、
前記第2のユーザのアクションが前記コマンドの所望の結果に対応しないことを決定することに応答して、前記第2のユーザのユーザプロファイルから前記第2のユーザの特性を読み出すための手段と、
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定するための手段と
を備える、装置。
(項目23)
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定するための前記手段は、
前記第2のユーザの読み出された特性からの特性を前記コマンドと比較するための手段であって、前記特性は、年齢、ランク、他のユーザとの関係、および時刻から成る特性の群から選択され、前記コマンドは、食事、掃除、勉強、調理、および睡眠から成るコマンドの群から選択される、手段と、
前記比較から、前記コマンドが前記第2のユーザの特性を共有するかどうかを決定するための手段と、
前記コマンドが前記特性を共有することを決定することに応答して、前記メディアアセットの再生を修正するための手段と
を備える、項目22に記載の装置。
(項目24)
前記第1のユーザから前記第2のユーザおよび第3のユーザへのコマンドを検出するための手段と、
前記第1のユーザのユーザプロファイル、前記第2のユーザのユーザプロファイル、および前記第3のユーザのユーザプロファイルに基づいて、前記コマンドの複数の結果から前記コマンドの所望の結果を決定するための手段と、
前記第2のユーザによって実行される第1のアクションおよび前記第3のユーザによって実行される第2のアクションを検出するための手段と、
前記第2のユーザのアクションおよび前記第3のユーザのアクションを前記コマンドの所望の結果と比較するための手段と、
前記第2のユーザのアクションおよび前記第3のユーザのアクションが前記コマンドの所望の結果に対応しないことを決定することに応答して、前記第2のユーザのユーザプロファイルから前記第2のユーザの特性を、前記第3のユーザのユーザプロファイルから前記第3のユーザの特性を読み出すための手段と、
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性および前記第3のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定するための手段と
をさらに備える、項目22に記載の装置。
(項目25)
前記第1のユーザからの前記コマンドを検出するための前記手段は、
前記第1のユーザからの口頭入力を検出するための手段と、
前記口頭入力をコマンドのデータベースと比較するための手段であって、前記データベースは、各口頭入力に対応するコマンドを含有する、手段と、
前記比較から、前記第1のユーザからの前記口頭入力に対応するコマンドを決定するための手段と
を備える、項目22に記載の装置。
(項目26)
前記比較から、前記第1のユーザからの前記口頭入力に対応するコマンドを決定するための前記手段は、
前記口頭入力と前記口頭コマンドのデータベースとの間の合致を決定するための手段と、
前記合致に対応するコマンドを、前記第1のユーザからの前記口頭入力に対応する前記コマンドであると決定するための手段と
を備える、項目25に記載の装置。
(項目27)
前記第1のユーザのユーザプロファイルおよび前記第2のユーザのユーザプロファイルに基づいて、前記コマンドの複数の結果から前記コマンドの所望の結果を決定するための前記手段はさらに、
前記コマンドの属性を決定するための手段と、
前記コマンドの属性を前記コマンドの複数の結果の属性と比較するための手段と、
前記比較から、前記コマンドの属性を含有する前記複数の結果の中の結果を、前記所望の結果であると決定するための手段と
を備える、項目22に記載の装置。
(項目28)
前記第2のユーザによって実行される前記アクションを検出するための前記手段は、センサを使用して、前記メディアアセットを提示しているメディア機器デバイスの視聴環境から退出する前記第2のユーザを検出するための手段を備える、項目22に記載の装置。
(項目29)
前記第2のユーザによって実行される前記アクションを検出するための前記手段は、前記メディアアセットの再生を修正するコマンドを実行する前記第2のユーザを検出するための手段を備える、項目22に記載の装置。
(項目30)
前記第2のユーザによって実行される前記アクションを検出するための前記手段は、センサを使用して、前記第2のユーザがメディアアセットデバイスの前記視聴環境内に留まることを検出するための手段を備える、項目22に記載の装置。
(項目31)
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定するための前記手段は、
前記第1のユーザのランクおよび前記第2のユーザのランクを読み出すための手段と、
前記ランクから、前記第1のユーザが前記第2のユーザよりも高くランク付けされているかどうかを決定するための手段と、
前記第1のユーザが前記第2のユーザよりも高くランク付けされていることを決定することに応答して、前記メディアアセット再生を修正するための手段と、
前記第2のユーザが前記第1のユーザよりも高くランク付けされていることを決定することに応答して、前記メディアアセットを再生し続けるための手段と
を含む、項目22に記載の装置。
(項目32)
非一過性のコンピュータ可読媒体であって、前記非一過性のコンピュータ可読媒体は、メモリを備え、前記メモリは、無関係なコマンドを関連する再生修正に変換し、前記コマンドを実行するように前記コマンドの受信者を促すための、前記メモリ上にエンコードされた非一過性のコンピュータ可読命令を有しており、前記命令は、
第1のユーザから第2のユーザへのコマンドを検出するための命令と、
前記コマンドを、前記第2のユーザによって現在再生されているメディアアセットのための再生動作コマンドのセットと比較するための命令と、
前記比較することに応答して、前記コマンドが前記再生動作コマンドのセット内に含有されていないことを決定するための命令と、
前記第1のユーザのユーザプロファイルおよび前記第2のユーザのユーザプロファイルに基づいて、前記コマンドの複数の結果から前記コマンドの所望の結果を決定するための命令と、
前記第2のユーザによって実行されるアクションを検出するための命令と、
前記第2のユーザのアクションを前記コマンドの所望の結果と比較するための命令と、
前記第2のユーザのアクションが前記コマンドの所望の結果に対応しないことを決定することに応答して、前記第2のユーザのユーザプロファイルから前記第2のユーザの特性を読み出すための命令と、
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定するための命令と
を備える、非一過性のコンピュータ可読媒体。
(項目33)
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定するための前記命令は、
前記第2のユーザの読み出された特性からの特性を前記コマンドと比較するための命令であって、前記特性は、年齢、ランク、他のユーザとの関係、および時刻から成る特性の群から選択され、前記コマンドは、食事、掃除、勉強、調理、および睡眠から成るコマンドの群から選択される、命令と、
前記比較から、前記コマンドが前記第2のユーザの特性を共有するかどうかを決定するための命令と、
前記コマンドが前記特性を共有することを決定することに応答して、前記メディアアセットの再生を修正するための命令と
を備える、項目32に記載の非一過性のコンピュータ可読媒体。
(項目34)
前記命令はさらに、
前記第1のユーザから前記第2のユーザおよび第3のユーザへのコマンドを検出するための命令と、
前記第1のユーザのユーザプロファイル、前記第2のユーザのユーザプロファイル、および前記第3のユーザのユーザプロファイルに基づいて、前記コマンドの複数の結果から前記コマンドの所望の結果を決定するための命令と、
前記第2のユーザによって実行される第1のアクションおよび前記第3のユーザによって実行される第2のアクションを検出するための命令と、
前記第2のユーザのアクションおよび前記第3のユーザのアクションを前記コマンドの所望の結果と比較するための命令と、
前記第2のユーザのアクションおよび前記第3のユーザのアクションが前記コマンドの所望の結果に対応しないことを決定することに応答して、前記第2のユーザのユーザプロファイルから前記第2のユーザの特性を、前記第3のユーザのユーザプロファイルから前記第3のユーザの特性を読み出すための命令と、
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性および前記第3のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定するための命令と
を備える、項目32に記載の非一過性のコンピュータ可読媒体。
(項目35)
前記第1のユーザからの前記コマンドを検出するための前記命令は、
前記第1のユーザからの口頭入力を検出するための命令と、
前記口頭入力をコマンドのデータベースと比較するための命令であって、前記データベースは、各口頭入力に対応するコマンドを含有する、命令と、
前記比較から、前記第1のユーザからの前記口頭入力に対応するコマンドを決定するための命令と
を備える、項目32に記載の非一過性のコンピュータ可読媒体。
(項目36)
前記比較から、前記第1のユーザからの前記口頭入力に対応するコマンドを決定するための前記命令は、
前記口頭入力と前記口頭コマンドのデータベースとの間の合致を決定するための命令と、
前記合致に対応するコマンドを、前記第1のユーザからの前記口頭入力に対応する前記コマンドであると決定するための命令と
を備える、項目35に記載の非一過性のコンピュータ可読媒体。
(項目37)
前記第1のユーザのユーザプロファイルおよび前記第2のユーザのユーザプロファイルに基づいて、前記コマンドの複数の結果から前記コマンドの所望の結果を決定するための前記命令はさらに、
前記コマンドの属性を決定するための命令と、
前記コマンドの属性を前記コマンドの複数の結果の属性と比較するための命令と、
前記比較から、前記コマンドの属性を含有する前記複数の結果の中の結果を、前記所望の結果であると決定するための命令と
を備える、項目32に記載の非一過性のコンピュータ可読媒体。
(項目38)
前記第2のユーザによって実行される前記アクションを検出するための前記命令は、センサを使用して、前記メディアアセットを提示しているメディア機器デバイスの視聴環境から退出する前記第2のユーザを検出するための命令を備える、項目32に記載の非一過性のコンピュータ可読媒体。
(項目39)
前記第2のユーザによって実行される前記アクションを検出するための前記命令は、前記メディアアセットの再生を修正するコマンドを実行する前記第2のユーザを検出するための命令を備える、項目32に記載の非一過性のコンピュータ可読媒体。
(項目40)
前記第2のユーザによって実行される前記アクションを検出するための前記命令は、センサを使用して、前記第2のユーザがメディアアセットデバイスの前記視聴環境内に留まることを検出するための命令を備える、項目32に記載の非一過性のコンピュータ可読媒体。
(項目41)
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定するための前記命令は、
前記第1のユーザのランクおよび前記第2のユーザのランクを読み出すための命令と、
前記ランクから、前記第1のユーザが前記第2のユーザよりも高くランク付けされているかどうかを決定するための命令と、
前記第1のユーザが前記第2のユーザよりも高くランク付けされていることを決定することに応答して、前記メディアアセットの再生を修正するための命令と、
前記第2のユーザが前記第1のユーザよりも高くランク付けされていることを決定することに応答して、前記メディアアセットを再生し続けるための命令と
を備える、項目32に記載の非一過性のコンピュータ可読媒体。
(項目42)
無関係なコマンドを関連する再生修正に変換し、前記コマンドを実行するように前記コマンドの受信者を促すための方法であって、前記方法は、
制御回路を使用して、第1のユーザから第2のユーザへのコマンドを検出することと、
前記コマンドを、前記第2のユーザによって現在再生されているメディアアセットのための再生動作コマンドのセットと比較することと、
前記比較することに応答して、前記コマンドが前記再生動作コマンドのセット内に含有されていないことを決定することと、
前記第1のユーザのユーザプロファイルおよび前記第2のユーザのユーザプロファイルに基づいて、前記コマンドの複数の結果から前記コマンドの所望の結果を決定することと、
前記第2のユーザによって実行されるアクションを検出することと、
前記第2のユーザのアクションを前記コマンドの所望の結果と比較することと、
前記第2のユーザのアクションが前記コマンドの所望の結果に対応しないことを決定することに応答して、前記第2のユーザのユーザプロファイルから前記第2のユーザの特性を読み出すことと、
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定することと
を含む、方法。
(項目43)
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定することは、
前記第2のユーザの読み出された特性からの特性を前記コマンドと比較することであって、前記特性は、年齢、ランク、他のユーザとの関係、および時刻から成る特性の群から選択され、前記コマンドは、食事、掃除、勉強、調理、および睡眠から成るコマンドの群から選択される、ことと、
前記比較から、前記コマンドが前記第2のユーザの特性を共有するかどうかを決定することと、
前記コマンドが前記特性を共有することを決定することに応答して、前記メディアアセットの再生を修正することと
を含む、項目42に記載の方法。
(項目44)
前記第1のユーザから前記第2のユーザおよび第3のユーザへのコマンドを検出することと、
前記第1のユーザのユーザプロファイル、前記第2のユーザのユーザプロファイル、および前記第3のユーザのユーザプロファイルに基づいて、前記コマンドの複数の結果から前記コマンドの所望の結果を決定することと、
前記第2のユーザによって実行される第1のアクションおよび前記第3のユーザによって実行される第2のアクションを検出することと、
前記第2のユーザのアクションおよび前記第3のユーザのアクションを前記コマンドの所望の結果と比較することと、
前記第2のユーザのアクションおよび前記第3のユーザのアクションが前記コマンドの所望の結果に対応しないことを決定することに応答して、前記第2のユーザのユーザプロファイルから前記第2のユーザの特性を、前記第3のユーザのユーザプロファイルから前記第3のユーザの特性を読み出すことと、
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性および前記第3のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定することと
をさらに含む、項目42-43のいずれかに記載の方法。
(項目45)
前記第1のユーザからの前記コマンドを検出することは、
前記第1のユーザからの口頭入力を検出することと、
前記口頭入力をコマンドのデータベースと比較することであって、前記データベースは、各口頭入力に対応するコマンドを含有する、ことと、
前記比較から、前記第1のユーザからの前記口頭入力に対応するコマンドを決定することと
を含む、項目42-44のいずれかに記載の方法。
(項目46)
前記比較から、前記第1のユーザからの前記口頭入力に対応するコマンドを決定することは、
前記口頭入力と前記口頭コマンドのデータベースとの間の合致を決定することと、
前記合致に対応するコマンドを、前記第1のユーザからの前記口頭入力に対応する前記コマンドであると決定することと
を含む、項目45に記載の方法。
(項目47)
前記第1のユーザのユーザプロファイルおよび前記第2のユーザのユーザプロファイルに基づいて、前記コマンドの複数の結果から前記コマンドの所望の結果を決定することはさらに、
前記コマンドの属性を決定することと、
前記コマンドの属性を前記コマンドの複数の結果の属性と比較することと、
前記比較から、前記コマンドの属性を含有する前記複数の結果の中の結果を、前記所望の結果であると決定することと
を含む、項目42-46のいずれかに記載の方法。
(項目48)
前記第2のユーザによって実行される前記アクションを検出することは、センサを使用して、前記メディアアセットを提示しているメディア機器デバイスの視聴環境から退出する前記第2のユーザを検出することを含む、項目42-47のいずれかに記載の方法。
(項目49)
前記第2のユーザによって実行される前記アクションを検出することは、前記メディアアセットの再生を修正するコマンドを実行する前記第2のユーザを検出することを含む、項目42-48のいずれかに記載の方法。
(項目50)
前記第2のユーザによって実行される前記アクションを検出することは、センサを使用して、前記第2のユーザがメディアアセットデバイスの前記視聴環境内に留まることを検出することを含む、項目42-49のいずれかに記載の方法。
(項目51)
前記第1のユーザから検出される前記コマンドおよび前記第2のユーザの読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定することは、
前記第1のユーザのランクおよび前記第2のユーザのランクを読み出すことと、
前記ランクから、前記第1のユーザが前記第2のユーザよりも高くランク付けされているかどうかを決定することと、
前記第1のユーザが前記第2のユーザよりも高くランク付けされていることを決定することに応答して、前記メディアアセットの再生を修正することと、
前記第2のユーザが前記第1のユーザよりも高くランク付けされていることを決定することに応答して、前記メディアアセットを再生し続けることと
を含む、項目42-50のいずれかに記載の方法。
(項目52)
方法であって、
メディア機器デバイスの外部の第1のデバイスによって生成される音声を検出することと、
ルックアップテーブルから、前記音声と関連付けられる既知の目標を読み出すことと、
視聴環境内のユーザを検出することと、
前記ユーザの身元を決定することと、
再生を修正し、前記ユーザの身元に基づいて、前記ユーザが前記既知の目標を達成することを促す、または妨げることと
を含む、方法。
(項目53)
ユーザが音声に対応する目標を満たすアクションを実施する権限を与えられているかどうかを決定するための方法であって、
メディア機器デバイスの外部の第1のデバイスによって生成される音声を検出することと、
複数の目標の中の各目標を、複数のアクションの中のアクションのセットおよび複数の音声の中の音声と関連付けるデータベースを記憶することと、
前記第1のデバイスによって生成される前記音声を、前記データベース内のエントリの特性と比較し、前記音声に対応する目標および前記目標と関連付けられる対応するアクションのセットを決定することと、
前記メディア機器デバイスの視聴環境内のユーザを検出することと、
前記ユーザのためのユーザプロファイルから、前記ユーザが前記目標と関連付けられる前記決定されたアクションのセットの中のアクションを実施する権限を与えられているかどうかを決定することと、
前記ユーザが前記アクションを実施する権限を与えられていることを決定することに応答して、
前記検出された音声を示す前記ユーザのための通知を生成することと、
メディアアセットの再生を修正し、前記目標と関連付けられる前記アクションを実施するように前記ユーザを促すことと、
前記ユーザが前記アクションを実施する権限を与えられていないことを決定することに応答して、第2のユーザが前記アクションを実施するための通知を生成することと
を含む、方法。
(項目54)
前記音声が前記視聴環境の可聴範囲内であることを決定することと、
前記ユーザが前記アクションを実施する権限を与えられていないことを決定することに応答して、前記ユーザが前記メディアアセットの再生を修正することを防止することと
をさらに含む、項目53に記載の方法。
(項目55)
前記メディアアセットの再生を修正し、前記ユーザが前記目標と関連付けられる前記アクションを実施することを防止することをさらに含む、項目54に記載の方法。
(項目56)
前記メディアアセットの再生を修正することは、
前記可聴範囲内である前記音声を減衰させる音量を決定することと、
前記音声を減衰させる音量であるように、前記メディアアセットの再生に対応する音量を調節することと
を含む、項目55に記載の方法。
(項目57)
前記第1のデバイスによって生成される前記音声を前記データベースと比較し、前記音声と関連付けられる目標および前記目標と関連付けられる前記対応するアクションのセットを決定することは、
前記音声の特性に基づいて、前記音声と前記データベース内のエントリとの間の合致を決定することと、
前記エントリから、前記音声に対応する前記目標を読み出すことと、
前記エントリから、前記目標と関連付けられる前記対応するアクションのセットを読み出すことと
を含む、項目53に記載の方法。
(項目58)
前記メディアデバイスの視聴環境内の前記ユーザを検出することは、センサを使用して、前記視聴環境内の前記ユーザの存在を検出することを含む、項目53に記載の方法。
(項目59)
前記検出された音声を示す前記ユーザのための通知を生成することは、前記メディア機器デバイス上に表示されるべきオーバーレイを生成することを含み、前記オーバーレイは、前記音声についての前記ユーザのための通知を含有する、項目53に記載の方法。
(項目60)
前記音声は、ドアベルから検出される、項目53に記載の方法。
(項目61)
前記メディアアセットの再生を修正し、前記ユーザが前記目標と関連付けられる前記アクションを実施することを可能にすることは、
前記データベースから、前記目標と関連付けられる再生修正のセットを読み出すことと、
前記ユーザのための選好に基づいて、前記再生修正のセットから再生修正を選択することと、
前記選択された再生修正に基づいて、前記メディアアセットの再生を修正することと
を含む、項目53に記載の方法。
(項目62)
前記ユーザのためのユーザプロファイルから、前記ユーザが前記目標と関連付けられる前記決定されたアクションのセットの中のアクションを実施する権限を与えられているかどうかを決定することは、
前記ユーザプロファイルから、前記ユーザのためのランクを読み出すことと、
データベースから、アクションのためのランクを読み出すことと、
前記ユーザのためのランクが前記アクションのためのランクを超えるかどうかを決定することと、
前記ユーザのためのランクが前記アクションのためのランクを超えることを決定することに応答して、前記ユーザが前記アクションを実施する権限を与えられていることを決定することと
を含む、項目53に記載の方法。
(項目63)
ユーザが音声に対応する目標を満たすアクションを実施する権限を与えられているかどうかを決定するためのシステムであって、
制御回路であって、
メディア機器デバイスの外部の第1のデバイスによって生成される音声を検出することと、
複数の目標の中の各目標を、複数のアクションの中のアクションのセットおよび複数の音声の中の音声と関連付けるデータベースを記憶することと、
前記第1のデバイスによって生成される前記音声を、前記データベース内のエントリの特性と比較し、前記音声に対応する目標および前記目標と関連付けられる対応するアクションのセットを決定することと、
前記メディア機器デバイスの視聴環境内のユーザを検出することと、
前記ユーザのためのユーザプロファイルから、前記ユーザが前記目標と関連付けられる前記決定されたアクションのセットの中のアクションを実施する権限を与えられているかどうかを決定することと、
前記ユーザが前記アクションを実施する権限を与えられていることを決定することに応答して、
前記検出された音声を示す前記ユーザのための通知を生成することと、
メディアアセットの再生を修正して、前記目標と関連付けられる前記アクションを実施するように前記ユーザを促すことと、
前記ユーザが前記アクションを実施する権限を与えられていないことを決定することに応答して、第2のユーザが前記アクションを実施するための通知を生成することと
を行うように構成される、制御回路
を備える、システム。
(項目64)
制御回路はさらに、
前記音声が前記視聴環境の可聴範囲内であることを決定することと、
前記ユーザが前記アクションを実施する権限を与えられていないことを決定することに応答して、前記ユーザが前記メディアアセットの再生を修正することを防止することと
を行うように構成される、項目63に記載のシステム。
(項目65)
制御回路はさらに、前記メディアアセットの再生を修正し、前記ユーザが前記目標と関連付けられる前記アクションを実施することを防止するように構成される、項目64に記載のシステム。
(項目66)
前記制御回路は、
前記可聴範囲内である前記音声を減衰させる音量を決定することと、
前記音声を減衰させる音量であるように、前記メディアアセットの再生に対応する音量を調節することと
によって、前記メディアアセットの再生を修正するように構成される、
項目65に記載のシステム。
(項目67)
前記制御回路は、
前記音声の特性に基づいて、前記音声と前記データベース内のエントリとの間の合致を決定することと、
前記エントリから、前記音声に対応する前記目標を読み出すことと、
前記エントリから、前記目標と関連付けられる前記対応するアクションのセットを読み出すことと
によって、前記第1のデバイスによって生成される前記音声を前記データベースと比較し、前記音声と関連付けられる目標および前記目標と関連付けられる前記対応するアクションのセットを決定するように構成される、項目63に記載のシステム。
(項目68)
前記制御回路は、センサを使用して、前記視聴環境内の前記ユーザの存在を検出することによって、前記メディアデバイスの視聴環境内の前記ユーザを検出するように構成される、項目12に記載のシステム。
(項目69)
前記制御回路は、前記メディア機器デバイス上に表示されるべきオーバーレイを生成することによって、前記検出された音声を示す前記ユーザのための通知を生成するように構成され、前記オーバーレイは、前記音声についての前記ユーザのための通知を含有する、項目63に記載のシステム。
(項目70)
前記音声は、ドアベルから検出される、項目63に記載のシステム。
(項目71)
前記制御回路は、
前記データベースから、前記目標と関連付けられる再生修正のセットを読み出すことと、
前記ユーザのための選好に基づいて、前記再生修正のセットから再生修正を選択することと、
前記選択された再生修正に基づいて、前記メディアアセットの再生を修正することと
によって、前記メディアアセットの再生を修正し、前記ユーザが前記目標と関連付けられる前記アクションを実施することを可能にするように構成される、項目12に記載のシステム。
(項目72)
前記制御回路は、
前記ユーザプロファイルから、前記ユーザのためのランクを読み出すことと、
データベースから、アクションのためのランクを読み出すことと、
前記ユーザのためのランクが前記アクションのためのランクを超えるかどうかを決定することと、
前記ユーザのためのランクが前記アクションのためのランクを超えることを決定することに応答して、前記ユーザが前記アクションを実施する権限を与えられていることを決定することと
によって、前記ユーザのためのユーザプロファイルから、前記ユーザが前記目標と関連付けられる前記決定されたアクションのセットの中のアクションを実施する権限を与えられているかどうかを決定するように構成される、項目63に記載のシステム。
(項目73)
ユーザが音声に対応する目標を満たすアクションを実施する権限を与えられているかどうかを決定するための装置であって、前記装置は、
メディア機器デバイスの外部の第1のデバイスによって生成される音声を検出するための手段と、
複数の目標の中の各目標を、複数のアクションの中のアクションのセットおよび複数の音声の中の音声と関連付けるデータベースを記憶するための手段と、
前記第1のデバイスによって生成される前記音声を、前記データベース内のエントリの特性と比較し、前記音声に対応する目標および前記目標と関連付けられる対応するアクションのセットを決定するための手段と、
前記メディア機器デバイスの視聴環境内のユーザを検出するための手段と、
前記ユーザのためのユーザプロファイルから、前記ユーザが前記目標と関連付けられる前記決定されたアクションのセットの中のアクションを実施する権限を与えられているかどうかを決定するための手段と、
前記ユーザが前記アクションを実施する権限を与えられていることを決定することに応答して、
前記検出された音声を示す前記ユーザのための通知を生成するための手段と、
メディアアセットの再生を修正し、前記目標と関連付けられる前記アクションを実施するように前記ユーザを促すための手段と、
前記ユーザが前記アクションを実施する権限を与えられていないことを決定することに応答して、第2のユーザが前記アクションを実施するための通知を生成するための手段と
を備える、装置。
(項目74)
前記音声が前記視聴環境の可聴範囲内であることを決定するための手段と、
前記ユーザが前記アクションを実施する権限を与えられていないことを決定することに応答して、前記ユーザが前記メディアアセットの再生を修正することを防止するための手段と
をさらに備える、項目73に記載の装置。
(項目75)
前記メディアアセットの再生を修正し、前記ユーザが前記目標と関連付けられる前記アクションを実施することを防止するための手段をさらに備える、項目74に記載の装置。
(項目76)
前記メディアアセットの再生を修正するための前記手段は、
前記可聴範囲内である前記音声を減衰させる音量を決定するための手段と、
前記音声を減衰させる音量であるように、前記メディアアセットの再生に対応する音量を調節するための手段と
を備える、項目75に記載の装置。
(項目77)
前記第1のデバイスによって生成される前記音声を前記データベースと比較し、前記音声と関連付けられる目標および前記目標と関連付けられる前記対応するアクションのセットを決定するための前記手段は、
前記音声の特性に基づいて、前記音声と前記データベース内のエントリとの間の合致を決定するための手段と、
前記エントリから、前記音声に対応する前記目標を読み出すための手段と、
前記エントリから、前記目標と関連付けられる前記対応するアクションのセットを読み出すための手段と
を備える、項目73に記載の装置。
(項目78)
前記メディアデバイスの視聴環境内の前記ユーザを検出するための前記手段は、センサを使用して、前記視聴環境内の前記ユーザの存在を検出するための手段を備える、項目73に記載の装置。
(項目79)
前記検出された音声を示す前記ユーザのための通知を生成するための前記手段は、前記メディア機器デバイス上に表示されるべきオーバーレイを生成するための手段を備え、前記オーバーレイは、前記音声についての前記ユーザのための通知を含有する、項目73に記載の装置。
(項目80)
前記音声は、ドアベルから検出される、項目73に記載の装置。
(項目81)
前記メディアアセットの再生を修正し、前記ユーザが前記目標と関連付けられる前記アクションを実施することを可能にするための前記手段は、
前記データベースから、前記目標と関連付けられる再生修正のセットを読み出すための手段と、
前記ユーザのための選好に基づいて、前記再生修正のセットから再生修正を選択するための手段と、
前記選択された再生修正に基づいて、前記メディアアセットの再生を修正するための手段と
を備える、項目73に記載の装置。
(項目82)
前記ユーザのためのユーザプロファイルから、前記ユーザが前記目標と関連付けられる前記決定されたアクションのセットの中のアクションを実施する権限を与えられているかどうかを決定するための前記手段は、
前記ユーザプロファイルから、前記ユーザのためのランクを読み出すための手段と、
データベースから、アクションのためのランクを読み出すための手段と、
前記ユーザのためのランクが前記アクションのためのランクを超えるかどうかを決定するための手段と、
前記ユーザのためのランクが前記アクションのためのランクを超えることを決定することに応答して、前記ユーザが前記アクションを実施する権限を与えられていることを決定するための手段と
を備える、項目73に記載の装置。
(項目83)
非一過性のコンピュータ可読媒体であって、前記非一過性のコンピュータ可読媒体は、ユーザが音声に対応する目標を満たすアクションを実施する権限を与えられているかどうかを決定するための、前記非一過性のコンピュータ可読媒体上にエンコードされた非一過性のコンピュータ可読命令を有しており、前記命令は、
メディア機器デバイスの外部の第1のデバイスによって生成される音声を検出するための命令と、
複数の目標の中の各目標を、複数のアクションの中のアクションのセットおよび複数の音声の中の音声と関連付けるデータベースを記憶するための命令と、
前記第1のデバイスによって生成される前記音声を、前記データベース内のエントリの特性と比較し、前記音声に対応する目標および前記目標と関連付けられる対応するアクションのセットを決定するための命令と、
前記メディア機器デバイスの視聴環境内のユーザを検出するための命令と、
前記ユーザのためのユーザプロファイルから、前記ユーザが前記目標と関連付けられる前記決定されたアクションのセットの中のアクションを実施する権限を与えられているかどうかを決定するための命令と、
前記ユーザが前記アクションを実施する権限を与えられていることを決定することに応答して、
前記検出された音声を示す前記ユーザのための通知を生成するための命令と、
メディアアセットの再生を修正し、前記目標と関連付けられる前記アクションを実施するように前記ユーザを促すための命令と、
前記ユーザが前記アクションを実施する権限を与えられていないことを決定することに応答して、第2のユーザが前記アクションを実施するための通知を生成するための命令と
を備える、非一過性のコンピュータ可読媒体。
(項目84)
前記命令はさらに、
前記音声が前記視聴環境の可聴範囲内であることを決定するための命令と、
前記ユーザが前記アクションを実施する権限を与えられていないことを決定することに応答して、前記ユーザが前記メディアアセットの再生を修正することを防止するための命令と
を備える、項目83に記載の非一過性のコンピュータ可読媒体。
(項目85)
前記命令はさらに、前記メディアアセットの再生を修正し、前記ユーザが前記目標と関連付けられる前記アクションを実施することを防止するための命令を備える、項目84に記載の非一過性のコンピュータ可読媒体。
(項目86)
前記メディアアセットの再生を修正するための前記命令は、
前記可聴範囲内である前記音声を減衰させる音量を決定するための命令と、
前記音声を減衰させる音量であるように、前記メディアアセットの再生に対応する音量を調節するための命令と
を備える、項目85に記載の非一過性のコンピュータ可読媒体。
(項目87)
前記第1のデバイスによって生成される前記音声を前記データベースと比較し、前記音声と関連付けられる目標および前記目標と関連付けられる前記対応するアクションのセットを決定するための前記命令は、
前記音声の特性に基づいて、前記音声と前記データベース内のエントリとの間の合致を決定するための命令と、
前記エントリから、前記音声に対応する前記目標を読み出すための命令と、
前記エントリから、前記目標と関連付けられる前記対応するアクションのセットを読み出すための命令と
を備える、項目83に記載の非一過性のコンピュータ可読媒体。
(項目88)
前記メディアデバイスの視聴環境内の前記ユーザを検出するための前記命令は、センサを使用して、前記視聴環境内の前記ユーザの存在を検出するための命令を備える、項目83に記載の非一過性のコンピュータ可読媒体。
(項目89)
前記検出された音声を示す前記ユーザのための通知を生成するための前記命令は、前記メディア機器デバイス上に表示されるべきオーバーレイを生成するための命令を備え、前記オーバーレイは、前記音声についての前記ユーザのための通知を含有する、項目83に記載の非一過性のコンピュータ可読媒体。
(項目90)
前記音声は、ドアベルから検出される、項目83に記載の非一過性のコンピュータ可読媒体。
(項目91)
前記メディアアセットの再生を修正し、前記ユーザが前記目標と関連付けられる前記アクションを実施することを可能にするための前記命令は、
前記データベースから、前記目標と関連付けられる再生修正のセットを読み出すための命令と、
前記ユーザのための選好に基づいて、前記再生修正のセットから再生修正を選択するための命令と、
前記選択された再生修正に基づいて、前記メディアアセットの再生を修正するための命令と
を備える、項目83に記載の非一過性のコンピュータ可読媒体。
(項目92)
前記ユーザのためのユーザプロファイルから、前記ユーザが前記目標と関連付けられる前記決定されたアクションのセットの中のアクションを実施する権限を与えられているかどうかを決定するための前記命令は、
前記ユーザプロファイルから、前記ユーザのためのランクを読み出すための命令と、
データベースから、アクションのためのランクを読み出すための命令と、
前記ユーザのためのランクが前記アクションのためのランクを超えるかどうかを決定するための命令と、
前記ユーザのためのランクが前記アクションのためのランクを超えることを決定することに応答して、前記ユーザが前記アクションを実施する権限を与えられていることを決定するための命令と
を備える、項目83に記載の非一過性のコンピュータ可読媒体。
(項目93)
ユーザが音声に対応する目標を満たすアクションを実施する権限を与えられているかどうかを決定するための方法であって、
制御回路を使用して、メディア機器デバイスの外部の第1のデバイスによって生成される音声を検出することと、
複数の目標の中の各目標を、複数のアクションの中のアクションのセットおよび複数の音声の中の音声と関連付けるデータベースを記憶することと、
前記第1のデバイスによって生成される前記音声を、前記データベース内のエントリの特性と比較し、前記音声に対応する目標および前記目標と関連付けられる対応するアクションのセットを決定することと、
前記メディア機器デバイスの視聴環境内のユーザを検出することと、
前記ユーザのためのユーザプロファイルから、前記ユーザが前記目標と関連付けられる前記決定されたアクションのセットの中のアクションを実施する権限を与えられているかどうかを決定することと、
前記ユーザが前記アクションを実施する権限を与えられていることを決定することに応答して、
前記検出された音声を示す前記ユーザのための通知を生成することと、
メディアアセットの再生を修正し、前記目標と関連付けられる前記アクションを実施するように前記ユーザを促すことと、
前記ユーザが前記アクションを実施する権限を与えられていないことを決定することに応答して、第2のユーザが前記アクションを実施するための通知を生成することと
を含む、方法。
(項目94)
前記音声が前記視聴環境の可聴範囲内であることを決定することと、
前記ユーザが前記アクションを実施する権限を与えられていないことを決定することに応答して、前記ユーザが前記メディアアセットの再生を修正することを防止することと
をさらに含む、項目93に記載の方法。
(項目95)
前記メディアアセットの再生を修正し、前記ユーザが前記目標と関連付けられる前記アクションを実施することを防止することをさらに含む、項目94に記載の方法。
(項目96)
前記メディアアセットの再生を修正することは、
前記可聴範囲内である前記音声を減衰させる音量を決定することと、
前記音声を減衰させる音量であるように、前記メディアアセットの再生に対応する音量を調節することと
を含む、項目95に記載の方法。
(項目97)
前記第1のデバイスによって生成される前記音声を前記データベースと比較し、前記音声と関連付けられる目標および前記目標と関連付けられる前記対応するアクションのセットを決定することは、
前記音声の特性に基づいて、前記音声と前記データベース内のエントリとの間の合致を決定することと、
前記エントリから、前記音声に対応する前記目標を読み出すことと、
前記エントリから、前記目標と関連付けられる前記対応するアクションのセットを読み出すことと
を含む、項目93-96のいずれかに記載の方法。
(項目98)
前記メディアデバイスの視聴環境内の前記ユーザを検出することは、センサを使用して、前記視聴環境内の前記ユーザの存在を検出することを含む、項目93-97のいずれかに記載の方法。
(項目99)
前記検出された音声を示す前記ユーザのための通知を生成することは、前記メディア機器デバイス上に表示されるべきオーバーレイを生成することを含み、前記オーバーレイは、前記音声についての前記ユーザのための通知を含有する、項目43-98のいずれかに記載の方法。
(項目100)
前記音声は、ドアベルから検出される、項目93-99のいずれかに記載の方法。
(項目101)
前記メディアアセットの再生を修正し、前記ユーザが前記目標と関連付けられる前記アクションを実施することを可能にすることは、
前記データベースから、前記目標と関連付けられる再生修正のセットを読み出すことと、
前記ユーザのための選好に基づいて、前記再生修正のセットから再生修正を選択することと、
前記選択された再生修正に基づいて、前記メディアアセットの再生を修正することと
を含む、項目93-100のいずれかに記載の方法。
(項目102)
前記ユーザのためのユーザプロファイルから、前記ユーザが前記目標と関連付けられる前記決定されたアクションのセットの中のアクションを実施する権限を与えられているかどうかを決定することは、
前記ユーザプロファイルから、前記ユーザのためのランクを読み出すことと、
データベースから、アクションのためのランクを読み出すことと、
前記ユーザのためのランクが前記アクションのためのランクを超えるかどうかを決定することと、
前記ユーザのためのランクが前記アクションのためのランクを超えることを決定することに応答して、前記ユーザが前記アクションを実施する権限を与えられていることを決定することと
を含む、項目93-101のいずれかに記載の方法。
The media guidance application may adjust the volume corresponding to the playback of the media asset such that the volume attenuates the sound. For example, the media guidance application may adjust the playback volume of the media asset so that it is louder than the detected volume of sounds in the audible range.
The present invention provides, for example, the following.
(Item 1)
a method,
determining a command from the first user to the second user;
comparing the command to a set of playback action commands for a currently playing media asset;
determining, in response to the comparing, that the command is not contained within the set of playback operation commands;
Determining whether the second user executes a desired result of the command in response to determining that the command is not contained within the set of play action commands;
determining whether to modify playback of the media asset in response to the second user determining not to perform a desired result of the command;
A method, including
(Item 2)
A method for converting unrelated commands into relevant playback modifications and prompting recipients of said commands to execute said commands, said method comprising:
detecting a command from a first user to a second user;
comparing the command to a set of playback action commands for a media asset currently being played by the second user;
determining, in response to the comparing, that the command is not contained within the set of playback operation commands;
determining a desired result of the command from a plurality of results of the command based on the first user's user profile and the second user's user profile;
detecting an action performed by the second user;
comparing the second user's action to a desired result of the command;
retrieving characteristics of the second user from a user profile of the second user in response to determining that the second user's actions do not correspond to the desired outcome of the command;
determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user;
A method, including
(Item 3)
Determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user includes:
comparing characteristics from the retrieved characteristics of the second user to the command, wherein the characteristics are selected from a group of characteristics consisting of age, rank, relationship with other users, and time of day. , said command is selected from the group of commands consisting of eating, cleaning, studying, cooking and sleeping;
determining from the comparison whether the command shares characteristics of the second user;
modifying playback of the media asset in response to the command determining to share the property;
The method of item 2, comprising
(Item 4)
detecting commands from the first user to the second and third users;
determining a desired result of the command from a plurality of results of the command based on the user profile of the first user, the user profile of the second user, and the user profile of the third user;
detecting a first action performed by the second user and a second action performed by the third user;
comparing the second user's action and the third user's action to a desired result of the command;
the second user's action from the second user's user profile in response to determining that the second user's action and the third user's action do not correspond to the desired result of the command; retrieving characteristics of the third user from a user profile of the third user;
determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user and the retrieved characteristics of the third user; to decide and
3. The method of item 2, further comprising:
(Item 5)
Detecting the command from the first user comprises:
detecting verbal input from the first user;
comparing the verbal input to a database of commands, the database containing a command corresponding to each verbal input;
determining from the comparison a command corresponding to the verbal input from the first user;
The method of item 2, comprising
(Item 6)
Determining from the comparison a command corresponding to the verbal input from the first user comprises:
determining a match between the verbal input and the database of verbal commands;
determining the command corresponding to the match to be the command corresponding to the verbal input from the first user;
6. The method of item 5, comprising
(Item 7)
Determining a desired result of said command from a plurality of results of said command based on said first user's user profile and said second user's user profile further comprises:
determining attributes of the command;
comparing attributes of the command with attributes of a plurality of results of the command;
determining from the comparison a result among the plurality of results containing attributes of the command to be the desired result;
The method of item 2, comprising
(Item 8)
Detecting the action performed by the second user includes using a sensor to detect the second user leaving a viewing environment of a media equipment device presenting the media asset. The method of item 2, comprising:
(Item 9)
3. The method of item 2, wherein detecting the action performed by the second user includes detecting the second user executing a command to modify playback of the media asset.
(Item 10)
to item 2, wherein detecting the action performed by the second user includes using a sensor to detect that the second user remains within the viewing environment of a media asset device. described method.
(Item 11)
Determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user includes:
reading the rank of the first user and the rank of the second user;
determining from the ranks whether the first user is ranked higher than the second user;
modifying playback of the media asset in response to determining that the first user is ranked higher than the second user;
continuing to play the media asset in response to determining that the second user is ranked higher than the first user;
The method of item 2, comprising
(Item 12)
1. A system for converting unrelated commands into relevant playback modifications and prompting recipients of said commands to execute said commands, said system comprising:
A control circuit,
detecting a command from a first user to a second user;
comparing the command to a set of playback action commands for a media asset currently being played by the second user;
determining, in response to the comparing, that the command is not contained within the set of playback operation commands;
determining a desired result of the command from a plurality of results of the command based on the first user's user profile and the second user's user profile;
detecting an action performed by the second user;
comparing the second user's action to a desired result of the command;
retrieving characteristics of the second user from a user profile of the second user in response to determining that the second user's actions do not correspond to the desired outcome of the command;
determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user;
a control circuit configured to perform
A system comprising:
(Item 13)
The control circuit is
comparing characteristics from the retrieved characteristics of the second user to the command, wherein the characteristics are selected from a group of characteristics consisting of age, rank, relationship with other users, and time of day. , said command is selected from the group of commands consisting of eating, cleaning, studying, cooking and sleeping;
determining from the comparison whether the command shares characteristics of the second user;
modifying playback of the media asset in response to the command determining to share the property;
item 12, configured to determine whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user by The system described in .
(Item 14)
The control circuit further comprises:
detecting commands from the first user to the second and third users;
determining a desired result of the command from a plurality of results of the command based on the user profile of the first user, the user profile of the second user, and the user profile of the third user;
detecting a first action performed by the second user and a second action performed by the third user;
comparing the second user's action and the third user's action to a desired result of the command;
the second user's action from the second user's user profile in response to determining that the second user's action and the third user's action do not correspond to the desired result of the command; retrieving characteristics of the third user from a user profile of the third user;
determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user and the retrieved characteristics of the third user; to decide and
13. The system of item 12, wherein the system is configured to:
(Item 15)
The control circuit is
detecting verbal input from the first user;
comparing the verbal input to a database of commands, the database containing a command corresponding to each verbal input;
determining from the comparison a command corresponding to the verbal input from the first user;
13. The system of item 12, configured to detect the command from the first user by.
(Item 16)
The control circuit is
determining a match between the verbal input and the database of verbal commands;
determining the command corresponding to the match to be the command corresponding to the verbal input from the first user;
16. A method according to item 15, configured to determine from said comparison a command corresponding to said verbal input from said first user by:
(Item 17)
The control circuit further comprises:
determining attributes of the command;
comparing attributes of the command with attributes of a plurality of results of the command;
determining from the comparison a result among the plurality of results containing attributes of the command to be the desired result;
determining a desired result of said command from a plurality of results of said command based on said first user's user profile and said second user's user profile by;
13. The system of item 12.
(Item 18)
The control circuit uses a sensor to detect the second user exiting a viewing environment of a media equipment device presenting the media asset, thereby performing the action performed by the second user. 13. The system of item 12, wherein the system is configured to detect the
(Item 19)
Item 12, wherein the control circuitry is configured to detect the action performed by the second user by detecting the second user executing a command to modify playback of the media asset. The system described in .
(Item 20)
The control circuitry uses a sensor to detect the action performed by the second user by detecting that the second user lingers within the viewing environment of a media asset device. 13. The system of item 12, wherein:
(Item 21)
The control circuit is
reading the rank of the first user and the rank of the second user;
determining from the ranks whether the first user is ranked higher than the second user;
modifying playback of the media asset in response to determining that the first user is ranked higher than the second user;
continuing to play the media asset in response to determining that the second user is ranked higher than the first user;
item 12, configured to determine whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user by The system described in .
(Item 22)
Apparatus for converting unrelated commands into relevant playback modifications and prompting recipients of said commands to execute said commands, said apparatus comprising:
means for detecting a command from a first user to a second user;
means for comparing the command with a set of playback action commands for a media asset currently being played by the second user;
means, responsive to said comparing, for determining that said command is not contained within said set of playback operation commands;
means for determining a desired result of said command from a plurality of results of said command based on said first user's user profile and said second user's user profile;
means for detecting an action performed by said second user;
means for comparing the second user's action with a desired result of the command;
means for retrieving characteristics of the second user from a user profile of the second user in response to determining that the second user's actions do not correspond to the desired outcome of the command;
means for determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user;
A device comprising:
(Item 23)
The means for determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user, comprising:
means for comparing characteristics from the retrieved characteristics of said second user with said command, said characteristics being from a group of characteristics consisting of age, rank, relationship with other users, and time of day. selected, said command being selected from the group of commands consisting of eating, cleaning, studying, cooking, and sleeping;
means for determining from said comparison whether said command shares characteristics of said second user;
and means for modifying playback of said media asset in response to said command determining to share said property.
23. Apparatus according to item 22, comprising:
(Item 24)
means for detecting commands from said first user to said second and third users;
means for determining a desired result of said command from a plurality of results of said command based on said first user's user profile, said second user's user profile and said third user's user profile; and,
means for detecting a first action performed by said second user and a second action performed by said third user;
means for comparing said second user's action and said third user's action with a desired result of said command;
the second user's action from the second user's user profile in response to determining that the second user's action and the third user's action do not correspond to the desired result of the command; means for retrieving characteristics of said third user from a user profile of said third user;
determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user and the retrieved characteristics of the third user; means for determining and
23. The apparatus of item 22, further comprising:
(Item 25)
said means for detecting said command from said first user comprising:
means for detecting verbal input from the first user;
means for comparing said verbal input to a database of commands, said database containing a command corresponding to each verbal input;
means for determining from said comparison a command corresponding to said verbal input from said first user;
23. Apparatus according to item 22, comprising:
(Item 26)
said means for determining from said comparison a command corresponding to said verbal input from said first user;
means for determining a match between said verbal input and said database of verbal commands;
means for determining a command corresponding to said match to be said command corresponding to said verbal input from said first user;
26. Apparatus according to item 25, comprising:
(Item 27)
said means for determining a desired result of said command from a plurality of results of said command based on said first user's user profile and said second user's user profile, further comprising:
means for determining attributes of said command;
means for comparing an attribute of said command with attributes of a plurality of results of said command;
means for determining, from said comparison, a result in said plurality of results containing attributes of said command to be said desired result;
23. Apparatus according to item 22, comprising:
(Item 28)
The means for detecting the action performed by the second user uses a sensor to detect the second user leaving a viewing environment of a media equipment device presenting the media asset. 23. Apparatus according to item 22, comprising means for.
(Item 29)
23. Clause 23, wherein the means for detecting the action performed by the second user comprises means for detecting the second user executing a command to modify playback of the media asset. equipment.
(Item 30)
said means for detecting said action performed by said second user includes means for detecting said second user lingering within said viewing environment of a media asset device using a sensor; 23. Apparatus according to item 22, comprising:
(Item 31)
The means for determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user, comprising:
means for reading the rank of the first user and the rank of the second user;
means for determining from the ranks whether the first user ranks higher than the second user;
means for modifying the media asset playback in response to determining that the first user is ranked higher than the second user;
means for continuing to play the media asset in response to determining that the second user is ranked higher than the first user;
23. The apparatus of item 22, comprising:
(Item 32)
A non-transitory computer-readable medium, said non-transitory computer-readable medium comprising a memory, said memory converting unrelated commands into relevant playback modifications and executing said commands having non-transitory computer readable instructions encoded on the memory for prompting a recipient of the command, the instructions comprising:
instructions for detecting a command from a first user to a second user;
instructions for comparing the command to a set of playback action commands for a media asset currently being played by the second user;
instructions for determining, in response to the comparing, that the command is not contained within the set of playback operation commands;
instructions for determining a desired result of said command from a plurality of results of said command based on said first user's user profile and said second user's user profile;
instructions for detecting actions performed by the second user;
instructions for comparing the second user's action to a desired result of the command;
instructions for retrieving characteristics of the second user from a user profile of the second user in response to determining that the second user's actions do not correspond to the desired outcome of the command;
instructions for determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user;
A non-transitory computer-readable medium comprising:
(Item 33)
The instructions for determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user, comprising:
instructions for comparing characteristics from the retrieved characteristics of said second user to said command, said characteristics being from a group of characteristics consisting of age, rank, relationship with other users, and time of day. a command selected, said command being selected from the group of commands consisting of eating, cleaning, studying, cooking, and sleeping;
instructions for determining from the comparison whether the command shares characteristics of the second user;
and instructions for modifying playback of the media asset in response to the command determining to share the property.
33. The non-transitory computer-readable medium of item 32, comprising:
(Item 34)
Said instruction further:
instructions for detecting commands from the first user to the second and third users;
Instructions for determining a desired result of the command from a plurality of results of the command based on the first user's user profile, the second user's user profile, and the third user's user profile. and,
instructions for detecting a first action performed by the second user and a second action performed by the third user;
instructions for comparing the second user's action and the third user's action with a desired result of the command;
the second user's action from the second user's user profile in response to determining that the second user's action and the third user's action do not correspond to the desired result of the command; instructions for retrieving characteristics of the third user from a user profile of the third user;
determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user and the retrieved characteristics of the third user; orders to determine and
33. The non-transitory computer-readable medium of item 32, comprising:
(Item 35)
The instructions for detecting the command from the first user comprise:
instructions for detecting verbal input from the first user;
instructions for comparing said verbal input to a database of commands, said database containing a command corresponding to each verbal input;
instructions for determining, from the comparison, a command corresponding to the verbal input from the first user;
33. The non-transitory computer-readable medium of item 32, comprising:
(Item 36)
said instructions for determining, from said comparison, a command corresponding to said verbal input from said first user;
instructions for determining a match between the verbal input and the database of verbal commands;
instructions for determining a command corresponding to the match as the command corresponding to the verbal input from the first user;
36. The non-transitory computer-readable medium of item 35, comprising:
(Item 37)
The instructions for determining a desired result of the command from a plurality of results of the command based on the first user's user profile and the second user's user profile, further comprising:
instructions for determining attributes of the command;
instructions for comparing an attribute of said command with attributes of a plurality of results of said command;
and instructions for determining, from the comparison, a result in the plurality of results containing attributes of the command to be the desired result.
33. The non-transitory computer-readable medium of item 32, comprising:
(Item 38)
The instructions for detecting the action performed by the second user use a sensor to detect the second user leaving a viewing environment of a media equipment device presenting the media asset. 33. The non-transitory computer-readable medium of item 32, comprising instructions for:
(Item 39)
33. Clause 32, wherein the instructions for detecting the action performed by the second user comprise instructions for detecting the second user executing a command to modify playback of the media asset. non-transitory computer-readable medium.
(Item 40)
The instructions for detecting the action performed by the second user include instructions for using a sensor to detect that the second user remains within the viewing environment of a media asset device. 33. The non-transitory computer-readable medium of item 32, comprising:
(Item 41)
The instructions for determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user comprise:
instructions for reading the rank of the first user and the rank of the second user;
instructions for determining from the ranks whether the first user ranks higher than the second user;
instructions for modifying playback of the media asset in response to determining that the first user is ranked higher than the second user;
and instructions for continuing to play the media asset in response to determining that the second user is ranked higher than the first user.
33. The non-transitory computer-readable medium of item 32, comprising:
(Item 42)
A method for converting unrelated commands into relevant playback modifications and prompting recipients of said commands to execute said commands, said method comprising:
detecting a command from the first user to the second user using the control circuit;
comparing the command to a set of playback action commands for a media asset currently being played by the second user;
determining, in response to the comparing, that the command is not contained within the set of playback operation commands;
determining a desired result of the command from a plurality of results of the command based on the first user's user profile and the second user's user profile;
detecting an action performed by the second user;
comparing the second user's action to a desired result of the command;
retrieving characteristics of the second user from a user profile of the second user in response to determining that the second user's actions do not correspond to the desired outcome of the command;
determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user;
A method, including
(Item 43)
Determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user includes:
comparing characteristics from the retrieved characteristics of the second user to the command, wherein the characteristics are selected from a group of characteristics consisting of age, rank, relationship with other users, and time of day. , said command is selected from the group of commands consisting of eating, cleaning, studying, cooking and sleeping;
determining from the comparison whether the command shares characteristics of the second user;
modifying playback of the media asset in response to the command determining to share the property;
43. The method of item 42, comprising
(Item 44)
detecting commands from the first user to the second and third users;
determining a desired result of the command from a plurality of results of the command based on the user profile of the first user, the user profile of the second user, and the user profile of the third user;
detecting a first action performed by the second user and a second action performed by the third user;
comparing the second user's action and the third user's action to a desired result of the command;
the second user's action from the second user's user profile in response to determining that the second user's action and the third user's action do not correspond to the desired result of the command; retrieving characteristics of the third user from a user profile of the third user;
determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user and the retrieved characteristics of the third user; to decide and
44. The method of any of items 42-43, further comprising
(Item 45)
Detecting the command from the first user comprises:
detecting verbal input from the first user;
comparing the verbal input to a database of commands, the database containing a command corresponding to each verbal input;
determining from the comparison a command corresponding to the verbal input from the first user;
45. The method of any of items 42-44, comprising
(Item 46)
Determining from the comparison a command corresponding to the verbal input from the first user comprises:
determining a match between the verbal input and the database of verbal commands;
determining the command corresponding to the match to be the command corresponding to the verbal input from the first user;
46. The method of item 45, comprising
(Item 47)
Determining a desired result of said command from a plurality of results of said command based on said first user's user profile and said second user's user profile further comprises:
determining attributes of the command;
comparing attributes of the command with attributes of a plurality of results of the command;
determining from the comparison a result among the plurality of results containing attributes of the command to be the desired result;
47. The method of any of items 42-46, comprising
(Item 48)
Detecting the action performed by the second user includes using a sensor to detect the second user leaving a viewing environment of a media equipment device presenting the media asset. 48. The method of any of items 42-47, comprising:
(Item 49)
49. Any of items 42-48, wherein detecting the action performed by the second user comprises detecting the second user executing a command to modify playback of the media asset. the method of.
(Item 50)
Detecting the action performed by the second user includes using a sensor to detect that the second user remains within the viewing environment of a media asset device, item 42- 49. The method according to any of 49.
(Item 51)
Determining whether to modify playback of the media asset based on the command detected from the first user and the retrieved characteristics of the second user includes:
reading the rank of the first user and the rank of the second user;
determining from the ranks whether the first user is ranked higher than the second user;
modifying playback of the media asset in response to determining that the first user is ranked higher than the second user;
continuing to play the media asset in response to determining that the second user is ranked higher than the first user;
51. The method of any of items 42-50, comprising
(Item 52)
a method,
detecting audio generated by a first device external to the media equipment device;
retrieving a known target associated with the voice from a lookup table;
detecting a user within a viewing environment;
determining the identity of the user;
modifying playback to encourage or prevent the user from achieving the known goal based on the user's identity;
A method, including
(Item 53)
A method for determining whether a user is authorized to perform an action that satisfies a goal corresponding to a speech, comprising:
detecting audio generated by a first device external to the media equipment device;
storing a database associating each goal in the plurality of goals with a set of actions in the plurality of actions and a voice in the plurality of voices;
comparing the sound produced by the first device to characteristics of entries in the database to determine a goal corresponding to the sound and a set of corresponding actions associated with the goal;
detecting a user within a viewing environment of the media equipment device;
determining from a user profile for the user whether the user is authorized to perform an action in the determined set of actions associated with the goal;
in response to determining that the user is authorized to perform the action;
generating a notification for the user indicating the detected sound;
prompting the user to modify playback of a media asset and perform the action associated with the goal;
Generating a notification for a second user to perform the action in response to determining that the user is not authorized to perform the action.
A method, including
(Item 54)
determining that the audio is within audible range of the viewing environment;
preventing the user from modifying playback of the media asset in response to determining that the user is not authorized to perform the action;
54. The method of item 53, further comprising:
(Item 55)
55. The method of clause 54, further comprising modifying playback of the media asset to prevent the user from performing the action associated with the goal.
(Item 56)
Modifying playback of the media asset includes:
determining a volume at which to attenuate the sound that is within the audible range;
adjusting a volume corresponding to playback of the media asset to be attenuating the sound;
56. The method of item 55, comprising
(Item 57)
Comparing the audio generated by the first device to the database and determining a goal associated with the audio and the corresponding set of actions associated with the goal includes:
determining a match between the voice and an entry in the database based on characteristics of the voice;
retrieving the target corresponding to the speech from the entry;
retrieving from the entry the corresponding set of actions associated with the goal;
54. The method of item 53, comprising
(Item 58)
54. The method of clause 53, wherein detecting the user within a viewing environment of the media device includes detecting presence of the user within the viewing environment using a sensor.
(Item 59)
Generating a notification for the user indicative of the detected audio includes generating an overlay to be displayed on the media equipment device, the overlay displaying information for the user about the audio. 54. The method of item 53, comprising notification.
(Item 60)
54. Method according to item 53, wherein the sound is detected from a doorbell.
(Item 61)
modifying the playback of the media asset and enabling the user to perform the action associated with the goal;
retrieving a set of regeneration modifications associated with the goal from the database;
selecting a playback modification from the set of playback modifications based on preferences for the user;
modifying playback of the media asset based on the selected playback modification;
54. The method of item 53, comprising
(Item 62)
Determining, from a user profile for the user, whether the user is authorized to perform an action in the determined set of actions associated with the goal
retrieving a rank for the user from the user profile;
retrieving a rank for an action from a database;
determining whether the rank for the user exceeds the rank for the action;
determining that the user is authorized to perform the action in response to determining that the rank for the user exceeds the rank for the action;
54. The method of item 53, comprising
(Item 63)
1. A system for determining whether a user is authorized to perform an action that satisfies a goal corresponding to a speech, comprising:
A control circuit,
detecting audio generated by a first device external to the media equipment device;
storing a database associating each goal in the plurality of goals with a set of actions in the plurality of actions and a voice in the plurality of voices;
comparing the sound produced by the first device to characteristics of entries in the database to determine a goal corresponding to the sound and a set of corresponding actions associated with the goal;
detecting a user within a viewing environment of the media equipment device;
determining from a user profile for the user whether the user is authorized to perform an action in the determined set of actions associated with the goal;
in response to determining that the user is authorized to perform the action;
generating a notification for the user indicating the detected sound;
modifying playback of a media asset to prompt the user to perform the action associated with the goal;
Generating a notification for a second user to perform the action in response to determining that the user is not authorized to perform the action.
a control circuit configured to perform
A system comprising:
(Item 64)
The control circuit further
determining that the audio is within audible range of the viewing environment;
preventing the user from modifying playback of the media asset in response to determining that the user is not authorized to perform the action;
64. The system of item 63, wherein the system is configured to:
(Item 65)
65. The system of clause 64, wherein control circuitry is further configured to modify playback of the media asset and prevent the user from performing the action associated with the goal.
(Item 66)
The control circuit is
determining a volume at which to attenuate the sound that is within the audible range;
adjusting a volume corresponding to playback of the media asset to be attenuating the sound;
configured to modify playback of said media asset by
66. The system of item 65.
(Item 67)
The control circuit is
determining a match between the voice and an entry in the database based on characteristics of the voice;
retrieving the target corresponding to the speech from the entry;
retrieving from the entry the corresponding set of actions associated with the goal;
in item 63, configured to compare the sound generated by the first device to the database and determine a goal associated with the sound and the corresponding set of actions associated with the goal by System as described.
(Item 68)
13. The method of claim 12, wherein the control circuitry is configured to detect the user within a viewing environment of the media device by using a sensor to detect the presence of the user within the viewing environment. system.
(Item 69)
The control circuitry is configured to generate a notification for the user indicating the detected audio by generating an overlay to be displayed on the media equipment device, the overlay indicating the audio. 64. The system of item 63, containing a notification for the user of .
(Item 70)
64. The system of item 63, wherein the sound is detected from a doorbell.
(Item 71)
The control circuit is
retrieving a set of regeneration modifications associated with the goal from the database;
selecting a playback modification from the set of playback modifications based on preferences for the user;
modifying playback of the media asset based on the selected playback modification;
13. The system of item 12, configured to modify playback of the media asset and enable the user to perform the action associated with the goal by.
(Item 72)
The control circuit is
retrieving a rank for the user from the user profile;
retrieving a rank for an action from a database;
determining whether the rank for the user exceeds the rank for the action;
determining that the user is authorized to perform the action in response to determining that the rank for the user exceeds the rank for the action;
an item configured to determine, from a user profile for the user, whether the user is authorized to perform an action in the determined set of actions associated with the goal by 63. The system according to 63.
(Item 73)
An apparatus for determining whether a user is authorized to perform an action that satisfies a goal corresponding to a speech, said apparatus comprising:
means for detecting audio generated by a first device external to the media equipment device;
means for storing a database associating each goal in the plurality of goals with a set of actions in the plurality of actions and a voice in the plurality of voices;
means for comparing the sound produced by the first device to characteristics of entries in the database to determine a goal corresponding to the sound and a set of corresponding actions associated with the goal;
means for detecting a user within a viewing environment of said media equipment device;
means for determining from a user profile for said user whether said user is authorized to perform an action in said determined set of actions associated with said goal;
in response to determining that the user is authorized to perform the action;
means for generating a notification for the user indicating the detected sound;
means for modifying playback of a media asset and prompting the user to perform the action associated with the goal;
means for generating a notification for a second user to perform said action in response to determining that said user is not authorized to perform said action;
A device comprising:
(Item 74)
means for determining that the audio is within audible range of the viewing environment;
means for preventing said user from modifying playback of said media asset in response to determining said user is not authorized to perform said action;
74. The apparatus of item 73, further comprising:
(Item 75)
75. The apparatus of clause 74, further comprising means for modifying playback of said media asset and preventing said user from performing said action associated with said goal.
(Item 76)
The means for modifying playback of the media asset comprises:
means for determining a volume at which to attenuate the sound that is within the audible range;
means for adjusting a volume corresponding to playback of said media asset to be attenuating said audio;
76. Apparatus according to item 75, comprising:
(Item 77)
said means for comparing said sound produced by said first device to said database and determining a goal associated with said sound and a set of said corresponding actions associated with said goal;
means for determining a match between the voice and an entry in the database based on characteristics of the voice;
means for retrieving the target corresponding to the speech from the entry;
means for retrieving from the entry the corresponding set of actions associated with the goal;
74. Apparatus according to item 73, comprising:
(Item 78)
74. The apparatus according to item 73, wherein said means for detecting said user within a viewing environment of said media device comprises means for detecting presence of said user within said viewing environment using a sensor.
(Item 79)
The means for generating a notification for the user indicative of the detected audio comprises means for generating an overlay to be displayed on the media equipment device, the overlay for the audio. 74. Apparatus according to item 73, containing notifications for said user.
(Item 80)
74. Apparatus according to item 73, wherein the sound is detected from a doorbell.
(Item 81)
said means for modifying playback of said media asset and enabling said user to perform said action associated with said goal comprising:
means for retrieving from said database a set of regeneration modifications associated with said goal;
means for selecting a playback modification from the set of playback modifications based on preferences for the user;
means for modifying playback of the media asset based on the selected playback modification;
74. Apparatus according to item 73, comprising:
(Item 82)
said means for determining, from a user profile for said user, whether said user is authorized to perform an action in said determined set of actions associated with said goal;
means for retrieving a rank for said user from said user profile;
means for retrieving ranks for actions from a database;
means for determining whether the rank for the user exceeds the rank for the action;
means for determining that the user is authorized to perform the action, responsive to determining that the rank for the user exceeds the rank for the action;
74. Apparatus according to item 73, comprising:
(Item 83)
A non-transitory computer-readable medium, the non-transitory computer-readable medium for determining whether a user is authorized to perform an action that satisfies a goal corresponding to the speech; having non-transitory computer-readable instructions encoded on a non-transitory computer-readable medium, the instructions comprising:
instructions for detecting audio generated by a first device external to the media equipment device;
instructions for storing a database associating each goal in the plurality of goals with a set of actions in the plurality of actions and a voice in the plurality of voices;
instructions for comparing the sound produced by the first device to characteristics of entries in the database to determine a goal corresponding to the sound and a set of corresponding actions associated with the goal;
instructions for detecting a user within a viewing environment of the media equipment device;
instructions for determining, from a user profile for the user, whether the user is authorized to perform an action in the determined set of actions associated with the goal;
in response to determining that the user is authorized to perform the action;
instructions for generating a notification for the user indicating the detected sound;
instructions for modifying playback of a media asset and prompting the user to perform the action associated with the goal;
and instructions for generating a notification for a second user to perform the action in response to determining that the user is not authorized to perform the action.
A non-transitory computer-readable medium comprising:
(Item 84)
Said instruction further:
instructions for determining that the audio is within audible range of the viewing environment;
and instructions for preventing the user from modifying playback of the media asset in response to determining that the user is not authorized to perform the action.
84. The non-transitory computer-readable medium of item 83, comprising:
(Item 85)
85. The non-transitory computer-readable medium of item 84, wherein the instructions further comprise instructions for modifying playback of the media asset and preventing the user from performing the action associated with the goal. .
(Item 86)
The instructions for modifying playback of the media asset include:
instructions for determining a volume at which to attenuate the sound that is within the audible range;
and instructions for adjusting a volume corresponding to playback of the media asset such that the volume is attenuating the audio.
86. The non-transitory computer-readable medium of item 85, comprising:
(Item 87)
the instructions for comparing the sound generated by the first device to the database and determining a goal associated with the sound and the corresponding set of actions associated with the goal;
instructions for determining a match between the sound and an entry in the database based on characteristics of the sound;
instructions for retrieving the target corresponding to the speech from the entry;
instructions for retrieving from the entry the corresponding set of actions associated with the goal;
84. The non-transitory computer-readable medium of item 83, comprising:
(Item 88)
84. The non-uniformity of clause 83, wherein the instructions for detecting the user within a viewing environment of the media device comprise instructions for detecting presence of the user within the viewing environment using a sensor. permissive computer-readable medium.
(Item 89)
The instructions for generating a notification for the user indicative of the detected audio comprise instructions for generating an overlay to be displayed on the media equipment device, the overlay describing the audio. 84. The non-transitory computer-readable medium of item 83, containing notices for said user.
(Item 90)
84. The non-transitory computer-readable medium of item 83, wherein the sound is detected from a doorbell.
(Item 91)
The instructions for modifying playback of the media asset and enabling the user to perform the action associated with the goal comprise:
instructions for retrieving from the database a set of regeneration modifications associated with the goal;
instructions for selecting a playback modification from the set of playback modifications based on preferences for the user;
instructions for modifying playback of the media asset based on the selected playback modification;
84. The non-transitory computer-readable medium of item 83, comprising:
(Item 92)
The instructions for determining, from a user profile for the user, whether the user is authorized to perform an action in the determined set of actions associated with the goal, comprising:
instructions for retrieving a rank for the user from the user profile;
instructions for retrieving a rank for an action from a database;
instructions for determining whether the rank for the user exceeds the rank for the action;
and instructions for determining that the user is authorized to perform the action in response to determining that the rank for the user exceeds the rank for the action.
84. The non-transitory computer-readable medium of item 83, comprising:
(Item 93)
A method for determining whether a user is authorized to perform an action that satisfies a goal corresponding to a speech, comprising:
detecting audio generated by a first device external to the media equipment device using control circuitry;
storing a database associating each goal in the plurality of goals with a set of actions in the plurality of actions and a voice in the plurality of voices;
comparing the sound produced by the first device to characteristics of entries in the database to determine a goal corresponding to the sound and a set of corresponding actions associated with the goal;
detecting a user within a viewing environment of the media equipment device;
determining from a user profile for the user whether the user is authorized to perform an action in the determined set of actions associated with the goal;
in response to determining that the user is authorized to perform the action;
generating a notification for the user indicating the detected sound;
prompting the user to modify playback of a media asset and perform the action associated with the goal;
Generating a notification for a second user to perform the action in response to determining that the user is not authorized to perform the action.
A method, including
(Item 94)
determining that the audio is within audible range of the viewing environment;
preventing the user from modifying playback of the media asset in response to determining that the user is not authorized to perform the action;
94. The method of item 93, further comprising:
(Item 95)
95. The method of clause 94, further comprising modifying playback of the media asset to prevent the user from performing the action associated with the goal.
(Item 96)
Modifying playback of the media asset includes:
determining a volume at which to attenuate the sound that is within the audible range;
adjusting a volume corresponding to playback of the media asset to be attenuating the sound;
96. The method of item 95, comprising
(Item 97)
Comparing the audio generated by the first device to the database and determining a goal associated with the audio and the corresponding set of actions associated with the goal includes:
determining a match between the voice and an entry in the database based on characteristics of the voice;
retrieving the target corresponding to the speech from the entry;
retrieving from the entry the corresponding set of actions associated with the goal;
97. The method of any of items 93-96, comprising
(Item 98)
98. The method of any of items 93-97, wherein detecting the user within a viewing environment of the media device comprises using a sensor to detect the presence of the user within the viewing environment.
(Item 99)
Generating a notification for the user indicative of the detected audio includes generating an overlay to be displayed on the media equipment device, the overlay displaying information for the user about the audio. 99. A method according to any of items 43-98, containing notification.
(Item 100)
99. A method according to any of items 93-99, wherein the sound is detected from a doorbell.
(Item 101)
modifying the playback of the media asset and enabling the user to perform the action associated with the goal;
retrieving a set of regeneration modifications associated with the goal from the database;
selecting a playback modification from the set of playback modifications based on preferences for the user;
modifying playback of the media asset based on the selected playback modification;
100. The method of any of items 93-100, comprising
(Item 102)
Determining, from a user profile for the user, whether the user is authorized to perform an action in the determined set of actions associated with the goal
retrieving a rank for the user from the user profile;
retrieving a rank for an action from a database;
determining whether the rank for the user exceeds the rank for the action;
determining that the user is authorized to perform the action in response to determining that the rank for the user exceeds the rank for the action;
The method of any of items 93-101, comprising

本開示の下記および他の目的および利点は、同様の参照文字が全体を通して同様の部分を指す、添付の図面と併せて考慮される、以下の発明を実施するための形態の検討から明白となるであろう。 The following and other objects and advantages of the present disclosure will become apparent from a consideration of the following detailed description, considered in conjunction with the accompanying drawings, in which like reference characters refer to like parts throughout. Will.

図1は、本開示のいくつかの実施形態による、無関係なコマンドを関連する再生修正に変換し、コマンドを実行するようにコマンドの受信者を促すことの例証的実施形態を示す。FIG. 1 illustrates an illustrative embodiment of transforming unrelated commands into relevant playback modifications and prompting recipients of the commands to execute the commands, according to some embodiments of the present disclosure.

図2は、本開示のいくつかの実施形態による、メディアガイドアプリケーション一覧および他のメディアガイド情報を提供するために使用され得る、表示画面の例証的実施形態を示す。FIG. 2 shows an illustrative embodiment of a display screen that may be used to provide media guidance application listings and other media guidance information according to some embodiments of the present disclosure.

図3は、本開示のいくつかの実施形態による、メディアガイドアプリケーション一覧を提供するために使用され得る、表示画面の別の例証的実施形態を示す。FIG. 3 shows another illustrative embodiment of a display screen that may be used to provide media guidance application listings according to some embodiments of the present disclosure.

図4は、本開示のいくつかの実施形態による、例証的ユーザ機器(UE)デバイスのブロック図である。FIG. 4 is a block diagram of an illustrative user equipment (UE) device, according to some embodiments of the disclosure.

図5は、本開示のいくつかの実施形態による、例証的メディアシステムのブロック図である。FIG. 5 is a block diagram of an illustrative media system, according to some embodiments of the disclosure.

図6は、本開示のいくつかの実施形態による、非再生コマンドを関連する再生修正に変換し、コマンドを実行するようにコマンドの受信者を促すためのプロセスの例証的フローチャートを描写する。FIG. 6 depicts an illustrative flowchart of a process for converting non-playback commands into associated playback modifications and prompting recipients of the commands to execute the commands, according to some embodiments of the present disclosure.

図7は、本開示のいくつかの実施形態による、非再生コマンドを関連する再生修正に変換し、コマンドを実行するようにコマンドの受信者を促すためのプロセスの別の例証的フローチャートを描写する。FIG. 7 depicts another illustrative flowchart of a process for converting non-playback commands into associated playback modifications and prompting recipients of the commands to execute the commands, according to some embodiments of the present disclosure; .

図8は、本開示のいくつかの実施形態による、第2のユーザの特性に基づいてコマンドを決定するためのプロセスの例証的フローチャートを描写する。FIG. 8 depicts an illustrative flowchart of a process for determining commands based on characteristics of the second user, according to some embodiments of the present disclosure.

図9は、本開示のいくつかの実施形態による、非再生コマンドを関連する再生修正に変換し、コマンドを実行するようにコマンドの受信者を促すためのプロセスの例証的フローチャートを描写する。FIG. 9 depicts an illustrative flowchart of a process for converting non-playback commands into associated playback modifications and prompting recipients of the commands to execute the commands, according to some embodiments of the present disclosure.

図10は、本開示のいくつかの実施形態による、第1のユーザの口頭入力に基づいてコマンドを決定するためのプロセスの例証的フローチャートを描写する。FIG. 10 depicts an illustrative flowchart of a process for determining commands based on a first user's verbal input, according to some embodiments of the present disclosure.

図11は、本開示のいくつかの実施形態による、コマンドの属性に基づいて結果を決定するためのプロセスの例証的フローチャートを描写する。FIG. 11 depicts an illustrative flowchart of a process for determining outcomes based on attributes of commands, according to some embodiments of the present disclosure.

図12は、本開示のいくつかの実施形態による、ユーザがメディアアセットを提示しているメディア機器デバイスの視聴エリアから退出するかどうかを検出するためのプロセスの例証的フローチャートを描写する。FIG. 12 depicts an illustrative flowchart of a process for detecting whether a user leaves the viewing area of a media equipment device presenting a media asset, according to some embodiments of the present disclosure.

図13は、本開示のいくつかの実施形態による、ユーザのランクに基づいてメディアの再生を修正するためのプロセスの例証的フローチャートを描写する。FIG. 13 depicts an illustrative flowchart of a process for modifying media playback based on a user's rank, according to some embodiments of the present disclosure.

図14は、本開示のいくつかの実施形態による、ユーザが音声の目標を満たすアクションを実施する権限を与えられているかどうかを決定することの例証的実施形態を示す。FIG. 14 illustrates an illustrative embodiment of determining whether a user is authorized to perform an action that meets a speech goal, according to some embodiments of the present disclosure.

図15は、本開示のいくつかの実施形態による、ユーザが音声の目標を満たすアクションを実施する権限を与えられているかどうかを決定するためのプロセスの例証的フローチャートを描写する。FIG. 15 depicts an illustrative flowchart of a process for determining whether a user is authorized to perform an action that satisfies a speech goal, according to some embodiments of the present disclosure.

図16は、本開示のいくつかの実施形態による、ユーザが音声の目標を満たすアクションを実施する権限を与えられているかどうかを決定するためのプロセスの別の例証的フローチャートを描写する。FIG. 16 depicts another illustrative flowchart of a process for determining whether a user is authorized to perform an action that meets a speech goal, according to some embodiments of the present disclosure.

図17は、本開示のいくつかの実施形態による、音声と関連付けられる目標を識別するためのプロセスの例証的フローチャートを描写する。FIG. 17 depicts an illustrative flowchart of a process for identifying targets associated with sounds, according to some embodiments of the present disclosure.

図18は、本開示のいくつかの実施形態による、視聴環境内のユーザの存在を検出するためのプロセスの例証的フローチャートを描写する。FIG. 18 depicts an illustrative flowchart of a process for detecting the presence of a user within a viewing environment, according to some embodiments of the present disclosure.

図19は、本開示のいくつかの実施形態による、通知を含有するオーバーレイを生成するためのプロセスの例証的フローチャートを描写する。FIG. 19 depicts an illustrative flowchart of a process for generating overlays containing notifications, according to some embodiments of the present disclosure.

図20は、本開示のいくつかの実施形態による、メディアアセットの再生を修正するためのプロセスの例証的フローチャートを描写する。FIG. 20 depicts an illustrative flowchart of a process for modifying playback of media assets, according to some embodiments of the present disclosure.

図21は、本開示のいくつかの実施形態による、ユーザが音声の目標を満たすアクションを実施する権限を与えられているかどうかを決定するためのプロセスの例証的フローチャートを描写する。FIG. 21 depicts an illustrative flowchart of a process for determining whether a user is authorized to perform an action that satisfies a speech goal, according to some embodiments of the present disclosure.

システムおよび方法が、再生に無関係であるコマンドを関連する再生修正に変換し、コマンドを実行するようにコマンドの受信者を促すために、本明細書で提供される。メディアガイドアプリケーションが、第1のユーザから第2のユーザへのコマンドを決定してもよい。メディアガイドアプリケーションは、コマンドを、現在再生されているメディアアセットのための再生動作コマンドのセットと比較してもよい。比較に応答して、メディアガイドアプリケーションは、コマンドが再生動作コマンドのセット内に含有されていないことを決定してもよい。コマンドが再生動作コマンドのセット内に含有されていないことを決定するステップに応答して、メディアガイドアプリケーションは、第2のユーザがコマンドの所望の結果を実行するかどうかを決定してもよい。そして、第2のユーザがコマンドの所望の結果を実行しないことを決定するステップに応答して、メディアガイドアプリケーションは、メディアアセットの再生を修正するかどうかを決定してもよい。 Systems and methods are provided herein for converting commands that are irrelevant to playback into relevant playback modifications and prompting the recipient of the command to execute the command. A media guidance application may determine commands from the first user to the second user. The media guidance application may compare the commands to a set of playback action commands for the currently playing media asset. In response to the comparison, the media guidance application may determine that the command is not contained within the set of playback action commands. In response to determining that the command is not contained within the set of playback action commands, the media guidance application may determine whether the second user performs the desired result of the command. Then, in response to the second user determining that the desired result of the command will not be performed, the media guidance application may determine whether to modify the playback of the media asset.

図1は、本開示のいくつかの実施形態による、無関係なコマンドを関連する再生修正に変換し、コマンドを実行するようにコマンドの受信者を促すことの例証的実施形態を示す。図1は、任意のユーザ機器上でメディアガイドアプリケーションを実行する制御回路によって提示され得る、例証的表示100を描写する。ユーザ機器、制御回路、およびメディアガイドアプリケーションの機能性は、図2-5に関してさらに詳細に説明される。 FIG. 1 illustrates an illustrative embodiment of transforming unrelated commands into relevant playback modifications and prompting recipients of the commands to execute the commands, according to some embodiments of the present disclosure. FIG. 1 depicts an illustrative display 100 that may be presented by control circuitry running a media guidance application on any user equipment. The user equipment, control circuitry, and functionality of the media guidance application are described in further detail with respect to FIGS. 2-5.

メディアガイドアプリケーションは、第1のユーザ102がコマンド104を発行したことを検出してもよい。コマンド104は、言葉または語句の口頭入力であってもよい。メディアガイドアプリケーションは、コマンド104が第2のユーザ106に向かって指向される(例えば、第1のユーザ102が第2のユーザ106に「夕食の時間ですよ!」と発し得る)ことを検出してもよい。メディアガイドアプリケーションは、メディアアセット108を再生していてもよい。メディアガイドアプリケーションは、メディアアセット108にわたってトリックプレイバー110を表示するために生成してもよく、トリックプレイバー110は、全てのトリックプレイ機能性(例えば、再生、一時停止、停止、巻き戻し、早送り等)を含有してもよい。メディアガイドアプリケーションは、トリックプレイバー110内で、メディアアセット108の現在の再生の場所に対応し得る、インジケータ112を表示するために生成してもよい。メディアガイドアプリケーションは、コマンド114がメディアアセットに適用されるトリックプレイバーコマンド(例えば、再生、一時停止、停止、巻き戻し、早送り、音量を上げる、音量を下げる、オン/オフ等)に対応する(例えば、メディアアセットが一時停止される)ことを決定してもよい。メディアガイドアプリケーションは、音量116がメディアアセット108の現在の再生の音量に対応し得ることを決定してもよい。メディアガイドアプリケーションは、コマンド114に応答して、音量116を修正してもよい。 The media guidance application may detect that first user 102 has issued command 104 . The command 104 may be an oral input of words or phrases. The media guidance application detects that command 104 is directed toward second user 106 (e.g., first user 102 may say to second user 106, "It's time for dinner!"). may A media guidance application may be playing the media asset 108 . The media guidance application may generate to display a trick play bar 110 across the media asset 108, which provides all trick play functionality (e.g. play, pause, stop, rewind, fast forward). etc.) may be included. The media guidance application may generate to display an indicator 112 within the trick play bar 110 that may correspond to the current playback location of the media asset 108 . The media guidance application may indicate that commands 114 correspond to trick play bar commands (e.g., play, pause, stop, rewind, fast forward, volume up, volume down, on/off, etc.) applied to media assets ( For example, it may decide that the media asset is paused). The media guidance application may determine that volume 116 may correspond to the volume of the current playback of media asset 108 . Media guidance application may modify volume 116 in response to command 114 .

いくつかの実施形態では、メディアガイドアプリケーションは、第1のユーザから第2のユーザへのコマンドを検出してもよい。第1のユーザは、メディアアセットの再生を現在鑑賞していないユーザであってもよく、メディアアセットの視聴環境外の環境内にいてもよい。第2のユーザは、メディアアセットの視聴環境内でメディアアセット108の再生を現在視聴しているユーザであってもよい。例えば、メディアガイドアプリケーションは、家庭用娯楽システム(例えば、Amazon Echo)を使用して、第1のユーザから第2のユーザへの口頭コマンド(例えば、「夕食ができたから席について!」)を検出してもよい。 In some embodiments, the media guidance application may detect commands from the first user to the second user. The first user may be a user not currently viewing playback of the media asset, or may be in an environment outside the viewing environment of the media asset. The second user may be the user currently viewing the playback of the media asset 108 within the viewing environment of the media asset. For example, the media guidance application uses a home entertainment system (e.g., Amazon Echo) to detect a verbal command from a first user to a second user (e.g., "Since dinner is ready, take a seat!"). You may

いくつかの実施形態では、メディアガイドアプリケーションが、第1のユーザから第2のユーザへのコマンドを検出するとき、メディアガイドアプリケーションは、第1のユーザからの口頭入力を検出してもよい。口頭入力は、コマンドに対応する、第1のユーザからの話した言葉または語句であってもよい。例えば、メディアガイドアプリケーションは、オーディオ検出センサ(例えば、マイクロホン)を使用して、第1のユーザからの口頭入力(例えば、ユーザが「夕食ができたよ!」と発すること)を検出してもよい。メディアガイドアプリケーションは、センサ(例えば、マイクロホン)によって検出されるオーディオ信号を、第1のユーザのプロファイルから読み出される、第1のユーザからの既知のオーディオサンプルと比較し、オーディオ信号が第1のユーザからの口頭入力であることを決定してもよい。 In some embodiments, the media guidance application may detect verbal input from the first user when the media guidance application detects a command from the first user to the second user. The verbal input may be spoken words or phrases from the first user that correspond to commands. For example, the media guidance application may use an audio detection sensor (eg, a microphone) to detect verbal input from the first user (eg, the user saying "Dinner is ready!"). . A media guidance application compares an audio signal detected by a sensor (e.g., a microphone) to known audio samples from the first user read from the first user's profile to determine whether the audio signal is the first user's may determine that the verbal input is from

別の実施例として、メディアガイドアプリケーションは、知的パーソナルアシスタント(IPA)(例えば、Amazon Echo、Siri等)を使用して、第1のユーザからの口頭入力を検出してもよく、IPAは、常に、IPAの周囲の環境内のオーディオ入力を聴取し、ユーザからの口頭入力を検出する。 As another example, the media guidance application may use an Intelligent Personal Assistant (IPA) (e.g., Amazon Echo, Siri, etc.) to detect verbal input from the first user, the IPA: It constantly listens for audio input in the surrounding environment of the IPA and detects verbal input from the user.

メディアガイドアプリケーションは、口頭入力をコマンドのデータベースと比較してもよく、データベースは、各口頭入力に対応するコマンドを含有する。メディアガイドアプリケーションは、第1のユーザのプロファイルからコマンドのデータベースを読み出してもよい。例えば、メディアガイドアプリケーションは、第1のユーザのためのプロファイルからコマンドのデータベースを読み出し、口頭入力(例えば、ユーザが「夕食ができたよ!」と発すること)を、コマンド(例えば、夕食を食べる、ドアに応答する、掃除する、掃除機をかける等)を含有するデータベースと比較してもよい。 The media guidance application may compare the spoken input to a database of commands, the database containing commands corresponding to each spoken input. The media guidance application may retrieve a database of commands from the first user's profile. For example, the media guidance application reads a database of commands from the profile for the first user and translates verbal input (e.g., the user saying "Dinner is ready!") into commands (e.g., eat dinner, door, sweep, vacuum, etc.).

メディアガイドアプリケーションは、比較から、第1のユーザからの口頭入力に対応するコマンドを決定してもよい。例えば、メディアガイドアプリケーションは、ユーザプロファイルから、入力とコマンドとの間のパターン認識を使用して、口頭入力(例えば、「夕食ができたよ!」)がコマンド(例えば、夕食を食べる)に対応することを決定してもよい。 The media guidance application may determine from the comparison a command corresponding to the verbal input from the first user. For example, the media guidance application uses pattern recognition between inputs and commands from the user profile to map verbal input (e.g., "Dinner is ready!") to command (e.g., eat dinner). may decide to

いくつかの実施形態では、メディアガイドアプリケーションが、比較から、第1のユーザからの口頭入力に対応するコマンドを決定するとき、メディアガイドアプリケーションは、口頭入力とコマンドのデータベースとの間の合致を決定してもよい。メディアガイドアプリケーションは、キーワード合致を通して、口頭入力とコマンドのデータベースとの間の潜在的合致を決定してもよい。例えば、メディアガイドアプリケーションは、口頭入力内のキーワード(例えば、「夕食」および「できた」)を検出してもよく、これらのキーワードをコマンドのデータベースと比較してもよい。コマンドのデータベース内の各コマンドは、それと関連付けられる複数のキーワードを有してもよい(例えば、コマンド「夕食を食べて」は、それと関連付けられるキーワード「夕食」、「食べ物」、「空腹」、「食べる」、「食事」等を有してもよい)。メディアガイドアプリケーションは、口頭入力からの単一または複数のキーワードが、コマンドのデータベース内のコマンドと関連付けられる単一または複数のキーワードに合致するときに、口頭入力がコマンドに合致することを決定してもよい。 In some embodiments, when the media guidance application determines from the comparison the command corresponding to the verbal input from the first user, the media guidance application determines a match between the verbal input and the database of commands. You may The media guidance application may determine potential matches between spoken input and a database of commands through keyword matching. For example, the media guidance application may detect keywords in the spoken input (eg, "dinner" and "done") and compare these keywords to a database of commands. Each command in the database of commands may have multiple keywords associated with it (e.g., the command "have dinner" has associated keywords "dinner", "food", "hungry", " eat", "meal", etc.). The media guidance application determines that a spoken input matches a command when the single or multiple keywords from the spoken input match the single or multiple keywords associated with the command in the database of commands. good too.

例えば、メディアガイドアプリケーションは、口頭入力がコマンド内に含有されるキーワード(例えば、「夕食」)に合致するため、口頭入力(例えば、「夕食ができたよ!」)がコマンド(例えば、夕食を食べる)に対応することを決定してもよい。メディアガイドアプリケーションは、合致に対応するコマンド(例えば、夕食を食べる)が、第1のユーザからの口頭入力に対応するコマンドであることを決定してもよい。 For example, the media guidance application may determine that a verbal input (eg, "dinner is ready!") is a command (eg, eat dinner) because the verbal input matches keywords contained within the command (eg, "dinner"). ). The media guidance application may determine that the command corresponding to the match (eg, eat dinner) is the command corresponding to verbal input from the first user.

いくつかの実施形態では、メディアガイドアプリケーションが、口頭入力とコマンドのデータベースとの間の複数の潜在的合致(例えば、口頭入力が複数の異なるコマンドに合致し得る)を決定するとき、メディアガイドアプリケーションは、最も多くのキーワード合致を含有する潜在的合致内の合致に対応するコマンドが、第1のユーザからの口頭入力に対応するコマンドであることを決定してもよい。例えば、メディアガイドアプリケーションが、口頭入力(例えば、「夕食を食べる時間ですよ!」)が複数のコマンド(例えば、夕食を食べる、昼食を食べる、タイマを設定する等)に合致することを決定するとき、メディアガイドアプリケーションは、合致(例えば、夕食を食べる)が最も多くのキーワード合致を含有し、したがって、口頭入力に対応するコマンドであることを決定してもよい。 In some embodiments, when the media guidance application determines multiple potential matches between the spoken input and the database of commands (eg, the spoken input may match multiple different commands), the media guidance application may determine that the command corresponding to the match within the potential matches containing the most keyword matches is the command corresponding to verbal input from the first user. For example, the media guidance application determines that verbal input (e.g., "It's time to eat dinner!") matches multiple commands (e.g., eat dinner, eat lunch, set a timer, etc.). Then the media guidance application may determine that the match (eg, eat dinner) is the command that contains the most keyword matches and thus corresponds to the verbal input.

第1のユーザによって与えられるコマンドを決定した後、メディアガイドアプリケーションは、コマンドの状況およびそれが再生動作に関連する方法を決定してもよい。メディアガイドアプリケーションは、コマンドを、第2のユーザによって現在再生されているメディアアセットのための再生動作コマンドのセットと比較してもよい。メディアガイドアプリケーションは、プロファイル内のデータベースから再生動作コマンドのセットを読み出してもよい。例えば、メディアガイドアプリケーションは、コマンド(例えば、夕食を食べる)を、第2のユーザによって現在再生されているメディアアセット(例えば、映画)のためのプロファイルから読み出される再生動作コマンドのセット(例えば、一時停止、早送り、ミュート等)と比較してもよい。 After determining the command given by the first user, the media guidance application may determine the context of the command and how it relates to playback operations. The media guidance application may compare the commands to a set of playback action commands for the media asset currently being played by the second user. The media guidance application may retrieve the set of playback action commands from a database within the profile. For example, the media guidance application may send a command (e.g., eat dinner) to a set of playback action commands (e.g., a temporary stop, fast forward, mute, etc.).

比較に応答して、メディアガイドアプリケーションは、コマンドが再生動作コマンドのセット内に含有されていないことを決定してもよい。例えば、メディアガイドアプリケーションは、コマンド(例えば、夕食を食べる)が再生動作コマンドのセット(例えば、一時停止、早送り、ミュート等)内に含有されていないことを決定してもよい。 In response to the comparison, the media guidance application may determine that the command is not contained within the set of playback action commands. For example, the media guidance application may determine that a command (eg, eat dinner) is not contained within a set of playback action commands (eg, pause, fast forward, mute, etc.).

メディアガイドアプリケーションは、第1のユーザのユーザプロファイルおよび第2のユーザのユーザプロファイルに基づいて、コマンドの複数の結果からコマンドの所望の結果を決定してもよい。メディアガイドアプリケーションは、下記に詳細に説明されるように、属性を使用し、所望の結果を決定してもよい。例えば、メディアガイドアプリケーションは、下記に説明される方法を使用して、第1のユーザのユーザプロファイル(例えば、プロファイルは、第1のユーザが母親であることを記述し得る)および第2のユーザのユーザプロファイル(例えば、第2のプロファイルは、第2のユーザが母親のコマンドに従う母親の息子であることを記述し得る)に基づいて、コマンドの所望の結果(例えば、第2のユーザが映画の鑑賞を止めて夕食を食べる)を決定してもよい。 The media guidance application may determine the desired result of the command from multiple results of the command based on the first user's user profile and the second user's user profile. The media guidance application may use the attributes to determine desired results, as described in detail below. For example, the media guidance application uses the methods described below to use the first user's user profile (eg, the profile may describe that the first user is a mother) and the second user's user profile. (e.g., the second profile may describe that the second user is the son of the mother following the mother's command), the desired result of the command (e.g., if the second user sees a movie may decide to stop watching the movie and have dinner).

いくつかの実施形態では、メディアガイドアプリケーションは、コマンドの属性を決定することによって、コマンドの所望の結果を決定してもよい。いくつかの実施形態では、メディアガイドアプリケーションが、第1のユーザのユーザプロファイルおよび第2のユーザのユーザプロファイルに基づいて、コマンドの複数の結果からコマンドの所望の結果を決定しているとき、メディアガイドアプリケーションは、コマンドの属性を決定してもよい。メディアガイドアプリケーションは、コマンドを分析し、明確に異なる属性(例えば、コマンドの韻律(例えば、意味を決定するために発話の口調および調律を使用すること))を決定してもよい。 In some embodiments, the media guidance application may determine the desired result of a command by determining attributes of the command. In some embodiments, when the media guidance application is determining the desired result of the command from the multiple results of the command based on the user profile of the first user and the user profile of the second user, the media The guide application may determine the attributes of the command. The media guidance application may analyze the command and determine distinct attributes, such as the command's prosody (eg, using tone and intonation of speech to determine meaning).

いくつかの実施形態では、メディアガイドアプリケーションは、コマンドのオーディオ特性を分析し、明確に異なる属性を決定してもよい。いくつかの実施形態では、明確に異なる属性を決定するために、メディアガイドアプリケーションは、コマンドを複数のオーディオサンプルの中のオーディオサンプルと比較してもよく、各オーディオサンプルは、コマンドを話すユーザを決定するように、明確に異なるユーザと関連付けられる。メディアガイドアプリケーションは、発話処理を使用して、以下の属性、すなわち、声のピッチ(例えば、低と高との間で変動する)、音声の長さ(例えば、短と長との間で変動する)、音量(例えば、弱と強との間で変動する)、および音声の音色等の発話処理変数を使用して、発言の形態(例えば、声明、質問、またはコマンド)、皮肉またはアイロニーの存在、強調、コントラスト、焦点、および幼児向けの発話(例えば、赤ちゃん言葉)の存在を含む、属性を決定してもよい。例えば、メディアガイドアプリケーションは、コマンドに対応するピッチ、音声の長さ、音量、および音色発話処理変数と発話処理を併用して、コマンドの属性(例えば、コマンドの発話者、コマンドの口調、コマンドの重大性等)を決定してもよい。コマンドの明確に異なる属性を決定するステップに応答して、メディアガイドアプリケーションは、コマンドの属性をコマンドの複数の結果の属性と比較し、所望の結果を決定してもよい。 In some embodiments, the media guidance application may analyze the audio characteristics of the command and determine distinct attributes. In some embodiments, to determine distinct attributes, the media guidance application may compare the command to audio samples in a plurality of audio samples, each audio sample representing the user speaking the command. As determined, it is associated with distinctly different users. The media guidance application uses speech processing to identify the following attributes: voice pitch (e.g., fluctuating between low and high), voice length (e.g., fluctuating between short and long) ), volume (e.g., fluctuating between weak and strong), and speech timbre, to determine the form of utterance (e.g., a statement, question, or command), ironic or ironic Attributes may be determined, including presence, emphasis, contrast, focus, and presence of infant-friendly speech (eg, baby talk). For example, the media guidance application may use the command's corresponding pitch, duration, volume, and timbre speech processing variables together with the speech processing to determine the attributes of the command (e.g., the speaker of the command, the tone of the command, the tone of the command, the severity, etc.) may be determined. In response to determining distinct attributes of the command, the media guidance application may compare attributes of the command to attributes of multiple results of the command to determine a desired result.

メディアガイドアプリケーションは、コマンドの属性をコマンドの複数の結果の属性と比較してもよい。例えば、メディアガイドアプリケーションは、コマンドの属性(例えば、発言の形態、皮肉またはアイロニーの存在、強調、コントラスト、焦点、幼児向けの発話等)をコマンドの複数の結果の属性(例えば、コマンドが従われる場合の結果、コマンドが無視される場合の結果、コマンドに従うことの結論、コマンドに従わないことの結論等)と比較してもよい。メディアガイドアプリケーションは、プロファイル内のデータベースから複数の結果を読み出してもよい。 The media guidance application may compare attributes of the command with attributes of multiple results of the command. For example, the media guidance application may match attributes of a command (e.g., form of utterance, presence of sarcasm or irony, emphasis, contrast, focus, infantile speech, etc.) to multiple outcome attributes of the command (e.g., the command is obeyed). results if the command is ignored, consequences of following the command, consequences of not following the command, etc.). The media guidance application may retrieve multiple results from the database within the profile.

いくつかの実施形態では、メディアガイドアプリケーションは、プロファイルからコマンドの複数の結果を読み出してもよい。メディアガイドアプリケーションは、コマンドのデータベース内の各コマンドが、該コマンドへの対応する結果のセットにリンクされることを決定してもよい。例えば、メディアガイドアプリケーションは、データベース内のコマンドエントリから対応する結果のセットへのポインタを使用してもよい。該コマンドへの対応する結果は、エディタによって事前決定されてもよく、また、ユーザの学習された挙動に基づいて、メディアガイドアプリケーションによって更新され、それに追加されてもよい。 In some embodiments, the media guidance application may retrieve multiple results of a command from the profile. The media guidance application may determine that each command in the database of commands is linked to a corresponding set of results for that command. For example, the media guidance application may use a pointer from the command entry in the database to the corresponding result set. The corresponding results to the command may be predetermined by the editor, and may be updated and added to by the media guidance application based on the user's learned behavior.

いくつかの実施形態では、メディアガイドアプリケーションは、学習された挙動に基づいて、コマンドにリンクされるべき結果を追加してもよい。メディアガイドアプリケーションは、新しい結果を対応する結果のセットと比較し、2つのデータの間に重複がないことを決定することによって、コマンドが発行された後に第1のユーザと第2のユーザとの間で起こった新しい結果が、該コマンドへの対応する結果のセット内に含まれなかったことを決定してもよい。例えば、メディアガイドアプリケーションは、比較から、新しい結果(例えば、第2のユーザがコマンドに応答してその電話に応答する)が対応する結果の現在のセット(例えば、食べる、映画を一時停止する、何もしない)に重複しないことを決定してもよい。 In some embodiments, the media guidance application may add results to be linked to commands based on learned behavior. The media guidance application compares the new result with the corresponding set of results and determines that there is no overlap between the two data, thereby allowing the first user and the second user to communicate after the command is issued. It may be determined that the new result that occurred in between was not included in the set of results corresponding to the command. For example, the media guidance application determines from the comparison that the new result (e.g., the second user answers the phone in response to a command) corresponds to the current set of results (e.g., eat, pause the movie, do nothing).

メディアガイドアプリケーションは、プロファイル内の属性データベースから複数の結果の中の結果の属性を読み出してもよい。 The media guidance application may retrieve attributes of results in multiple results from an attribute database in the profile.

いくつかの実施形態では、メディアガイドアプリケーションは、結果に対応する、エディタによって決定される、事前設定された属性を含有する属性データベースから、結果の属性を読み出してもよい。メディアガイドアプリケーションは、下記に詳細に説明されるように、結果に対応する新しい属性を決定すること、または結果に対応する属性(例えば、もはや結果の正確な属性ではない)を除去することに応答して、属性データベースを更新してもよい。各属性は、対応する結果に指向されるデータベース内のポインタを有してもよい。例えば、メディアガイドアプリケーションは、結果(例えば、夕食を食べる)に対応する属性(例えば、ユーザが夕食を食べに行く、ユーザがダイニングルームに行く、ユーザが夕食のテーブルの上の皿から食べ物を食べる、ユーザが再生を一時停止し、部屋から退出してダイニングルームに行く等)を読み出してもよい。 In some embodiments, the media guidance application may retrieve attributes of the result from an attribute database containing preset attributes determined by the editor corresponding to the result. The media guidance application responds by determining a new attribute corresponding to the result or removing an attribute corresponding to the result (e.g., no longer the correct attribute of the result), as described in detail below. to update the attribute database. Each attribute may have a pointer in the database pointing to the corresponding result. For example, the media guidance application may include attributes (e.g., user goes to dinner, user goes to dining room, user eats from plate on dinner table) that correspond to outcome (e.g., eats dinner). , the user pauses playback, leaves the room and goes to the dining room, etc.).

メディアガイドアプリケーションは、結果が起こったことを決定し(例えば、センサを使用してそれを検出し)、起こった結果を分析して結果の属性を決定することによって、新しい属性が結果に対応することを決定してもよい。メディアガイドアプリケーションは、結果の物理的および聴覚成分に基づいて、結果の属性を決定してもよい。メディアガイドアプリケーションは、コマンドの属性を決定することに関連して上記に説明されるものに類似する方法を使用して(例えば、コマンドの韻律を決定することによって)、起こった結果の聴覚成分に基づいて、属性を決定してもよい。 The media guidance application determines that an outcome has occurred (e.g., detects it using a sensor), analyzes the outcome that has occurred, and determines attributes of the outcome so that new attributes correspond to the outcome. may decide to The media guidance application may determine attributes of the results based on the physical and auditory components of the results. The media guidance application may use methods similar to those described above in connection with determining the attributes of the command (e.g., by determining the prosody of the command) to determine the auditory component of the resulting result. Attributes may be determined based on

いくつかの実施形態では、メディアガイドアプリケーションは、起こった結果の物理的成分に基づいて、結果の属性を決定してもよい。メディアガイドアプリケーションは、センサを使用して、結果に対応する物理的応答を検出してもよい。例えば、メディアガイドアプリケーションは、カメラを使用し、メディアアセットの再生の視聴環境から物理的に退出する第2のユーザを検出してもよい。別の実施例として、メディアガイドアプリケーションは、赤外線センサを使用して、視聴環境のヒートマップを決定し、第1のユーザからのコマンドを聞くステップに応答して、第2のユーザが視聴環境内のその位置から移動していないことを検出してもよい。メディアガイドアプリケーションは、検出された物理的応答が起こった結果の属性であることを決定してもよい。メディアガイドアプリケーションは、起こった結果の決定された属性を、結果に対応するデータベース内の属性と比較してもよく、結果に対応する属性の中になかった、起こった結果からの任意の属性を追加してもよい。 In some embodiments, the media guidance application may determine outcome attributes based on the physical components of the outcome that occurred. The media guidance application may use sensors to detect physical responses corresponding to the results. For example, the media guidance application may use a camera to detect a second user physically exiting the viewing environment for playback of the media asset. As another example, the media guidance application uses an infrared sensor to determine a heat map of the viewing environment and, in response to listening for commands from the first user, directs the second user into the viewing environment. may detect that it has not moved from its position. The media guidance application may determine that the detected physical response is an attribute of what happened. The media guidance application may compare the determined attributes of the outcome to the attributes in the database corresponding to the outcome, and remove any attributes from the outcome that were not among the attributes corresponding to the outcome. may be added.

例えば、メディアガイドアプリケーションは、カメラを介して検出することから、結果(例えば、第2のユーザがメディアアセットの視聴環境から退出すること)が起こったことを決定してもよい。メディアガイドアプリケーションは、起こった結果(例えば、第2のユーザが「お腹が空いていない!」と第1のユーザに叫んだ)を分析し、(例えば、起こった結果の聴覚および物理的成分に基づいて)結果の属性を決定してもよい。メディアガイドアプリケーションは、(例えば、ユーザが叫ぶことおよびユーザの応答の状況に基づく)ユーザの否定的応答およびユーザが視聴エリアから退出できないことが、起こった結果(例えば、ユーザがコマンドに従わない)の属性であることを決定してもよい。 For example, the media guidance application may determine that an outcome (eg, the second user exiting the viewing environment of the media asset) has occurred from sensing via the camera. The media guidance application analyzes what happened (e.g., a second user shouted "I'm not hungry!" to the first user) and analyzes (e.g., the auditory and physical components of what happened) ) may determine attributes of the results. The media guidance application may determine that the user's negative response (eg, based on the user's shouting and the context of the user's response) and the user's inability to leave the viewing area are the consequences of what happened (eg, the user does not follow commands). may be determined to be attributes of

いくつかの実施形態では、メディアガイドアプリケーションは、同一の結果が少なくとも閾値回数量で起こった後に、属性が対応する結果に存在しなかったことを決定するステップに応答して、結果に対応する属性を除去してもよい。メディアガイドアプリケーションは、複数のカウンタの中のカウンタを保ってもよく、各カウンタは、具体的結果の属性と関連付けられる。メディアガイドアプリケーションは、具体的結果が起こり、属性を含有した後に、具体的結果の属性のためのカウンタを更新してもよい(例えば、値をカウンタに追加する)。メディアガイドアプリケーションは、プロファイルから閾値回数量を読み出してもよく、閾値は、エディタによって事前設定されてもよく、ユーザ入力に基づいて更新されてもよい。メディアガイドアプリケーションは、具体的結果のためのカウンタを閾値と比較してもよく、カウンタが閾値を上回ることを決定するステップに応答して、メディアガイドアプリケーションは、結果に対応する属性として属性を除去してもよい。 In some embodiments, the media guidance application updates the attribute corresponding to the result in response to determining that the attribute was not present in the corresponding result after the same result has occurred at least a threshold number of times. may be removed. The media guidance application may maintain a counter in multiple counters, each counter being associated with a specific result attribute. The media guidance application may update the counter for the attribute of the concrete result (eg, add the value to the counter) after the concrete result occurs and contains the attribute. The media guidance application may retrieve the threshold count amount from the profile, and the threshold may be preset by the editor or updated based on user input. The media guidance application may compare the counter for a specific result to a threshold, and in response to determining that the counter exceeds the threshold, the media guidance application removes the attribute as the attribute corresponding to the result. You may

例えば、メディアガイドアプリケーションは、結果(例えば、第2のユーザが夕食を食べない)に対応する属性(例えば、第2のユーザがコマンドに応答して「いいえ」と叫ぶ)を除去してもよい。メディアガイドアプリケーションは、同一の結果が少なくとも閾値回数量(例えば、10回)起こった後に、属性が対応する結果に存在しなかったことを決定してもよい。メディアガイドアプリケーションは、プロファイルからエディタ定義された閾値回数量(例えば、10回)を読み出してもよい。メディアガイドアプリケーションは、エディタ定義された閾値回数量を結果と関連付けられるカウンタと比較し、カウンタ(例えば、11回)が閾値量(例えば、10回)を上回ることを決定するステップに応答して、メディアガイドアプリケーションは、結果(例えば、第2のユーザが夕食を食べない)に対応する属性(例えば、第2のユーザがコマンドに応答して「いいえ」と叫ぶ)を除去してもよい。 For example, the media guidance application may remove attributes (eg, the second user yells "no" in response to the command) that correspond to outcomes (eg, the second user does not eat dinner). . The media guidance application may determine that the attribute was not present in the corresponding result after the same result has occurred at least a threshold number of times (eg, 10 times). The media guidance application may read an editor-defined threshold number of times (eg, 10 times) from the profile. The media guidance application, in response to comparing an editor-defined threshold amount of times to a counter associated with the result and determining that the counter (e.g., 11 times) exceeds the threshold amount (e.g., 10 times); The media guidance application may remove attributes (eg, the second user yells "no" in response to the command) that correspond to outcomes (eg, the second user does not eat dinner).

メディアガイドアプリケーションは、比較から、コマンドの属性を含有する複数の結果の中の結果を、所望の結果であると決定してもよい。メディアガイドアプリケーションは、ランキングシステムを使用し、比較から所望の結果を決定してもよい。例えば、メディアガイドアプリケーションは、比較から、コマンドの属性(例えば、コマンドの意図された結論)を含有する結果(例えば、ユーザが映画を一時停止して夕食を食べに行く)を、所望の結果であると決定してもよい。 The media guidance application may determine from the comparison that the result among the multiple results containing the attributes of the command is the desired result. The media guidance application may use a ranking system to determine desired results from the comparisons. For example, the media guidance application may select from the comparison a result containing the attributes of the command (e.g., the intended conclusion of the command) (e.g., the user pauses the movie and goes to dinner) with the desired result. You may decide that there is.

いくつかの実施形態では、メディアガイドアプリケーションは、複数の結果の中の結果のランクに基づいて、コマンドの属性を含有する複数の結果の中の結果を、所望の結果であると決定してもよい。メディアガイドアプリケーションは、結果がコマンドの属性と共通して有する属性の量(例えば、共通する属性の割合)に基づいて、複数の結果のうちの結果のランクを決定してもよい。メディアガイドアプリケーションは、ランクが共通する属性の割合と直接対応する(例えば、割合がより高いときに、ランクがより高い)ことを決定してもよい。 In some embodiments, the media guidance application may determine a result in the plurality of results containing the command attribute to be the desired result based on the rank of the result in the plurality of results. good. The media guidance application may rank results among multiple results based on the amount of attributes that the results have in common with the attributes of the command (eg, the percentage of attributes in common). The media guidance application may determine that the ranks correspond directly to the proportions of common attributes (eg, the higher the proportion, the higher the rank).

例えば、メディアガイドアプリケーションは、(例えば、結果の属性をコマンドの属性と比較することによって)結果がコマンドの属性と共通して属性の割合(例えば、20個の属性の中から18、または90%)有することを決定することによって、複数の結果の中の結果のランクを決定してもよい。メディアガイドアプリケーションは、結果のランクが割合と直接対応する(例えば、100の中から90にランク付けされる)ことを決定してもよい。 For example, the media guidance application may determine the percentage of attributes (eg, 18 out of 20 attributes, or 90%) that the results have in common with the attributes of the command (eg, by comparing the attributes of the results to the attributes of the command). ) may determine the rank of the result among the plurality of results. The media guidance application may determine that the ranking of the results corresponds directly to the percentage (eg, ranked 90 out of 100).

いくつかの実施形態では、メディアガイドアプリケーションは、第1のユーザの選好(例えば、第1のユーザが具体的コマンドに関する好ましい結果を有する)から、第1のユーザの好ましい結果に対応する結果を読み出してもよい。具体的コマンドに関する好ましい結果は、好ましい結果に対応する複数の結果の中の結果を、最高ランクの結果にさせてもよい。例えば、メディアガイドアプリケーションは、第1のユーザの選好から、第1のユーザの好ましい結果に対応する結果(例えば、第2のユーザが立ち上がって夕食を食べに行く)を読み出してもよい。メディアガイドアプリケーションは、好ましい結果が全ての複数の結果の中から最高のランクである(例えば、100の中から100のランクである)ことを決定してもよい。 In some embodiments, the media guidance application retrieves results corresponding to the first user's preferred results from the first user's preferences (e.g., the first user has preferred results for a specific command). may A preferred result for a specific command may cause the result in the plurality of results corresponding to the preferred result to be the highest ranked result. For example, the media guidance application may retrieve results from the first user's preferences that correspond to the first user's preferred results (eg, the second user gets up and goes to dinner). The media guidance application may determine that the preferred result is the highest ranked among all multiple results (eg, ranks 100 out of 100).

コマンドの所望の結果を決定した後、メディアガイドアプリケーションは、コマンドへの第2のユーザの反応を決定し、それが所望の結果を満たすかどうかを決定してもよい。メディアガイドアプリケーションは、第2のユーザによって実行されるアクションを検出してもよい。例えば、メディアガイドアプリケーションは、カメラを介して、ユーザが、映画の再生が起こっている視聴環境から退出し、ダイニングルームに進入したことを検出してもよい。 After determining the desired result of the command, the media guidance application may determine the second user's reaction to the command and determine whether it meets the desired result. The media guidance application may detect actions performed by the second user. For example, a media guidance application may detect, via a camera, that a user has left a viewing environment in which a movie is playing and has entered a dining room.

いくつかの実施形態では、メディアガイドアプリケーションが、第2のユーザによって実行されるアクションを検出しているとき、メディアガイドアプリケーションは、センサを使用して、メディアアセットを提示しているメディア機器デバイスの視聴環境から退出する第2のユーザを検出してもよい。例えば、メディアガイドアプリケーションは、モーション検出センサを介して、第2のユーザが、ユーザが映画を鑑賞しているテレビの視聴環境から退出していることを検出してもよい。 In some embodiments, when the media guidance application detects an action performed by the second user, the media guidance application uses the sensor to detect the motion of the media equipment device presenting the media asset. A second user exiting the viewing environment may be detected. For example, the media guidance application may detect, via a motion detection sensor, that a second user is leaving the television viewing environment in which the user is watching a movie.

いくつかの実施形態では、メディアガイドアプリケーションが、第2のユーザによって実行されるアクションを検出しているとき、メディアガイドアプリケーションは、メディアアセットの再生を修正するコマンドを実行する第2のユーザを検出してもよい。例えば、メディアガイドアプリケーションは、リモートコントロールデバイス上の入力コマンドを押下し、ユーザが鑑賞している映画の再生を「一時停止する」ユーザを検出してもよい。 In some embodiments, when the media guidance application is detecting actions performed by the second user, the media guidance application detects the second user executing a command to modify the playback of the media asset. You may For example, a media guidance application may detect a user pressing an input command on a remote control device to "pause" playback of a movie the user is watching.

いくつかの実施形態では、メディアガイドアプリケーションが、第2のユーザによって実行されるアクションを検出しているとき、メディアガイドアプリケーションは、センサを使用して、第2のユーザがメディアアセットデバイスの視聴環境内に留まることを検出してもよい。例えば、メディアガイドアプリケーションは、ヒートマッピングセンサを使用して、第2のユーザが、ユーザが映画の再生を鑑賞している長椅子から離れていないことを検出してもよい。 In some embodiments, when the media guidance application is detecting an action performed by a second user, the media guidance application uses the sensors to indicate that the second user is viewing the media asset device's viewing environment. It may detect that it stays inside. For example, the media guidance application may use heat mapping sensors to detect that the second user has not left the couch where the user is watching a movie play.

メディアガイドアプリケーションは、第2のユーザのアクションをコマンドの所望の結果と比較してもよい。例えば、メディアガイドアプリケーションは、アクション(例えば、第2のユーザが映画を鑑賞し続けること)をコマンドの所望の結果(例えば、第2のユーザが夕食を食べに行くこと)と比較してもよい。 The media guidance application may compare the second user's actions with the desired result of the command. For example, the media guidance application may compare an action (eg, the second user continues watching a movie) with the desired result of the command (eg, the second user goes out to dinner). .

第2のユーザのアクションがコマンドの所望の結果に対応しないことを決定するステップに応答して、メディアガイドアプリケーションは、第2のユーザのユーザプロファイルから第2のユーザの特性を読み出してもよい。メディアガイドアプリケーションは、ユーザプロファイル内の特性データベースから第2のユーザの特性を読み出してもよい。データベース内に記憶された特性値は、ユーザ入力(例えば、ユーザがリモートコントローラ等のユーザ入力デバイスを介して情報を入力すること)に基づいて決定されてもよい。例えば、メディアガイドアプリケーションは、第2のユーザのユーザプロファイルから特性(例えば、年齢、第1のユーザとの関係、家庭内のユーザランク等)を読み出してもよい。 In response to determining that the second user's action does not correspond to the desired result of the command, the media guidance application may retrieve characteristics of the second user from the second user's user profile. The media guidance application may retrieve the characteristics of the second user from a characteristics database within the user profile. Characteristic values stored in the database may be determined based on user input (eg, a user entering information via a user input device such as a remote control). For example, the media guidance application may retrieve characteristics (eg, age, relationship to the first user, user rank within the household, etc.) from the second user's user profile.

いくつかの実施形態では、メディアガイドアプリケーションは、第2のユーザの読み出された特性からの特性をコマンドと比較してもよく、特性は、年齢、ランク、他のユーザとの関係、および時刻から成る特性の群から選択され、コマンドは、食事、掃除、勉強、調理、および睡眠から成るコマンドの群から選択される。 In some embodiments, the media guidance application may compare characteristics from the retrieved characteristics of the second user to the command, the characteristics being age, rank, relationship with other users, and time of day. and the command is selected from the group of commands consisting of eating, cleaning, studying, cooking, and sleeping.

メディアガイドアプリケーションは、比較から、コマンドが第2のユーザの特性を共有するかどうかを決定してもよい。例えば、メディアガイドアプリケーションは、比較から、コマンド(例えば、食事)が第2のユーザの特性(例えば、時刻)を共有するかどうかを決定してもよい。 The media guidance application may determine from the comparison whether the command shares the characteristics of the second user. For example, the media guidance application may determine from the comparison whether the command (eg, meal) shares the second user's characteristic (eg, time of day).

いくつかの実施形態では、メディアガイドアプリケーションは、コマンドが第2のユーザの「年齢」特性を共有するかどうかを決定してもよい。メディアガイドアプリケーションは、プロファイルから、コマンドの年齢特性を読み出してもよい。例えば、メディアガイドアプリケーションは、コマンドの年齢特性を読み出してもよい(例えば、本コマンドは、15歳未満の任意のユーザによって従われなければならず、15歳以上の任意のユーザによって無視されてもよい)。メディアガイドアプリケーションは、第2のユーザの年齢(例えば、第2のユーザが10歳である)をコマンドの年齢特性と比較してもよく、コマンドが第2のユーザの年齢特性を共有する(例えば、第2のユーザの年齢が、コマンドに従わなければならないユーザの年齢範囲(15歳未満)内である)ことを決定してもよい。 In some embodiments, the media guidance application may determine whether the command shares the second user's "age" characteristic. The media guidance application may retrieve the command's age characteristics from the profile. For example, the media guidance application may read the age property of the command (eg, the command must be followed by any user under the age of 15 and ignored by any user over the age of 15). good). The media guidance application may compare the age of the second user (eg, the second user is 10 years old) to the age characteristic of the command, and the command shares the second user's age characteristic (eg, , that the age of the second user is within the age range (under 15) of users who must obey the command.

いくつかの実施形態では、メディアガイドアプリケーションは、コマンドが第2のユーザの「他のユーザとの関係」特性を共有するかどうかを決定してもよい。メディアガイドアプリケーションは、プロファイルから、他のユーザとの第2のユーザの関係(例えば、第2のユーザが第1のユーザの息子である)を読み出してもよい。メディアガイドアプリケーションは、コマンドの関係特性(例えば、コマンドを受信するユーザとのコマンドを与えるユーザの関係に基づく、コマンドに従わなければならない者の階級)を読み出してもよい。メディアガイドアプリケーションは、階級に基づいて、第2のユーザが第1のユーザのコマンドに従わなければならないかどうかを決定してもよい。「はい」、すなわち、第2のユーザが第1のユーザのコマンドに従わなければならないことを決定するステップに応答して、メディアガイドアプリケーションは、コマンドが第2のユーザと「他のユーザとの関係」特性を共有することを決定してもよい。 In some embodiments, the media guidance application may determine whether the command shares the second user's "relationship with other users" characteristic. The media guidance application may retrieve the second user's relationships with other users (eg, the second user is the son of the first user) from the profile. The media guidance application may read the relationship properties of the command (eg, the rank of those who must follow the command based on the relationship of the user giving the command with the user receiving the command). The media guidance application may determine whether the second user should follow the commands of the first user based on rank. In response to determining yes, that the second user should follow the first user's command, the media guidance application determines that the command is between the second user and the "other user." may decide to share the "relationship" property.

いくつかの実施形態では、メディアガイドアプリケーションは、コマンドが第2のユーザの「時刻」特性を共有するかどうかを決定してもよい。メディアガイドアプリケーションは、第2のユーザのプロファイルから、「時刻」特性(例えば、ユーザが毎日午後5:00~午後8:00の間に第1のユーザからのコマンドに従わなければならない)を読み出してもよい。時刻特性は、第1のユーザからの入力から第2のユーザのプロファイルの中に作成される、事前決定された値であってもよい。メディアガイドアプリケーションは、コマンドが第1のユーザによって発行された時刻(例えば、午後7:02)を決定してもよい。メディアガイドアプリケーションは、本時間を時刻特性と比較し、コマンドが発行された時間が時刻特性からの時間枠内に入るため、コマンドが第2のユーザと時刻特性を共有することを決定してもよい。 In some embodiments, the media guidance application may determine whether the command shares the second user's "time of day" property. The media guidance application reads from the second user's profile a "time of day" characteristic (eg, the user must follow commands from the first user between 5:00 pm and 8:00 pm every day). may The time of day characteristic may be a pre-determined value created in the second user's profile from input from the first user. The media guidance application may determine the time the command was issued by the first user (eg, 7:02 PM). The media guidance application compares this time to the time of day feature and determines that the command shares the time of day feature with the second user because the time the command was issued falls within the time frame from the time of day feature. good.

いくつかの実施形態では、メディアガイドアプリケーションが、第1のユーザから検出されるコマンドおよび第2のユーザの読み出された特性に基づいて、メディアアセットの再生を修正するかどうかを決定しているとき、メディアガイドアプリケーションは、第1のユーザのランクおよび第2のユーザのランクを読み出してもよい。メディアガイドアプリケーションは、プロファイルから第1のユーザおよび第2のユーザのランクを読み出してもよく、ランクは、ユーザ入力に基づく事前設定された値である(例えば、第1のユーザは、ユーザアカウントを伴う全てのユーザのランキング順を選択する)。例えば、メディアガイドアプリケーションは、第1のユーザのランク(例えば、第1のユーザは、5人のユーザの中から第1にランク付けされる)および第2のユーザのランク(例えば、第2のユーザは、5人のユーザの中から第4にランク付けされる)を読み出してもよい。 In some embodiments, the media guidance application determines whether to modify the playback of the media asset based on commands detected from the first user and the retrieved characteristics of the second user. At some point, the media guidance application may retrieve the first user's rank and the second user's rank. The media guidance application may read the ranks of the first user and the second user from the profile, where the ranks are preset values based on user input (e.g., the first user has a user account select the ranking order of all users with). For example, the media guidance application may determine the rank of the first user (eg, the first user is ranked first out of five users) and the rank of the second user (eg, the second The user may read (ranked 4th out of 5 users).

メディアガイドアプリケーションは、ランクから、第1のユーザが第2のユーザよりも高くランク付けされているかどうかを決定してもよい。例えば、メディアガイドアプリケーションは、第1のユーザ(例えば、第1にランク付けされる)が第2のユーザ(例えば、第2にランク付けされる)よりも高くランク付けされていることを決定してもよい。 The media guidance application may determine from the ranks whether the first user is ranked higher than the second user. For example, the media guidance application determines that a first user (eg, ranked first) is ranked higher than a second user (eg, ranked second). may

第1のユーザが第2のユーザよりも高くランク付けされていることを決定するステップに応答して、メディアガイドアプリケーションは、メディアアセットの再生を修正してもよい。例えば、第1のユーザが第2のユーザよりも高くランク付けされていることを決定するステップに応答して、メディアガイドアプリケーションは、メディアアセットの再生を修正してもよい(例えば、現在再生している映画を一時停止する)。 In response to determining that the first user is ranked higher than the second user, the media guidance application may modify playback of the media asset. For example, in response to determining that the first user is ranked higher than the second user, the media guidance application may modify the playback of the media asset (e.g., the currently playing media asset). pause the movie that is playing).

第2のユーザが第1のユーザよりも高くランク付けされていることを決定するステップに応答して、メディアガイドアプリケーションは、メディアアセットを再生し続けてもよい。例えば、第2のユーザが第1のユーザよりも高くランク付けされていることを決定するステップに応答して、メディアガイドアプリケーションは、メディアアセット(例えば、第2のユーザが鑑賞している映画)を再生し続けてもよい。 In response to determining that the second user is ranked higher than the first user, the media guidance application may continue playing the media asset. For example, in response to determining that the second user is ranked higher than the first user, the media guidance application may select a media asset (eg, a movie that the second user is watching) may continue to play.

コマンドが特性を共有することを決定するステップに応答して、メディアガイドアプリケーションは、メディアアセットの再生を修正してもよい。例えば、コマンドが特性を共有することを決定するステップに応答して、メディアガイドアプリケーションは、メディアアセットの再生を修正してもよい(例えば、メディアアセットの再生を一時停止する)。 In response to determining that the command shares characteristics, the media guidance application may modify the playback of the media asset. For example, in response to determining that the command shares properties, the media guidance application may modify the playback of the media asset (eg, pause playback of the media asset).

メディアガイドアプリケーションは、第1のユーザのための選好に基づいて、具体的タイプの再生修正(例えば、一時停止、ミュート、巻き戻し、早送り、オフにする等)を決定してもよい。メディアガイドアプリケーションは、第1のユーザのプロファイル内の再生修正データベースから第1のユーザの選好を読み出してもよい。メディアガイドアプリケーションは、データベースからコマンドに対応する再生修正を読み出してもよい。各コマンドに対応する再生修正は、エディタによって、または第1のユーザからの入力によって、事前設定されてもよい。 The media guidance application may determine specific types of playback modifications (eg, pause, mute, rewind, fast forward, turn off, etc.) based on preferences for the first user. The media guidance application may retrieve the first user's preferences from a playback modification database in the first user's profile. The media guidance application may retrieve playback modifications corresponding to the commands from the database. The playback modifications corresponding to each command may be preset by an editor or by input from the first user.

例えば、メディアガイドアプリケーションは、第1のユーザの選好に基づいて、具体的タイプの再生修正を決定してもよい。メディアガイドアプリケーションは、第1のユーザのプロファイル内の再生修正データベースから第1のユーザの選好を読み出してもよい。メディアガイドアプリケーションは、コマンド(例えば、夕食を食べる)に対応するデータベースから再生修正(例えば、メディアアセットの再生をオフにする)を読み出してもよい。 For example, the media guidance application may determine specific types of playback modifications based on the first user's preferences. The media guidance application may retrieve the first user's preferences from a playback modification database in the first user's profile. The media guidance application may retrieve playback modifications (eg, turn off playback of the media asset) from a database corresponding to the command (eg, eat dinner).

いくつかの実施形態では、メディアガイドアプリケーションは、第1のユーザから第2のユーザおよび第3のユーザへのコマンドを検出してもよい。例えば、メディアガイドアプリケーションは、第1のユーザから第2のユーザおよび第3のユーザへのコマンド(例えば、夕食を食べる)を検出してもよい。メディアガイドアプリケーションは、上記に説明されるような類似方法を使用して、コマンドを検出してもよい。 In some embodiments, the media guidance application may detect commands from the first user to the second and third users. For example, the media guidance application may detect commands from a first user to a second user and a third user (eg, eat dinner). The media guidance application may detect commands using similar methods as described above.

メディアガイドアプリケーションは、第1のユーザのユーザプロファイル、第2のユーザのユーザプロファイル、および第3のユーザのユーザプロファイルに基づいて、コマンドの複数の結果からコマンドの所望の結果を決定してもよい。メディアガイドアプリケーションは、上記に説明されるような類似方法を使用して、コマンドの所望の結果を決定してもよい。 The media guidance application may determine a desired result of the command from multiple results of the command based on the first user's user profile, the second user's user profile, and the third user's user profile. . The media guidance application may use similar methods as described above to determine the desired result of the command.

メディアガイドアプリケーションは、第2のユーザによって実行される第1のアクションおよび第3のユーザによって実行される第2のアクションを検出してもよい。例えば、メディアガイドアプリケーションは、第2のユーザによって実行される第1のアクション(例えば、第2のユーザが映画の音量を上げる)および第3のユーザによって実行される第2のアクションを検出してもよい(例えば、モーションセンサは、第3のユーザが視聴環境から退出して夕食を食べに行くことを検出してもよい)。メディアガイドアプリケーションは、上記に説明されるようなアクションを検出するための類似方法を使用して、第2のユーザによって実行される第1のアクションおよび第3のユーザによって実行される第2のアクションを検出してもよい。 The media guidance application may detect a first action performed by a second user and a second action performed by a third user. For example, the media guidance application detects a first action performed by a second user (e.g., the second user turns up the movie volume) and a second action performed by a third user. (eg, a motion sensor may detect that a third user is leaving the viewing environment to go to dinner). The media guidance application detects the first action performed by the second user and the second action performed by the third user using similar methods for detecting actions as described above. may be detected.

メディアガイドアプリケーションは、第2のユーザのアクションおよび第3のユーザのアクションを比較し、コマンドの所望の結果を決定してもよい。例えば、メディアガイドアプリケーションは、第2のユーザのアクション(例えば、リモートを介して映画の音量を上げること)および第3のユーザのアクション(例えば、モーションセンサが視聴環境から退出する第3のユーザを検出すること)を比較し、コマンドの所望の結果(例えば、第2および第3のユーザが夕食を食べに行くこと)を決定してもよい。 The media guidance application may compare the second user's action and the third user's action to determine the desired result of the command. For example, the media guidance application may detect a second user's action (e.g., turning up the volume of a movie via a remote) and a third user's action (e.g., a third user exiting the viewing environment when the motion sensor detecting) to determine the desired outcome of the command (eg, second and third users going out to dinner).

第2のユーザのアクションおよび第3のユーザのアクションがコマンドの所望の結果に対応しないことを決定するステップに応答して、メディアガイドアプリケーションは、第2のユーザのユーザプロファイルから第2のユーザの特性を、第3のユーザのユーザプロファイルから第3のユーザの特性を読み出してもよい。 In response to determining that the second user's action and the third user's action do not correspond to the desired result of the command, the media guidance application selects the second user's action from the second user's user profile. The characteristics may be retrieved from the third user's user profile.

メディアガイドアプリケーションは、第1のユーザから検出されるコマンドおよび第2のユーザの読み出された特性および第3のユーザの読み出された特性に基づいて、メディアアセットの再生を修正するかどうかを決定してもよい。例えば、メディアガイドアプリケーションは、コマンドのランクが第2および第3のユーザのランクよりも上であるため、第1のユーザから検出されるコマンド(例えば、夕食を食べる)および第1のユーザの読み出された特性(例えば、ランク等)および第3のユーザの読み出された特性(例えば、ランク等)に基づいて、メディアアセットの再生を修正することを決定してもよい。別の実施例として、メディアガイドアプリケーションは、第2および第3のユーザのランクがコマンドおよび第1のユーザのランクより上であるため、第1のユーザから検出されるコマンド(例えば、夕食を食べる)および第1のユーザの読み出された特性(例えば、ランク等)および第3のユーザの読み出された特性(例えば、ランク等)に基づいて、メディアアセットの再生を修正しないことを決定してもよい。 The media guidance application determines whether to modify the playback of the media asset based on commands detected from the first user and the retrieved characteristics of the second user and the retrieved characteristics of the third user. may decide. For example, the media guidance application may select a command detected from the first user (e.g., have dinner) and the reading of the first user because the rank of the command is higher than the rank of the second and third users. Based on the retrieved characteristics (eg, rank, etc.) and the retrieved characteristics (eg, rank, etc.) of the third user, it may be determined to modify the playback of the media asset. As another example, the media guidance application may detect commands detected from the first user (e.g. eat dinner) because the second and third users rank above the command and the first user ranks. ) and based on the read characteristics (e.g., rank, etc.) of the first user and the read characteristics (e.g., rank, etc.) of the third user, determine not to modify the playback of the media asset. may

さらに別の実施例として、メディアガイドアプリケーションは、第3のユーザのみのランクがコマンドおよび第1のユーザのランクより上であるため、第1のユーザから検出されるコマンド(例えば、夕食を食べる)および第1のユーザの読み出された特性(例えば、ランク等)および第3のユーザの読み出された特性(例えば、ランク等)に基づいて、メディアアセットの再生を部分的に修正する(例えば、再生のオーディオをミュートするが、ユーザ3のためのBluetooth(登録商標)ヘッドフォンを介してオーディオを再生する)ことを決定してもよい。 As yet another example, the media guidance application may display commands detected from the first user (e.g., have dinner) because only the third user ranks above the command and the rank of the first user. and modify the playback of the media asset in part (e.g., , mute the audio on playback, but play the audio through Bluetooth headphones for user 3).

任意の所与のコンテンツ配信システムでユーザに利用可能なコンテンツの量が、膨大であり得る。その結果、多くのユーザは、ユーザがコンテンツの選択を効率的にナビゲートし、所望し得るコンテンツを容易に識別することを可能にする、インターフェースを通したメディアガイドの形態を所望している。そのようなガイドを提供するアプリケーションは、本明細書では、双方向メディアガイドアプリケーションと称されるが、時として、メディアガイドアプリケーションまたはガイドアプリケーションと称されることもある。 The amount of content available to users in any given content delivery system can be enormous. As a result, many users desire a form of media guidance through an interface that allows users to efficiently navigate through content selections and easily identify content that may be desired. Applications that provide such guidance are referred to herein as interactive media guidance applications, but are sometimes also referred to as media guidance applications or guidance applications.

双方向メディアガイドアプリケーションは、ガイドを提供するコンテンツに応じて、種々の形態をとってもよい。1つの典型的なタイプのメディアガイドアプリケーションは、双方向テレビ番組ガイドである。双方向テレビ番組ガイド(時として、電子番組ガイドと称される)は、とりわけ、ユーザが、多くのタイプのコンテンツまたはメディアアセット間をナビゲートし、それを特定することを可能にする、周知のガイドアプリケーションである。双方向メディアガイドアプリケーションは、ユーザが、コンテンツ間をナビゲートし、それを特定および選択することを可能にする、グラフィカルユーザインターフェース画面を生成してもよい。本明細書で参照されるように、用語「メディアアセット」および「コンテンツ」は、テレビ番組、および有料番組、オンデマンド番組(ビデオオンデマンド(VOD)システムにおけるような)、インターネットコンテンツ(例えば、ストリーミングコンテンツ、ダウンロード可能コンテンツ、ウェブキャスト等)、ビデオクリップ、オーディオ、コンテンツ情報、写真、回転画像、ドキュメント、再生一覧、ウェブサイト、記事、書籍、電子書籍、ブログ、チャットセッション、ソーシャルメディア、アプリケーション、ゲーム、および/または任意の他のメディアまたはマルチメディア、および/またはそれらの組み合わせ等の電子的に消費可能なユーザアセットを意味すると理解されたい。ガイドアプリケーションはまた、ユーザが、コンテンツ間をナビゲートし、それを特定することを可能にする。本明細書で参照されるように、用語「マルチメディア」は、上記に説明される少なくとも2つの異なるコンテンツ形態、例えば、テキスト、オーディオ、画像、ビデオ、または双方向コンテンツ形態を利用する、コンテンツを意味すると理解されたい。コンテンツは、ユーザ機器デバイスによって、録画、再生、表示、またはアクセスされてもよいが、また、ライブパーフォーマンスの一部であることもできる。 Interactive media guidance applications may take a variety of forms, depending on the content for which they provide guidance. One typical type of media guide application is an interactive television program guide. Interactive television program guides (sometimes referred to as electronic program guides) are well known for allowing, among other things, users to navigate among and locate many types of content or media assets. It is a guide application. The interactive media guidance application may generate graphical user interface screens that allow the user to navigate among, locate, and select content. As referred to herein, the terms "media assets" and "content" refer to television programs and pay-per-view programming, on-demand programming (as in video-on-demand (VOD) systems), Internet content (e.g., streaming content, downloadable content, webcasts, etc.), video clips, audio, content information, photos, rotating images, documents, playlists, websites, articles, books, e-books, blogs, chat sessions, social media, applications, games , and/or any other media or multimedia, and/or combinations thereof. Guide applications also allow users to navigate between and locate content. As referred to herein, the term "multimedia" refers to content that utilizes at least two different content forms described above, e.g., text, audio, image, video, or interactive content forms. be understood to mean Content may be recorded, played back, displayed, or accessed by user equipment devices, but may also be part of a live performance.

本明細書に議論される実施形態のいずれかを実施するためのメディアガイドアプリケーションおよび/または任意の命令は、コンピュータ可読媒体上にエンコードされてもよい。コンピュータ可読媒体は、データを記憶することが可能な任意の媒体を含む。コンピュータ可読媒体は、限定ではないが、電気または電磁信号の伝搬を含む、一過性であり得る、または限定ではないが、ハードディスク、フロッピー(登録商標)ディスク、USBドライブ、DVD、CD、メディアカード、レジスタメモリ、プロセッサキャッシュ、ランダムアクセスメモリ(「RAM」)等の揮発性および不揮発性コンピュータメモリまたは記憶デバイスを含む、非一過性であり得る。 A media guidance application and/or any instructions for implementing any of the embodiments discussed herein may be encoded on a computer-readable medium. Computer-readable media include any medium that can store data. Computer readable media can be transitory, including but not limited to propagating electrical or electromagnetic signals, or hard disks, floppy disks, USB drives, DVDs, CDs, media cards, but not limited to , register memory, processor cache, random access memory (“RAM”), and other computer memory or storage devices.

インターネット、モバイルコンピューティング、および高速無線ネットワークの出現に伴って、ユーザは、従来は使用しなかったユーザ機器デバイス上でメディアにアクセスするようになっている。本明細書で参照されるように、語句「ユーザ機器デバイス」、「ユーザ機器」、「ユーザデバイス」、「電子デバイス」、「電子機器」、「メディア機器デバイス」、または「メディアデバイス」は、テレビ、スマートTV、セットトップボックス、衛星テレビに対応するための統合型受信機デコーダ(IRD)、デジタル記憶デバイス、デジタルメディア受信機(DMR)、デジタルメディアアダプタ(DMA)、ストリーミングメディアデバイス、DVDプレーヤ、DVDレコーダ、接続型DVD、ローカルメディアサーバ、BLU-RAY(登録商標)プレーヤ、BLU-RAY(登録商標)レコーダ、パーソナルコンピュータ(PC)、ラップトップコンピュータ、タブレットコンピュータ、ウェブTVボックス、パーソナルコンピュータテレビ(PC/TV)、PCメディアサーバ、PCメディアセンター、ハンドヘルドコンピュータ、固定電話、携帯情報端末(PDA)、携帯電話、ポータブルビデオプレーヤ、ポータブル音楽プレーヤ、ポータブルゲーム機、スマートフォン、または任意の他のテレビ機器、コンピューティング機器、または無線デバイス、および/またはそれらの組み合わせ等の上記に説明されるコンテンツにアクセスするための任意のデバイスを意味すると理解されたい。いくつかの実施形態では、ユーザ機器デバイスは、正面画面および裏面画面、複数の正面画面、または複数の角度付き画面を有してもよい。いくつかの実施形態では、ユーザ機器デバイスは、正面カメラおよび/または裏面カメラを有してもよい。これらのユーザ機器デバイス上で、ユーザは、テレビを通して利用可能な同一のコンテンツ間をナビゲートし、それを特定することが可能であり得る。その結果として、メディアガイドは、これらのデバイス上でも利用可能であり得る。提供されるガイドは、テレビのみを通して利用可能なコンテンツ、他のタイプのユーザ機器デバイスのうちの1つ以上のもののみを通して利用可能なコンテンツ、またはテレビおよび他のタイプのユーザ機器デバイスのうちの1つ以上のものの両方を通して利用可能なコンテンツのためのものであってもよい。メディアガイドアプリケーションは、ユーザ機器デバイス上で、オンラインアプリケーション(すなわち、ウェブサイト上で提供される)として、または独立型アプリケーションまたはクライアントとして提供されてもよい。メディアガイドアプリケーションを実装し得る、種々のデバイスおよびプラットフォームは、下記により詳細に説明される。 With the advent of the Internet, mobile computing, and high-speed wireless networks, users are accessing media on user equipment devices they did not previously use. As referred to herein, the phrases "user equipment device", "user equipment", "user device", "electronic device", "electronic equipment", "media equipment device", or "media device" Integrated Receiver Decoders (IRD) for TVs, Smart TVs, Set Top Boxes, Satellite TVs, Digital Storage Devices, Digital Media Receivers (DMR), Digital Media Adapters (DMA), Streaming Media Devices, DVD Players , DVD Recorders, Connected DVDs, Local Media Servers, BLU-RAY® Players, BLU-RAY® Recorders, Personal Computers (PCs), Laptop Computers, Tablet Computers, Web TV Boxes, Personal Computer Televisions (PC/TV), PC media server, PC media center, handheld computer, landline phone, personal digital assistant (PDA), mobile phone, portable video player, portable music player, portable game console, smart phone, or any other television It should be understood to mean any device for accessing content described above, such as an appliance, computing device, or wireless device, and/or combinations thereof. In some embodiments, a user equipment device may have front and rear screens, multiple front screens, or multiple angled screens. In some embodiments, a user equipment device may have a front-facing camera and/or a rear-facing camera. On these user equipment devices, users may be able to navigate among and identify the same content available through television. As a result, media guidance may also be available on these devices. The guides provided may be content available only through televisions, content available only through one or more of other types of user equipment devices, or televisions and one of other types of user equipment devices. It may be for content available through more than one. A media guidance application may be provided on a user equipment device, as an online application (ie, provided on a website), or as a stand-alone application or client. Various devices and platforms that may implement media guidance applications are described in more detail below.

メディアガイドアプリケーションの機能のうちの1つは、メディアガイドデータをユーザに提供することである。本明細書で参照されるように、語句「メディアガイドデータ」または「ガイドデータ」は、コンテンツに関連する任意のデータまたはガイドアプリケーションを動作させる際に使用されるデータを意味すると理解されたい。例えば、ガイドデータは、番組情報、ガイドアプリケーション設定、ユーザ選好、ユーザプロファイル情報、メディア一覧、メディア関連情報(例えば、放送時間、放送チャネル、タイトル、内容、評価情報(例えば、ペアレンタルコントロール評価、批評家の評価等)、ジャンルまたはカテゴリ情報、俳優情報、放送会社またはプロバイダのロゴのロゴデータ等)、メディア形式(例えば、標準解像度、高解像度、3D等)、オンデマンド情報、ブログ、ウェブサイト、およびユーザが所望のコンテンツ選択間をナビゲートし、それを特定するために役立つ、任意の他のタイプのガイドデータを含んでもよい。 One of the functions of the media guidance application is to provide media guidance data to the user. As referred to herein, the phrases "media guidance data" or "guide data" should be understood to mean any data associated with content or used in operating a guidance application. For example, guide data may include program information, guide application settings, user preferences, user profile information, media listings, media-related information (e.g., broadcast times, broadcast channels, titles, content, rating information (e.g., parental control ratings, reviews, house ratings, etc.), genre or category information, actor information, logo data for broadcaster or provider logos, etc.), media formats (e.g., standard definition, high definition, 3D, etc.), on-demand information, blogs, websites, and any other type of guide data to help the user navigate between and identify desired content selections.

図2-3は、メディアガイドデータを提供するために使用され得る、例証的表示画面を示す。図2-3に示される表示画面は、任意の好適なユーザ機器デバイスまたはプラットフォーム上に実装されてもよい。図2-3の表示は、フル画面表示として図示されているが、それらはまた、表示されているコンテンツ上に完全または部分的にオーバーレイされてもよい。ユーザは、表示画面に提供された選択可能なオプション(例えば、メニューオプション、一覧オプション、アイコン、ハイパーリンク等)を選択することによって、またはリモートコントロールまたは他のユーザ入力インターフェースまたはデバイス上の専用ボタン(例えば、「ガイド」ボタン)を押下することによって、コンテンツ情報にアクセスする要望を示してもよい。ユーザのインジケーションに応答して、メディアガイドアプリケーションは、グリッド内の時間およびチャネル別、時間別、チャネル別、ソース別、コンテンツタイプ別、カテゴリ別(例えば、映画、スポーツ、ニュース、子供向け、または他の番組カテゴリ)、または他の所定、ユーザ定義、または他の編成基準等のいくつかの方法のうちの1つにおいて編成されたメディアガイドデータを表示画面に提供してもよい。 2-3 show illustrative display screens that may be used to provide media guidance data. The display screens shown in FIGS. 2-3 may be implemented on any suitable user equipment device or platform. Although the displays of FIGS. 2-3 are illustrated as full screen displays, they may also be fully or partially overlaid on the content being displayed. A user selects selectable options (e.g., menu options, list options, icons, hyperlinks, etc.) provided on a display screen, or by dedicated buttons (e.g., on a remote control or other user input interface or device). For example, pressing a "Guide" button) may indicate a desire to access content information. In response to the user's indications, the media guidance application displays by time and channel within a grid, by time, by channel, by source, by content type, by category (e.g., movies, sports, news, children's, or The display screen may provide media guidance data organized in one of several ways, such as other program categories), or other predetermined, user-defined, or other organization criteria.

図2は、単一表示内の異なるタイプのコンテンツへのアクセスも可能にする、時間およびチャネル別に配列された番組一覧表示200の例証的グリッドを示す。表示200は、以下、すなわち、(1)各チャネル/コンテンツタイプ識別子(列内のセル)が利用可能な異なるチャネルまたはコンテンツのタイプを識別する、チャネル/コンテンツタイプ識別子204の列、および(2)各時間識別子(行内のセル)が番組の時間帯を識別する、時間識別子206の行を伴うグリッド202を含んでもよい。グリッド202はまた、番組一覧208等の番組一覧のセルも含み、各一覧は、一覧の関連チャネルおよび時間の上に提供される、番組のタイトルを提供する。ユーザ入力デバイスを用いて、ユーザは、ハイライト領域210を移動させることによって番組一覧を選択することができる。ハイライト領域210によって選択される番組一覧に関する情報が、番組情報領域212内に提供されてもよい。領域212は、例えば、番組タイトル、番組内容、番組が提供される時間(該当する場合)、番組が放送されるチャネル(該当する場合)、番組の評価、および他の所望の情報を含んでもよい。 FIG. 2 shows an illustrative grid of program listings display 200 arranged by time and channel that also allows access to different types of content within a single display. Display 200 includes: (1) a column of channel/content type identifiers 204 in which each channel/content type identifier (cell within the column) identifies a different channel or content type available; and (2) It may include a grid 202 with rows of time identifiers 206, where each time identifier (cell within a row) identifies a program time slot. Grid 202 also includes cells of program listings, such as program listings 208, where each listing provides the title of the program, which is provided above the listing's associated channel and time. Using a user input device, a user can select program listings by moving highlight region 210 . Information regarding the program listing selected by highlight region 210 may be provided in program information region 212 . Area 212 may include, for example, program title, program description, time the program is offered (if applicable), channel on which the program is broadcast (if applicable), program rating, and other desired information. .

線形番組(例えば、所定の時間に複数のユーザ機器デバイスに伝送されるようにスケジュールされ、スケジュールに従って提供されるコンテンツ)にアクセスを提供することに加えて、メディアガイドアプリケーションはまた、非線形番組(例えば、任意の時間においてユーザ機器デバイスにアクセス可能であって、スケジュールに従って提供されない、コンテンツ)へのアクセスも提供する。非線形番組は、オンデマンドコンテンツ(例えば、VOD)、インターネットコンテンツ(例えば、ストリーミングメディア、ダウンロード可能メディア等)、ローカルで記憶されたコンテンツ(例えば、上記に説明される任意のユーザ機器デバイスまたは他の記憶デバイス上に記憶されたコンテンツ)、または時間的制約のない他のコンテンツを含む、異なるコンテンツソースからのコンテンツを含んでもよい。オンデマンドコンテンツは、映画または特定のコンテンツプロバイダ(例えば、「The Sopranos」や「Curb Your Enthusiasm」を提供するHBO On Demand)によって提供される映画または任意の他のコンテンツを含んでもよい。HBO ON DEMANDは、Time Warner Company L. P. et al.によって所有されるサービスマークであり、THE SOPRANOSおよびCURB YOUR ENTHUSIASMは、Home Box Office, Inc.によって所有される商標である。インターネットコンテンツは、チャットセッションまたはウェブキャスト等のウェブイベント、またはインターネットウェブサイトまたは他のインターネットアクセス(例えば、FTP)を通して、ストリーミングコンテンツまたはダウンロード可能なコンテンツとしてオンデマンドで利用可能なコンテンツを含んでもよい。 In addition to providing access to linear programming (e.g., content that is scheduled for transmission to multiple user equipment devices at predetermined times and provided on a schedule), media guidance applications also provide access to non-linear programming (e.g., , content that is accessible to user equipment devices at any time and is not provided on a schedule). Non-linear programming can be on-demand content (e.g., VOD), Internet content (e.g., streaming media, downloadable media, etc.), locally-stored content (e.g., any user equipment device or other storage device described above). content stored on the device), or other content that is not time sensitive. On-demand content may include movies or any other content provided by a particular content provider (eg, HBO On Demand, which offers "The Sopranos" and "Curb Your Enthusiasm"). HBO ON DEMAND is owned by Time Warner Company L.L. P. et al. THE SOPRANOS and CURB YOUR ENTHUSIASM are service marks owned by Home Box Office, Inc. is a trademark owned by Internet content may include content available on demand as streaming or downloadable content, through web events such as chat sessions or webcasts, or through Internet websites or other Internet access (eg, FTP).

グリッド202は、オンデマンド一覧214、録画コンテンツ一覧216、およびインターネットコンテンツ一覧218を含む、非線形番組のメディアガイドデータを提供してもよい。異なるタイプのコンテンツソースからのコンテンツのためのメディアガイドデータを組み合わせる表示は、時として、「混合メディア」表示と称されることもある。表示200とは異なる、表示され得るメディアガイドデータのタイプの種々の順列は、ユーザ選択またはガイドアプリケーション定義に基づいてもよい(例えば、録画および放送一覧のみの表示、オンデマンドおよび放送一覧のみの表示等)。例証されるように、一覧214、216、および218は、これらの一覧の選択が、それぞれ、オンデマンド一覧、録画一覧、またはインターネット一覧専用の表示へのアクセスを提供し得ることを示すように、グリッド202内に表示される時間帯全体に及ぶものとして示されている。いくつかの実施形態では、これらのコンテンツタイプの一覧は、グリッド202に直接含まれてもよい。ユーザがナビゲーションアイコン220のうちの1つを選択することに応答して、付加的メディアガイドデータが表示されてもよい(ユーザ入力デバイス上の矢印キーを押下することは、ナビゲーションアイコン220を選択することと同様に表示に影響を及ぼし得る)。 Grid 202 may provide media guidance data for non-linear programming, including on-demand listings 214 , recorded content listings 216 , and Internet content listings 218 . A display that combines media guidance data for content from different types of content sources is sometimes referred to as a "mixed media" display. Various permutations of the types of media guidance data that may be displayed, different from display 200, may be based on user selection or guide application definition (e.g., display only recorded and broadcast listings, display only on-demand and broadcast listings). etc). As illustrated, listings 214, 216, and 218 are shown to indicate that selection of these listings may provide access to on-demand listings, recording listings, or Internet listing-only displays, respectively. It is shown spanning the entire time period displayed in grid 202 . In some embodiments, listings for these content types may be included directly in grid 202 . Additional media guidance data may be displayed in response to the user selecting one of navigation icons 220 (pressing an arrow key on the user input device selects navigation icon 220). may affect display as well).

表示200はまた、ビデオ領域222およびオプション領域226を含んでもよい。ビデオ領域222は、ユーザが、ユーザに現在利用可能である、今後利用可能となる、または利用可能であった番組を視聴および/またはプレビューすることを可能にしてもよい。ビデオ領域222のコンテンツは、グリッド202に表示される一覧のうちの1つに対応する、またはそれから独立し得る。ビデオ領域を含むグリッド表示は、時として、ピクチャインガイド(PIG)表示と称されることもある。PIG表示およびそれらの機能性は、2003年5月13日に発行されたSatterfield et al.の米国特許第6,564,378号、および2001年5月29日に発行されたYuen et al.の米国特許第6,239,794号(それらの全体として参照することによって本明細書に組み込まれる)でより詳細に説明されている。PIG表示は、本明細書に説明される実施形態の他のメディアガイドアプリケーション表示画面に含まれてもよい。 Display 200 may also include video region 222 and options region 226 . Video area 222 may allow a user to view and/or preview programs that are currently available, will become available, or have been available to the user. The content of video area 222 may correspond to or be independent of one of the listings displayed in grid 202 . Grid displays containing video regions are sometimes referred to as picture-in-guide (PIG) displays. PIG displays and their functionality are described in Satterfield et al. No. 6,564,378 to Yuen et al., issued May 29, 2001; No. 6,239,794, which is incorporated herein by reference in its entirety. PIG displays may be included in other media guidance application display screens of the embodiments described herein.

オプション領域226は、ユーザが、異なるタイプのコンテンツ、メディアガイドアプリケーション表示、および/またはメディアガイドアプリケーション特徴にアクセスすることを可能にしてもよい。オプション領域226は、表示200(および本明細書に説明される他の表示画面)の一部であってもよい、または画面上のオプションを選択すること、またはユーザ入力デバイス上の専用または割当可能ボタンを押下することによって、ユーザによって呼び出されてもよい。オプション領域226内の選択可能オプションは、グリッド202内の番組一覧に関連する特徴に関してもよい、またはメインメニュー表示から利用可能なオプションを含んでもよい。番組一覧に関連する特徴は、他の放送時間または番組の受信方法の検索、番組の録画、番組の連続録画の有効化、番組および/またはチャネルをお気に入りとして設定、番組の購入、または他の特徴を含んでもよい。メインメニュー表示から利用可能なオプションは、検索オプション、VODオプション、ペアレンタルコントロールオプション、インターネットオプション、クラウドベースのオプション、デバイス同期オプション、第2の画面デバイスオプション、種々のタイプのメディアガイドデータ表示にアクセスするオプション、プレミアムサービスをサブスクライブするオプション、ユーザのプロファイルを編集するオプション、ブラウザオーバーレイにアクセスするオプション、または他のオプションを含んでもよい。 Options area 226 may allow the user to access different types of content, media guidance application displays, and/or media guidance application features. Options area 226 may be part of display 200 (and other display screens described herein) or for selecting options on the screen or dedicated or assignable on a user input device. It may be invoked by the user by pressing a button. The selectable options within options region 226 may relate to features related to program listings within grid 202 or may include options available from a main menu display. Features related to program listings may include searching for other broadcast times or ways to receive programs, recording programs, enabling continuous recording of programs, setting programs and/or channels as favorites, purchasing programs, or other features. may include Options available from the main menu display access search options, VOD options, parental control options, internet options, cloud-based options, device sync options, second screen device options, and various types of media guide data displays. options to subscribe to premium services, options to edit the user's profile, options to access browser overlays, or other options.

メディアガイドアプリケーションは、ユーザの選好に基づいて個人化されてもよい。個人化されたメディアガイドアプリケーションは、ユーザが、メディアガイドアプリケーションを用いて個人化された「体験」を生成するように、表示および特徴をカスタマイズすることを可能にする。この個人化された体験は、ユーザがこれらのカスタマイズを入力することを可能にすることによって、および/または種々のユーザ選好を決定するようにメディアガイドアプリケーションがユーザアクティビティを監視することによって、生成されてもよい。ユーザは、ログインすることによって、または別様にガイドアプリケーションに対して自らを識別することによって、それらの個人化されたガイドアプリケーションにアクセスしてもよい。メディアガイドアプリケーションのカスタマイズは、ユーザプロファイルに従って作成されてもよい。カスタマイズは、提示方式(例えば、表示の色方式、テキストのフォントサイズ等)、表示されるコンテンツ一覧の側面(例えば、HDTV番組のみまたは3D番組のみ、お気に入りチャネル選択に基づいたユーザ指定の放送チャネル、チャネルの表示の並び替え、推奨コンテンツ等)、所望の録画特徴(例えば、特定のユーザに対する録画または連続録画、録画品質等)、ペアレンタルコントロール設定、インターネットコンテンツのカスタマイズされた提示(例えば、ソーシャルメディアコンテンツ、電子メール、電子的に配信された記事等の提示)、および他の所望のカスタマイズを変更させるステップを含んでもよい。 The media guidance application may be personalized based on user preferences. Personalized media guidance applications allow users to customize displays and features to create a personalized "experience" with the media guidance application. This personalized experience is generated by allowing the user to input these customizations and/or by the media guidance application monitoring user activity to determine various user preferences. may Users may access their personalized guide application by logging in or otherwise identifying themselves to the guide application. Customizations of the media guidance application may be made according to the user profile. Customization includes presentation schemes (e.g., color scheme for display, font size for text, etc.), aspects of content listings displayed (e.g., HDTV programs only or 3D programs only, user-specified broadcast channels based on favorite channel selection, channel display sorting, recommended content, etc.); presentation of content, emails, electronically distributed articles, etc.), and other desired customizations.

メディアガイドアプリケーションは、ユーザが、ユーザプロファイル情報を提供することを可能にしてもよい、またはユーザプロファイル情報を自動的にコンパイルしてもよい。メディアガイドアプリケーションは、例えば、ユーザがアクセスするコンテンツ、および/またはユーザがガイドアプリケーションと行い得る他の相互作用を監視してもよい。加えて、メディアガイドアプリケーションは、特定のユーザに関連する他のユーザプロファイルの全体または一部を取得し(例えば、www.Tivo.com等のユーザがアクセスするインターネット上の他のウェブサイトから、ユーザがアクセスする他のメディアガイドアプリケーションから、ユーザがアクセスする他の双方向アプリケーションから、ユーザの別のユーザ機器デバイスから等)、および/またはメディアガイドアプリケーションがアクセスし得る他のソースから、ユーザについての情報を取得してもよい。結果として、ユーザは、ユーザの異なるユーザ機器デバイスにわたって、統一されたガイドアプリケーション体験を提供されることができる。本タイプのユーザ体験は、図5に関連して下記により詳細に説明される。付加的な個人化されたメディアガイドアプリケーション特徴は、2005年7月11日に出願されたEllis et al.の米国特許出願公開第2005/0251827号、2007年1月16日に発行されたBoyer et al.の米国特許第7,165,098号、および2002年2月21日に出願されたEllis et al.の米国特許出願公開第2002/0174430号(それらの全体として参照することによって本明細書に組み込まれる)でより詳細に説明されている。 The media guidance application may allow the user to provide user profile information or may automatically compile the user profile information. The media guidance application may, for example, monitor content that the user accesses and/or other interactions that the user may have with the guidance application. In addition, the media guidance application may retrieve all or part of other user profiles associated with a particular user (e.g., from other websites on the Internet that the user visits, such as www.Tivo.com), from other media guidance applications accessed by the user, from other interactive applications accessed by the user, from other user equipment devices of the user, etc.), and/or from other sources that the media guidance application may access. information may be obtained. As a result, the user can be provided with a unified guide application experience across the user's different user equipment devices. This type of user experience is described in more detail below in connection with FIG. Additional personalized media guidance application features are described in Ellis et al. US Patent Application Publication No. 2005/0251827, published Jan. 16, 2007, Boyer et al. No. 7,165,098 to Ellis et al., filed Feb. 21, 2002; US Patent Application Publication No. 2002/0174430, which is incorporated herein by reference in its entirety.

メディアガイドを提供するための別の表示配列が、図3に示されている。ビデオモザイク表示300は、コンテンツのタイプ、ジャンル、および/または他の編成基準に基づいて編成されたコンテンツ情報のための選択可能オプション302を含む。表示300では、テレビ一覧オプション304が、選択され、したがって、一覧306、308、310、および312を放送番組一覧として提供する。表示300では、一覧は、カバーアート、コンテンツからの静止画像、ビデオクリップのプレビュー、コンテンツからのライブビデオ、または一覧中のメディアガイドデータによって記述されているコンテンツをユーザに示す他のタイプのコンテンツを含む、グラフィック画像を提供してもよい。グラフィック一覧はまた、それぞれ、一覧と関連付けられるコンテンツに関するさらなる情報を提供するように、テキストを伴ってもよい。例えば、一覧308は、メディア部分314およびテキスト部分316を含む、1つを上回る部分を含んでもよい。メディア部分314および/またはテキスト部分316は、コンテンツをフル画面で視聴するように、またはメディア部分314に表示されるコンテンツに関連する情報を閲覧するように(例えば、ビデオが表示されるチャネルの一覧を閲覧するように)、選択可能であり得る。 Another display arrangement for providing media guidance is shown in FIG. Video mosaic display 300 includes selectable options 302 for content information organized based on content type, genre, and/or other organizational criteria. In display 300, television listings option 304 is selected, thus providing listings 306, 308, 310, and 312 as broadcast program listings. In display 300, the listing may display cover art, still images from the content, previews of video clips, live video from the content, or other type of content that shows the user the content described by the media guidance data in the listing. Graphic images may be provided, including: Each graphical listing may also be accompanied by text to provide additional information about the content associated with the listing. For example, listing 308 may include more than one portion, including media portion 314 and text portion 316 . Media portion 314 and/or text portion 316 may be used to view content in full screen or to view information related to the content displayed in media portion 314 (e.g., a list of channels on which videos are displayed). ), may be selectable.

表示300内の一覧は、異なるサイズである(すなわち、一覧306は、一覧308、310、および312より大きい)が、所望に応じて、全ての一覧が同一のサイズであってもよい。一覧は、コンテンツプロバイダの所望に応じて、またはユーザ選好に基づいて、ユーザの関心の程度を示すように、またはあるコンテンツを強調するように、異なるサイズであるか、またはグラフィック的に強調されてもよい。コンテンツ一覧をグラフィック的に強調するための種々のシステムおよび方法は、例えば、2009年11月12日に出願されたYatesの米国特許出願公開第2010/0153885号(その全体として参照することによって本明細書に組み込まれる)に議論されている。 The listings in display 300 are of different sizes (ie, listing 306 is larger than listings 308, 310, and 312), but all listings may be the same size if desired. Listings may be of different sizes or graphically enhanced to indicate the degree of user interest or to emphasize certain content, as desired by the content provider or based on user preferences. good too. Various systems and methods for graphically enhancing content listings are described, for example, in U.S. Patent Application Publication No. 2010/0153885 to Yates, filed November 12, 2009, herein incorporated by reference in its entirety. (incorporated in this document).

ユーザは、そのユーザ機器デバイスのうちの1つ以上のものから、コンテンツおよびメディアガイドアプリケーション(および上記および下記に説明されるその表示画面)にアクセスしてもよい。図4は、例証的ユーザ機器デバイス400の汎用実施形態を示す。ユーザ機器デバイスのより具体的な実装は、図5に関連して下記に議論される。ユーザ機器デバイス400は、入出力(以下「I/O」)パス402を介して、コンテンツおよびデータを受信してもよい。I/Oパス402は、処理回路406および記憶装置408を含む制御回路404に、コンテンツ(例えば、放送番組、オンデマンド番組、インターネットコンテンツ、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を経由して利用可能なコンテンツ、および/または他のコンテンツ)およびデータを提供してもよい。制御回路404は、I/Oパス402を使用して、コマンド、要求、および他の好適なデータを送受信するために使用されてもよい。I/Oパス402は、制御回路404(具体的には、処理回路406)を1つ以上の通信パス(下記に説明される)に接続してもよい。I/O機能は、これらの通信パスのうちの1つ以上のものによって提供されてもよいが、図面が複雑になり過ぎることを回避するため、図4では単一パスとして示されている。 Users may access content and media guidance applications (and their display screens described above and below) from one or more of their user equipment devices. FIG. 4 shows a generalized embodiment of illustrative user equipment device 400 . More specific implementations of user equipment devices are discussed below in connection with FIG. User equipment device 400 may receive content and data via input/output (hereinafter “I/O”) path 402 . I/O path 402 provides content (eg, broadcast programming, on-demand programming, Internet content, local area network (LAN) or wide area network (WAN)) to control circuitry 404, which includes processing circuitry 406 and storage 408. and/or other content) and data. Control circuitry 404 may be used to send and receive commands, requests, and other suitable data using I/O path 402 . I/O paths 402 may connect control circuitry 404 (and specifically processing circuitry 406) to one or more communication paths (described below). I/O functions may be provided by one or more of these communication paths, but are shown as a single path in FIG. 4 to avoid over-complicating the drawing.

制御回路404は、処理回路406等の任意の好適な処理回路に基づいてもよい。本明細書で参照されるように、処理回路とは、1つ以上のマイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ、プログラマブル論理デバイス、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)等に基づく回路を意味すると理解され、マルチコアプロセッサ(例えば、デュアルコア、クアドコア、ヘクサコア、または任意の好適な数のコア)またはスーパーコンピュータを含んでもよい。いくつかの実施形態では、処理回路は、複数の別個のプロセッサまたは処理ユニット、例えば、複数の同一のタイプの処理ユニット(例えば、2つのIntel Core i7プロセッサ)または複数の異なるプロセッサ(例えば、Intel Core i5プロセッサおよびIntel Core i7プロセッサ)にわたって分散されてもよい。いくつかの実施形態では、制御回路404は、メモリ(すなわち、記憶装置408)に記憶されたメディアガイドアプリケーションに対する命令を実行する。具体的には、制御回路404は、メディアガイドアプリケーションによって、上記および下記に議論される機能を果たすように命令されてもよい。例えば、メディアガイドアプリケーションは、制御回路404に、メディアガイド表示を生成するための命令を提供してもよい。いくつかの実装では、制御回路404によって実施される任意のアクションは、メディアガイドアプリケーションから受信される命令に基づいてもよい。 Control circuitry 404 may be based on any suitable processing circuitry, such as processing circuitry 406 . As referred to herein, processing circuitry means one or more microprocessors, microcontrollers, digital signal processors, programmable logic devices, field programmable gate arrays (FPGAs), application specific integrated circuits (ASICs), etc. and may include multi-core processors (eg, dual-core, quad-core, hexa-core, or any suitable number of cores) or supercomputers. In some embodiments, the processing circuitry includes multiple separate processors or processing units, such as multiple identical type processing units (e.g., two Intel Core i7 processors) or multiple different processors (e.g., Intel Core i7 processors). i5 processors and Intel Core i7 processors). In some embodiments, control circuitry 404 executes instructions for a media guidance application stored in memory (ie, storage device 408). Specifically, control circuitry 404 may be commanded by the media guidance application to perform the functions discussed above and below. For example, a media guidance application may provide instructions to control circuitry 404 for generating a media guidance display. In some implementations, any actions performed by control circuitry 404 may be based on instructions received from the media guidance application.

クライアントサーバベースの実施形態では、制御回路404は、ガイドアプリケーションサーバまたは他のネットワークまたはサーバと通信するための好適な通信回路を含んでもよい。上記に述べられる機能性を実施するための命令は、ガイドアプリケーションサーバ上に記憶されてもよい。通信回路は、ケーブルモデム、総合デジタル通信網(ISDN)モデム、デジタルサブスクライバ回線(DSL)モデム、電話モデム、イーサネット(登録商標)カード、または他の機器との通信用の無線モデム、または任意の他の好適な通信回路を含んでもよい。そのような通信は、インターネットまたは任意の他の好適な通信ネットワークまたはパスを伴ってもよい(図5に関連してより詳細に説明される)。加えて、通信回路は、ユーザ機器デバイスのピアツーピア通信、または相互から遠隔の場所にあるユーザ機器デバイスの通信を可能にする回路を含んでもよい(下記により詳細に説明される)。 In client-server based embodiments, control circuitry 404 may include suitable communication circuitry for communicating with a guide application server or other networks or servers. Instructions for implementing the functionality described above may be stored on the guide application server. The communication circuitry may be a cable modem, Integrated Services Digital Network (ISDN) modem, Digital Subscriber Line (DSL) modem, telephone modem, Ethernet card, or wireless modem for communication with other equipment, or any other may include suitable communication circuitry for Such communication may involve the Internet or any other suitable communication network or path (discussed in more detail in connection with FIG. 5). Additionally, communication circuitry may include circuitry that enables peer-to-peer communication of user equipment devices or communication of user equipment devices located remotely from one another (discussed in more detail below).

メモリは、制御回路404の一部である、記憶装置408として提供される、電子記憶デバイスであってもよい。本明細書で参照されるように、語句「電子記憶デバイス」または「記憶デバイス」とは、ランダムアクセスメモリ、読取専用メモリ、ハードドライブ、光学ドライブ、デジタルビデオディスク(DVD)レコーダ、コンパクトディスク(CD)レコーダ、BLU-RAY(登録商標)ディスク(BD)レコーダ、BLU-RAY(登録商標) 3Dディスクレコーダ、デジタルビデオレコーダ(DVR、または時として、パーソナルビデオレコーダまたはPVRと呼ばれる)、ソリッドステートデバイス、量子記憶デバイス、ゲームコンソール、ゲームメディア、または任意の他の好適な固定またはリムーバブル記憶デバイス、および/またはそれらの任意の組み合わせ等の電子データ、コンピュータソフトウェア、またはファームウェアを記憶するための任意のデバイスを意味すると理解されたい。記憶装置408は、本明細書に説明される種々のタイプのコンテンツ、および上記に説明されるメディアガイドデータを記憶するために使用されてもよい。不揮発性メモリもまた、(例えば、ブートアップルーチンおよび他の命令を起動するために)使用されてもよい。図5に関連して説明されるクラウドベースの記憶装置が、記憶装置408を補完するために使用される、または記憶装置408の代わりに使用されてもよい。 The memory may be an electronic storage device provided as storage 408 , which is part of control circuitry 404 . As referred to herein, the phrase "electronic storage device" or "storage device" includes random access memory, read-only memory, hard drives, optical drives, digital video disc (DVD) recorders, compact discs (CDs), ) recorders, BLU-RAY® disc (BD) recorders, BLU-RAY® 3D disc recorders, digital video recorders (DVRs, or sometimes called personal video recorders or PVRs), solid state devices, any device for storing electronic data, computer software, or firmware such as quantum storage devices, game consoles, game media, or any other suitable fixed or removable storage device, and/or any combination thereof; be understood to mean Storage device 408 may be used to store the various types of content described herein and the media guidance data described above. Non-volatile memory may also be used (eg, to launch boot-up routines and other instructions). The cloud-based storage device described in connection with FIG. 5 may be used to supplement storage device 408 or be used in place of storage device 408 .

制御回路404は、1つ以上のアナログチューナ、1つ以上のMPEG-2デコーダ、または他のデジタルデコード回路、高解像度チューナ、または任意の他の好適な同調またはビデオ回路、またはそのような回路の組み合わせ等のビデオ生成回路および同調回路を含んでもよい。(例えば、記憶するために、無線、アナログ、またはデジタル信号をMPEG信号に変換するための)エンコード回路もまた、提供されてもよい。制御回路404はまた、コンテンツをユーザ機器400の好ましい出力形式に上方変換および下方変換するためのスケーリング回路を含んでもよい。回路404はまた、デジタル信号とアナログ信号との間で変換するためのデジタル/アナログ変換回路およびアナログ/デジタル変換回路を含んでもよい。同調およびエンコード回路は、コンテンツを受信して表示する、再生する、または録画するために、ユーザ機器デバイスによって使用されてもよい。同調およびエンコード回路はまた、ガイドデータを受信するために使用されてもよい。例えば、同調、ビデオ生成、エンコード、デコード、暗号化、解読、スケーリング、およびアナログ/デジタル回路を含む、本明細書に説明される回路は、1つ以上の汎用または特殊プロセッサ上で起動するソフトウェアを使用して実装されてもよい。複数のチューナが、同時同調機能(例えば、視聴および録画機能、ピクチャインピクチャ(PIP)機能、多重チューナ録画機能等)に対処するように提供されてもよい。記憶装置408が、ユーザ機器400とは別のデバイスとして提供される場合、同調およびエンコード回路(複数のチューナを含む)は、記憶装置408と関連付けられてもよい。 Control circuitry 404 may include one or more analog tuners, one or more MPEG-2 decoders, or other digital decoding circuitry, a high-definition tuner, or any other suitable tuning or video circuitry, or control of such circuitry. It may also include video generation circuitry and tuning circuitry, such as a combination. Encoding circuitry (eg, for converting over-the-air, analog, or digital signals to MPEG signals for storage) may also be provided. Control circuitry 404 may also include scaling circuitry for up-converting and down-converting content to the preferred output format of user equipment 400 . Circuitry 404 may also include digital-to-analog converter circuitry and analog-to-digital converter circuitry for converting between digital and analog signals. Tuning and encoding circuitry may be used by user equipment devices to receive and display, play, or record content. Tuning and encoding circuitry may also be used to receive guide data. For example, the circuits described herein, including tuning, video generation, encoding, decoding, encryption, decryption, scaling, and analog/digital circuits, can be implemented using software running on one or more general-purpose or special-purpose processors. may be implemented using Multiple tuners may be provided to accommodate simultaneous tuning functions (eg, viewing and recording functions, picture-in-picture (PIP) functions, multi-tuner recording functions, etc.). If storage 408 is provided as a separate device from user equipment 400 , tuning and encoding circuitry (including multiple tuners) may be associated with storage 408 .

ユーザは、ユーザ入力インターフェース410を使用して、命令を制御回路404に送信してもよい。ユーザ入力インターフェース410は、リモートコントロール、マウス、トラックボール、キーパッド、キーボード、タッチスクリーン、タッチパッド、スタイラス入力、ジョイスティック、音声認識インターフェース、または他のユーザ入力インターフェース等の任意の好適なユーザインターフェースであってもよい。ディスプレイ412は、独立型デバイスとして提供される、またはユーザ機器デバイス400の他の要素と統合されてもよい。例えば、ディスプレイ412は、タッチスクリーンまたはタッチセンサ式ディスプレイであってもよい。そのような状況では、ユーザ入力インターフェース410は、ディスプレイ412と統合される、または組み合わせられてもよい。ディスプレイ412は、モニタ、テレビ、モバイルデバイス用液晶ディスプレイ(LCD)、非晶質シリコンディスプレイ、低温ポリシリコンディスプレイ、電子インクディスプレイ、電気泳動ディスプレイ、アクティブマトリクスディスプレイ、エレクトロウェッティングディスプレイ、電気流体ディスプレイ、ブラウン管ディスプレイ、発光ダイオードディスプレイ、エレクトロルミネセントディスプレイ、プラズマディスプレイパネル、高性能アドレッシングディスプレイ、薄膜トランジスタディスプレイ、有機発光ダイオードディスプレイ、表面伝導型電子放出素子ディスプレイ(SED)、レーザテレビ、カーボンナノチューブ、量子ドットディスプレイ、干渉変調器ディスプレイ、または視覚的画像を表示するための任意の他の好適な機器のうちの1つ以上のものであってもよい。いくつかの実施形態では、ディスプレイ412は、HDTV対応型であり得る。いくつかの実施形態では、ディスプレイ412は、3Dディスプレイであってもよく、双方向メディアガイドアプリケーションおよび任意の好適なコンテンツは、3Dで表示されてもよい。ビデオカードまたはグラフィックカードは、ディスプレイ412への出力を生成してもよい。ビデオカードは、3Dシーンおよび2Dグラフィックのレンダリング加速、MPEG-2/MPEG-4デコード、TV出力、または複数のモニタを接続する能力等の種々の機能を提供し得る。ビデオカードは、制御回路404に関連する上記に説明される任意の処理回路であってもよい。ビデオカードは、制御回路404と統合されてもよい。スピーカ414は、ユーザ機器デバイス400の他の要素と統合されたものとして提供されてもよい、または独立型ユニットであってもよい。ディスプレイ412上に表示されるビデオおよび他のコンテンツのオーディオコンポーネントは、スピーカ414を通して再生されてもよい。いくつかの実施形態では、オーディオは、スピーカ414を介して音声を処理および出力する、受信機(図示せず)に配布されてもよい。 A user may use user input interface 410 to send commands to control circuitry 404 . User input interface 410 may be any suitable user interface such as a remote control, mouse, trackball, keypad, keyboard, touch screen, touch pad, stylus input, joystick, voice recognition interface, or other user input interface. may Display 412 may be provided as a stand-alone device or integrated with other elements of user equipment device 400 . For example, display 412 may be a touch screen or touch sensitive display. In such situations, user input interface 410 may be integrated or combined with display 412 . The display 412 may be a monitor, television, liquid crystal display (LCD) for mobile devices, amorphous silicon display, low temperature polysilicon display, electronic ink display, electrophoretic display, active matrix display, electrowetting display, electrofluidic display, cathode ray tube. Displays, Light Emitting Diode Displays, Electroluminescent Displays, Plasma Display Panels, High Performance Addressing Displays, Thin Film Transistor Displays, Organic Light Emitting Diode Displays, Surface Conduction Electron Emitting Device Displays (SEDs), Laser Televisions, Carbon Nanotubes, Quantum Dot Displays, Interference It may be one or more of the modulator displays, or any other suitable device for displaying visual images. In some embodiments, display 412 may be HDTV-capable. In some embodiments, display 412 may be a 3D display, and interactive media guidance applications and any suitable content may be displayed in 3D. A video card or graphics card may generate output to display 412 . A video card may provide a variety of features such as accelerated rendering of 3D scenes and 2D graphics, MPEG-2/MPEG-4 decoding, TV output, or the ability to connect multiple monitors. The video card may be any of the processing circuits described above associated with control circuit 404 . A video card may be integrated with the control circuit 404 . Speakers 414 may be provided as integrated with other elements of user equipment device 400 or may be stand-alone units. Audio components of videos and other content displayed on display 412 may be played through speakers 414 . In some embodiments, the audio may be distributed to receivers (not shown) that process and output the sound via speakers 414 .

ガイドアプリケーションは、任意の好適なアーキテクチャを使用して実装されてもよい。例えば、これは、ユーザ機器デバイス400上で完全に実装される、独立型アプリケーションであってもよい。そのようなアプローチでは、アプリケーションの命令は、ローカルで(例えば、記憶装置408内に)記憶され、アプリケーションによって使用するためのデータは、周期的にダウンロードされる(例えば、帯域外フィードから、インターネットリソースから、または別の好適なアプローチを使用して)。制御回路404は、記憶装置408からアプリケーションの命令を読み出し、本明細書に議論される表示のうちのいずれかを生成するための命令を処理してもよい。処理された命令に基づいて、制御回路404は、入力が入力インターフェース410から受信されるときに実施するアクションを決定してもよい。例えば、表示上のカーソルの上/下への移動は、入力インターフェース410が上/下ボタンが選択されたことを示すとき、処理された命令によって示されてもよい。 A guide application may be implemented using any suitable architecture. For example, it may be a standalone application that is fully implemented on user equipment device 400 . In such an approach, the application's instructions are stored locally (e.g., in storage device 408) and data for use by the application is periodically downloaded (e.g., from out-of-band feeds, Internet resources, etc.). from or using another preferred approach). Control circuitry 404 may retrieve application instructions from storage device 408 and process the instructions to generate any of the displays discussed herein. Based on the processed instructions, control circuitry 404 may determine actions to perform when input is received from input interface 410 . For example, up/down movement of the cursor on the display may be indicated by the processed instructions when the input interface 410 indicates that the up/down button has been selected.

いくつかの実施形態では、メディアガイドアプリケーションは、クライアントサーバベースのアプリケーションである。ユーザ機器デバイス400上に実装される、シックまたはシンクライアントによって使用するためのデータは、ユーザ機器デバイス400の遠隔にあるサーバに要求を発行することによって、オンデマンドで読み出される。クライアントサーバベースのガイドアプリケーションの一実施例では、制御回路404は、遠隔サーバによって提供されるウェブページを解釈する、ウェブブラウザを起動する。例えば、遠隔サーバは、記憶デバイス内にアプリケーションのための命令を記憶してもよい。遠隔サーバは、回路(例えば、制御回路404)を使用して、記憶された命令を処理し、上記および下記に議論される表示を生成してもよい。クライアントデバイスは、遠隔サーバによって生成される表示を受信してもよく、表示のコンテンツを機器デバイス400上にローカルで表示してもよい。このように、命令の処理が、サーバによって遠隔で実施される一方、結果として生じる表示は、機器デバイス400上にローカルで提供される。機器デバイス400は、入力インターフェース410を介して、ユーザからの入力を受信し、対応する表示を処理および生成するために、それらの入力を遠隔サーバに伝送してもよい。例えば、機器デバイス400は、上/下ボタンが入力インターフェース410を介して選択されたことを示す通信を遠隔サーバに伝送してもよい。遠隔サーバは、その入力に従って命令を処理し、入力に対応するアプリケーションの表示を生成してもよい(例えば、カーソルを上/下に移動させる表示)。生成された表示は、次いで、ユーザへの提示のために、機器デバイス400に伝送される。 In some embodiments, the media guidance application is a client-server based application. Data for use by a thick or thin client implemented on user equipment device 400 is retrieved on demand by issuing a request to a server remote to user equipment device 400 . In one embodiment of a client-server based guide application, control circuitry 404 launches a web browser that interprets web pages provided by a remote server. For example, a remote server may store instructions for an application in a storage device. The remote server may use circuitry (eg, control circuitry 404) to process stored instructions and generate the displays discussed above and below. The client device may receive the display generated by the remote server and may display the content of the display locally on the equipment device 400 . In this way, the processing of the instructions is performed remotely by the server while the resulting display is provided locally on the equipment device 400 . Equipment device 400 may receive inputs from a user via input interface 410 and transmit those inputs to a remote server for processing and generating a corresponding display. For example, equipment device 400 may transmit a communication to a remote server indicating that the up/down button was selected via input interface 410 . The remote server may process the instructions according to the input and generate a display of the application corresponding to the input (eg, a cursor up/down display). The generated display is then transmitted to the equipment device 400 for presentation to the user.

いくつかの実施形態では、メディアガイドアプリケーションは、インタープリタまたは仮想マシン(制御回路404によって起動される)によって、ダウンロードされ、解釈または別様に起動される。いくつかの実施形態では、ガイドアプリケーションは、ETVバイナリ交換形式(ETV Binary Interchange Format/EBIF)でエンコードされ、好適なフィードの一部として制御回路404によって受信され、制御回路404上で起動するユーザエージェントによって解釈されてもよい。例えば、ガイドアプリケーションは、EBIFアプリケーションであってもよい。いくつかの実施形態では、ガイドアプリケーションは、制御回路404によって実行されるローカル仮想マシンまたは他の好適なミドルウェアによって受信および起動される、一連のJAVA(登録商標)ベースのファイルによって定義されてもよい。そのような実施形態のうちのいくつか(例えば、MPEG-2または他のデジタルメディアエンコードスキームを採用するもの)では、ガイドアプリケーションは、例えば、番組のMPEGオーディオおよびビデオパケットを用いたMPEG-2オブジェクトカルーセルにおいてエンコードおよび伝送されてもよい。 In some embodiments, the media guidance application is downloaded and interpreted or otherwise launched by an interpreter or virtual machine (launched by control circuitry 404). In some embodiments, the guide application is encoded in the ETV Binary Interchange Format (EBIF) and received by the control circuit 404 as part of the preferred feed and user agent running on the control circuit 404. may be interpreted by For example, the guide application may be an EBIF application. In some embodiments, the guide application may be defined by a series of JAVA-based files that are received and launched by a local virtual machine or other suitable middleware executed by control circuitry 404. . In some of such embodiments (e.g., those employing MPEG-2 or other digital media encoding schemes), the guide application creates MPEG-2 objects, e.g., with MPEG audio and video packets of a program. It may be encoded and transmitted in the carousel.

図4のユーザ機器デバイス400は、ユーザテレビ機器502、ユーザコンピュータ機器504、無線ユーザ通信デバイス506、または非ポータブルゲーム機等のコンテンツにアクセスするために好適な任意の他のタイプのユーザ機器として、図5のシステム500に実装されることができる。簡単にするために、これらのデバイスは、本明細書では総称して、ユーザ機器またはユーザ機器デバイスと称されてもよく、上記に説明されるユーザ機器デバイスに実質的に類似し得る。メディアガイドアプリケーションが実装され得る、ユーザ機器デバイスは、独立型デバイスとして機能してもよい、またはデバイスのネットワークの一部であってもよい。デバイスの種々のネットワーク構成が実装されてもよく、下記により詳細に議論される。 User equipment device 400 of FIG. 4 may be user television equipment 502, user computer equipment 504, wireless user communications device 506, or any other type of user equipment suitable for accessing content, such as non-portable game consoles. It can be implemented in system 500 of FIG. For simplicity, these devices may be referred to herein collectively as user equipment or user equipment devices, and may be substantially similar to the user equipment devices described above. A user equipment device on which a media guidance application may be implemented may function as a stand-alone device or may be part of a network of devices. Various network configurations of devices may be implemented and are discussed in more detail below.

図4に関連して上記に説明されるシステム特徴のうちの少なくともいくつかを利用する、ユーザ機器デバイスは、単に、ユーザテレビ機器502、ユーザコンピュータ機器504、または無線ユーザ通信デバイス506として分類されなくてもよい。例えば、ユーザテレビ機器502は、いくつかのユーザコンピュータ機器504のように、インターネットコンテンツへのアクセスを可能にするインターネット対応型であり得る一方で、ユーザコンピュータ機器504は、あるテレビ機器502のように、テレビ番組へのアクセスを可能にするチューナを含んでもよい。メディアガイドアプリケーションはまた、種々の異なるタイプのユーザ機器上で同一レイアウトを有してもよい、またはユーザ機器の表示能力に合わせられてもよい。例えば、ユーザコンピュータ機器504上では、ガイドアプリケーションは、ウェブブラウザによってアクセスされるウェブサイトとして提供されてもよい。別の実施例では、ガイドアプリケーションは、無線ユーザ通信デバイス506用に縮小されてもよい。 User equipment devices that utilize at least some of the system features described above in connection with FIG. may For example, user television equipment 502, like some user computer equipment 504, may be Internet-enabled to allow access to Internet content, while user computer equipment 504, like some television equipment 502, may be Internet-enabled. , may include a tuner that allows access to television programming. The media guidance application may also have the same layout on various different types of user equipment or may be tailored to the display capabilities of the user equipment. For example, on user computer device 504, the guide application may be provided as a website accessed by a web browser. In another embodiment, the guide application may be scaled down for wireless user communications device 506 .

システム500では、典型的には、各タイプのユーザ機器デバイスが1つを上回って存在するが、図面が複雑になり過ぎることを回避するように、それぞれ1つだけが図5に示されている。加えて、各ユーザは、1つを上回るタイプのユーザ機器デバイスと、また、各タイプのユーザ機器デバイスのうちの1つを上回るものとを利用してもよい。 More than one of each type of user equipment device is typically present in system 500, but only one of each is shown in FIG. 5 to avoid over-complicating the drawing. . Additionally, each user may utilize more than one type of user equipment device, and more than one of each type of user equipment device.

いくつかの実施形態では、ユーザ機器デバイス(例えば、ユーザテレビ機器502、ユーザコンピュータ機器504、無線ユーザ通信デバイス506)は、「第2の画面デバイス」と称されてもよい。例えば、第2の画面デバイスは、第1のユーザ機器デバイス上に提示されるコンテンツを補完してもよい。第2の画面デバイス上に提示されるコンテンツは、第1のデバイス上に提示されるコンテンツを補完する、任意の好適なコンテンツであってもよい。いくつかの実施形態では、第2の画面デバイスは、第1のデバイスの設定および表示選好を調節するためのインターフェースを提供する。いくつかの実施形態では、第2の画面デバイスは、他の第2の画面デバイスと相互作用する、またはソーシャルネットワークと相互作用するために構成される。第2の画面デバイスは、第1のデバイスと同一の部屋内に、第1のデバイスと異なる部屋であるが、同一の家または建物内に、または第1のデバイスと異なる建物内に位置することができる。 In some embodiments, user equipment devices (eg, user television equipment 502, user computer equipment 504, wireless user communications device 506) may be referred to as "second screen devices." For example, a second screen device may complement content presented on a first user equipment device. The content presented on the second screen device may be any suitable content that complements the content presented on the first device. In some embodiments, the second screen device provides an interface for adjusting the settings and display preferences of the first device. In some embodiments, the second screen device is configured to interact with other second screen devices or interact with social networks. The second screen device is located in the same room as the first device, in a different room than the first device but in the same house or building, or in a different building than the first device. can be done.

ユーザはまた、家庭内デバイスおよび遠隔デバイスにわたって一貫したメディアガイドアプリケーション設定を維持するように、種々の設定を設定してもよい。設定は、本明細書に説明されるもの、およびお気に入りのチャネルおよび番組、番組を推奨するためにガイドアプリケーションが利用する番組選好、表示選好、および他の望ましいガイド設定を含む。例えば、ユーザが、そのオフィスのパーソナルコンピュータ上で、例えば、ウェブサイトwww.Tivo.comの上で、チャネルをお気に入りとして設定した場合、同一のチャネルが、ユーザの家庭内デバイス(例えば、ユーザテレビ機器およびユーザコンピュータ機器)上で、および所望に応じて、ユーザのモバイルデバイス上でお気に入りとして表示されるであろう。したがって、同一または異なるタイプのユーザ機器デバイスであるかどうかにかかわらず、1つのユーザ機器デバイス上で行われる変更は、別のユーザ機器デバイス上のガイド体験を変更することができる。加えて、行われる変更は、ユーザによって入力される設定、およびガイドアプリケーションによって監視されるユーザアクティビティに基づいてもよい。 The user may also set various settings to maintain consistent media guidance application settings across in-home and remote devices. Settings include those described herein as well as favorite channels and programs, program preferences utilized by the guide application to recommend programs, display preferences, and other desired guide settings. For example, a user may, on a personal computer in his office, browse, for example, the website www. Tivo. com, the same channels are favorited on the user's home devices (e.g., user television equipment and user computer equipment) and, optionally, on the user's mobile device. will be displayed as Thus, changes made on one user equipment device can change the guiding experience on another user equipment device, regardless of whether they are the same or a different type of user equipment device. Additionally, changes made may be based on settings entered by the user and user activity monitored by the guide application.

ユーザ機器デバイスは、通信ネットワーク514に結合されてもよい。すなわち、ユーザテレビ機器502、ユーザコンピュータ機器504、および無線ユーザ通信デバイス506は、それぞれ、通信パス508、510、および512を介して、通信ネットワーク514に結合される。通信ネットワーク514は、インターネット、携帯電話ネットワーク、モバイルボイスまたはデータネットワーク(例えば、4GまたはLTEネットワーク)、ケーブルネットワーク、公衆交換電話ネットワーク、または他のタイプの通信ネットワーク、または通信ネットワークの組み合わせを含む、1つ以上のネットワークであってもよい。パス508、510、および512は、別個または一緒に、衛星パス、光ファイバパス、ケーブルパス、インターネット通信をサポートするパス(例えば、IPTV)、フリースペース接続(例えば、放送または他の無線信号用)、または任意の他の好適な有線または無線通信パス、またはそのようなパスの組み合わせ等の1つ以上の通信パスを含んでもよい。パス512は、図5に示される例示的実施形態では、無線パスであることを示すように破線で描かれ、パス508および510は、有線パスであることを示すように実線として描かれている(しかし、これらのパスは、所望に応じて、無線パスであってもよい)。ユーザ機器デバイスとの通信は、これらの通信パスのうちの1つ以上のものによって提供されてもよいが、図5では、図面が複雑になり過ぎることを回避するように、単一パスとして示されている。 User equipment devices may be coupled to communications network 514 . That is, user television equipment 502, user computer equipment 504, and wireless user communications device 506 are coupled to communications network 514 via communications paths 508, 510, and 512, respectively. Communication network 514 may include the Internet, a cellular network, a mobile voice or data network (eg, a 4G or LTE network), a cable network, a public switched telephone network, or any other type of communication network, or combination of communication networks. There may be more than one network. Paths 508, 510, and 512, separately or together, may be satellite paths, fiber optic paths, cable paths, paths supporting Internet communications (e.g., IPTV), free space connections (e.g., for broadcast or other wireless signals). , or any other suitable wired or wireless communication path or combination of such paths. Path 512 is drawn as a dashed line to indicate that it is a wireless path in the exemplary embodiment shown in FIG. 5, and paths 508 and 510 are drawn as solid lines to indicate that they are wired paths. (However, these paths may also be wireless paths, if desired). Communication with user equipment devices may be provided by one or more of these communication paths, but is shown in FIG. 5 as a single path to avoid over-complicating the drawing. It is

通信パスは、ユーザ機器デバイスの間には描かれていないが、これらのデバイスは、パス508、510、および512に関連して上記に説明されるもの、およびUSBケーブル、IEEE 1394ケーブル、無線パス(例えば、Bluetooth(登録商標)、赤外線、IEEE 802-11x等)等の他の短距離ポイントツーポイント通信パス、または有線または無線パスを介した他の短距離通信等の通信パスを介して、相互に直接通信してもよい。BLUETOOTH(登録商標)は、Bluetooth(登録商標) SIG, INC.によって所有される認証マークである。ユーザ機器デバイスはまた、通信ネットワーク514を介した間接パスを通して、相互に直接通信してもよい。 Although communication paths are not depicted between user equipment devices, these devices include those described above with respect to paths 508, 510, and 512, as well as USB cables, IEEE 1394 cables, wireless paths. (e.g., Bluetooth®, infrared, IEEE 802-11x, etc.) or other short-range communication paths such as via wired or wireless paths, They may communicate directly with each other. BLUETOOTH (registered trademark) is a trademark of Bluetooth (registered trademark) SIG, INC. is a certification mark owned by User equipment devices may also communicate directly with each other through indirect paths through communications network 514 .

システム500は、それぞれ、通信パス520および522を介して、通信ネットワーク514に結合される、コンテンツソース516およびメディアガイドデータソース518を含む。パス520および522は、パス508、510、および512に関連して上記に説明される通信パスのうちのいずれかを含んでもよい。コンテンツソース516およびメディアガイドデータソース518との通信は、1つ以上の通信パスを介して交信されてもよいが、図5では、図面が複雑になり過ぎることを回避するように、単一パスとして示される。加えて、コンテンツソース516およびメディアガイドデータソース518のそれぞれが1つを上回って存在し得るが、図5では、図面が複雑になり過ぎることを回避するように、それぞれ1つだけが示されている。(異なるタイプのこれらのソースのそれぞれが下記に議論される)。所望に応じて、コンテンツソース516およびメディアガイドデータソース518は、1つのソースデバイスとして統合されてもよい。ソース516および518と、ユーザ機器デバイス502、504、および506との間の通信は、通信ネットワーク514を通したものとして示されるが、いくつかの実施形態では、ソース516および518は、パス508、510、および512に関連して上記に説明されるもの等の通信パス(図示せず)を介して、ユーザ機器デバイス502、504、および506と直接通信してもよい。 System 500 includes content source 516 and media guidance data source 518 coupled to communications network 514 via communications paths 520 and 522, respectively. Paths 520 and 522 may include any of the communication paths described above with respect to paths 508 , 510 and 512 . Communication with content sources 516 and media guidance data sources 518 may be communicated over one or more communication paths, although FIG. 5 illustrates a single path to avoid overcomplicating the drawing. is shown as Additionally, although there may be more than one each of content sources 516 and media guidance data sources 518, only one of each is shown in FIG. 5 to avoid over-complicating the drawing. there is (Each of these sources of different types is discussed below). If desired, content source 516 and media guidance data source 518 may be integrated as one source device. Although communication between sources 516 and 518 and user equipment devices 502, 504, and 506 is shown as through communication network 514, in some embodiments sources 516 and 518 are connected via path 508, It may communicate directly with user equipment devices 502 , 504 , and 506 via communication paths (not shown) such as those described above with respect to 510 and 512 .

コンテンツソース516は、テレビ配信施設、ケーブルシステムヘッドエンド、衛星配信施設、番組ソース(例えば、NBC、ABC、HBO等のテレビ放送会社)、中間配信施設および/またはサーバ、インターネットプロバイダ、オンデマンドメディアサーバ、および他のコンテンツプロバイダを含む、1つ以上のタイプのコンテンツ配信機器を含んでもよい。NBCは、National Broadcasting Company, Inc.によって所有される商標であり、ABCは、American Broadcasting Company, INC.によって所有される商標であり、HBOは、Home Box Office, Inc.によって所有される商標である。コンテンツソース516は、コンテンツの発信元であってもよい(例えば、テレビ放送会社、ウェブキャストプロバイダ等)、またはコンテンツの発信元でなくてもよい(例えば、オンデマンドコンテンツプロバイダ、ダウンロード用放送番組のコンテンツのインターネットプロバイダ等)。コンテンツソース516は、ケーブルソース、衛星プロバイダ、オンデマンドプロバイダ、インターネットプロバイダ、オーバーザトップコンテンツプロバイダ、または他のコンテンツのプロバイダを含んでもよい。コンテンツソース516はまた、ユーザ機器デバイスのうちのいずれかから遠隔の場所にある、異なるタイプのコンテンツ(ユーザによって選択されるビデオコンテンツを含む)を記憶するために使用される、遠隔メディアサーバを含んでもよい。コンテンツの遠隔記憶のため、および遠隔に記憶されたコンテンツをユーザ機器に提供するためのシステムおよび方法は、2010年7月20日に発行されたEllis et al.の米国特許第7,761,892号(その全体として参照することによって本明細書に組み込まれる)に関連して、より詳細に議論されている。 Content sources 516 may include television distribution facilities, cable system headends, satellite distribution facilities, programming sources (e.g., television broadcasters such as NBC, ABC, HBO, etc.), intermediate distribution facilities and/or servers, Internet providers, on-demand media servers. , and other content providers. NBC is a National Broadcasting Company, Inc. ABC is a trademark owned by American Broadcasting Company, INC. and HBO is a trademark owned by Home Box Office, Inc. is a trademark owned by Content source 516 may be a source of content (eg, television broadcaster, webcast provider, etc.) or may not be a source of content (eg, on-demand content provider, downloadable broadcast program, etc.). content internet providers, etc.). Content sources 516 may include cable sources, satellite providers, on-demand providers, Internet providers, over-the-top content providers, or other providers of content. Content sources 516 also include remote media servers used to store different types of content (including user-selected video content) at locations remote from any of the user equipment devices. It's okay. Systems and methods for remote storage of content and for providing remotely stored content to user equipment are described in Ellis et al. No. 7,761,892, which is incorporated herein by reference in its entirety.

メディアガイドデータソース518は、上記に説明されるメディアガイドデータ等のメディアガイドデータを提供してもよい。メディアガイドデータは、任意の好適なアプローチを使用して、ユーザ機器デバイスに提供されてもよい。いくつかの実施形態では、ガイドアプリケーションは、データフィード(例えば、継続フィードまたはトリクルフィード)を介して、番組ガイドデータを受信する、独立型双方向テレビ番組ガイドであってもよい。番組スケジュールデータおよび他のガイドデータは、テレビチャネルのサイドバンド上で、帯域内デジタル信号を使用して、帯域外デジタル信号を使用して、または任意の他の好適なデータ伝送技術によって、ユーザ機器に提供されてもよい。番組スケジュールデータおよび他のメディアガイドデータは、複数のアナログまたはデジタルテレビチャネル上でユーザ機器に提供されてもよい。 Media guidance data source 518 may provide media guidance data, such as the media guidance data described above. Media guidance data may be provided to user equipment devices using any suitable approach. In some embodiments, the guide application may be a stand-alone interactive television program guide that receives program guide data via a data feed (eg, continuous feed or trickle feed). Program schedule data and other guide data may be transmitted to user equipment on sidebands of television channels, using in-band digital signals, using out-of-band digital signals, or by any other suitable data transmission technique. may be provided to Program schedule data and other media guide data may be provided to user equipment on multiple analog or digital television channels.

いくつかの実施形態では、メディアガイドデータソース518からのガイドデータは、クライアントサーバアプローチを使用して、ユーザの機器に提供されてもよい。例えば、ユーザ機器デバイスは、メディアガイドデータをサーバからプルしてもよい、またはサーバは、メディアガイドデータをユーザ機器デバイスにプッシュしてもよい。いくつかの実施形態では、ユーザの機器上に常駐するガイドアプリケーションクライアントは、必要に応じて、例えば、ガイドデータが古くなっているとき、またはユーザ機器デバイスが、データを受信する要求をユーザから受信するとき、ソース518とセッションを開始し、ガイドデータを取得してもよい。メディアガイドは、任意の好適な頻度で(例えば、継続的に、毎日、ユーザ規定期間で、システム規定期間で、ユーザ機器からの要求に応答して等)ユーザ機器に提供されてもよい。メディアガイドデータソース518は、ユーザ機器デバイス502、504、および506に、メディアガイドアプリケーション自体、またはメディアガイドアプリケーションのソフトウェア更新を提供してもよい。 In some embodiments, guidance data from media guidance data source 518 may be provided to users' equipment using a client-server approach. For example, a user equipment device may pull media guidance data from a server, or a server may push media guidance data to a user equipment device. In some embodiments, a guide application client residing on the user's equipment receives a request from the user to receive data as needed, e.g., when the guide data is outdated or the user equipment device receives the data. When it does, it may initiate a session with the source 518 to obtain the guide data. Media guidance may be provided to user equipment at any suitable frequency (eg, continuously, daily, at user-defined periods, at system-defined periods, in response to requests from user equipment, etc.). Media guidance data source 518 may provide user equipment devices 502 , 504 , and 506 with the media guidance application itself or software updates for the media guidance application.

いくつかの実施形態では、メディアガイドデータは、視聴者データを含んでもよい。例えば、視聴者データは、現在および/または履歴ユーザアクティビティ情報(例えば、ユーザが典型的に鑑賞するコンテンツ、ユーザがコンテンツを鑑賞する時刻、ユーザがソーシャルネットワークと相互作用するかどうか、ユーザがソーシャルネットワークと相互作用し、情報をポストする時間、ユーザが典型的に鑑賞するコンテンツのタイプ(例えば、有料TVまたは無料TV)、気分、脳の活動情報等)を含んでもよい。メディアガイドデータはまた、サブスクリプションデータを含んでもよい。例えば、サブスクリプションデータは、所与のユーザがサブスクライブするソースまたはサービスおよび/または所与のユーザが以前にサブスクライブしていたが、後にアクセスを打ち切ったソースまたはサービス(例えば、ユーザがプレミアムチャネルをサブスクライブしているかどうか、ユーザがプレミアムレベルのサービスを追加したかどうか、ユーザがインターネット速度を加速させたかどうか)を識別してもよい。いくつかの実施形態では、視聴者データおよび/またはサブスクリプションデータは、1年を上回る周期の間の所与のユーザのパターンを識別してもよい。メディアガイドデータは、所与のユーザがサービス/ソースへのアクセスを打ち切るであろう可能性を示すスコアを生成するために使用される、モデル(例えば、残存者モデル)を含んでもよい。例えば、メディアガイドアプリケーションは、所与のユーザが特定のサービスまたはソースへのアクセスを打ち切るであろうかどうかの可能性を示す値またはスコアを生成するためのモデルを使用して、サブスクリプションデータとともに視聴者データを処理してもよい。特に、より高いスコアは、ユーザが特定のサービスまたはソースへのアクセスを打ち切るであろう、より高いレベルの信頼性を示し得る。スコアに基づいて、メディアガイドアプリケーションは、ユーザがアクセスを打ち切る可能性が高いであろうものとしてスコアによって示される特定のサービスまたはソースをユーザが維持するように勧誘する宣伝を生成してもよい。 In some embodiments, media guidance data may include viewer data. For example, audience data may include current and/or historical user activity information (e.g., what content users typically watch, what time users watch content, whether users interact with social networks, whether users interact with social networks, time spent interacting with and posting information, the type of content the user typically watches (eg, pay TV or free TV), mood, brain activity information, etc.). Media guidance data may also include subscription data. For example, subscription data may include sources or services to which a given user subscribes and/or sources or services to which a given user previously subscribed but later discontinued access (e.g., if a user chooses a premium channel , whether the user has added a premium level service, whether the user has accelerated internet speed). In some embodiments, audience data and/or subscription data may identify patterns for a given user over a period of more than one year. Media guidance data may include models (eg, survivor models) that are used to generate scores that indicate the likelihood that a given user will discontinue access to a service/source. For example, a media guidance application may use a model to generate a value or score that indicates the likelihood of whether a given user will discontinue access to a particular service or source, along with subscription data. may process person data. In particular, a higher score may indicate a higher level of confidence that a user will discontinue access to a particular service or source. Based on the score, the media guidance application may generate promotions inviting the user to maintain a particular service or source indicated by the score as likely to discontinue access to the user.

メディアガイドアプリケーションは、例えば、ユーザ機器デバイス上に実装される独立型アプリケーションであってもよい。例えば、メディアガイドアプリケーションは、記憶装置408内に記憶され、ユーザ機器デバイス400の制御回路404によって実行され得る、ソフトウェアまたは実行可能命令のセットとして実装されてもよい。いくつかの実施形態では、メディアガイドアプリケーションは、クライアント-サーバアプリケーションであってもよく、その場合、クライアントアプリケーションのみが、ユーザ機器デバイス上に常駐し、サーバアプリケーションは、遠隔サーバ上に常駐する。例えば、メディアガイドアプリケーションは、部分的に、ユーザ機器デバイス400の制御回路404上のクライアントアプリケーションとして、および遠隔サーバの制御回路上で起動するサーバアプリケーション(例えば、メディアガイドデータソース518)として部分的に遠隔サーバ上で、実装されてもよい。遠隔サーバの制御回路(メディアガイドデータソース518等)によって実行されると、メディアガイドアプリケーションは、制御回路に、ガイドアプリケーション表示を生成し、生成された表示をユーザ機器デバイスに伝送するように命令してもよい。サーバアプリケーションは、メディアガイドデータソース518の制御回路に、ユーザ機器上での記憶のためのデータを伝送するように命令してもよい。クライアントアプリケーションは、受信用ユーザ機器の制御回路に、ガイドアプリケーション表示を生成するように命令してもよい。 A media guidance application may be, for example, a stand-alone application implemented on a user equipment device. For example, the media guidance application may be implemented as software or a set of executable instructions that may be stored within storage device 408 and executed by control circuitry 404 of user equipment device 400 . In some embodiments, the media guidance application may be a client-server application, where only the client application resides on the user equipment device and the server application resides on the remote server. For example, the media guidance application is partly a client application on the control circuitry 404 of the user equipment device 400 and partly as a server application (e.g., media guidance data source 518) running on the control circuitry of a remote server. May be implemented on a remote server. When executed by the control circuitry of the remote server (such as media guidance data source 518), the media guidance application instructs the control circuitry to generate a guidance application display and transmit the generated display to the user equipment device. may The server application may instruct the control circuitry of media guidance data source 518 to transmit data for storage on the user equipment. The client application may instruct the control circuitry of the receiving user equipment to generate the guidance application display.

ユーザ機器デバイス502、504、および506に配信されるコンテンツおよび/またはメディアガイドデータは、オーバーザトップ(OTT)コンテンツであってもよい。OTTコンテンツ配信は、上記に説明される任意のユーザ機器デバイスを含む、インターネット対応型ユーザデバイスが、ケーブルまたは衛星接続を経由して受信されるコンテンツに加えて、上記に説明される任意のコンテンツを含む、インターネットを経由して転送されるコンテンツを受信することを可能にする。OTTコンテンツは、インターネットサービスプロバイダ(ISP)によって提供されるインターネット接続を介して配信されるが、第三者も、コンテンツを配布する。ISPは、視聴能力、著作権、またはコンテンツの再配布に責任がない場合があり、OTTコンテンツプロバイダによって提供されるIPパケットのみを転送してもよい。OTTコンテンツプロバイダの実施例は、IPパケットを介してオーディオおよびビデオを提供する、YOUTUBE(登録商標)、NETFLIX、およびHULUを含む。Youtubeは、Google Inc.によって所有される商標であり、Netflixは、Netflix, Inc.によって所有される商標であり、Huluは、Hulu, LLC.によって所有される商標である。OTTコンテンツプロバイダは、加えて、または代替として、上記に説明されるメディアガイドデータを提供してもよい。コンテンツおよび/またはメディアガイドデータに加えて、OTTコンテンツのプロバイダは、メディアガイドアプリケーション(例えば、ウェブベースのアプリケーションまたはクラウドベースのアプリケーション)を配布することができる、またはコンテンツは、ユーザ機器デバイス上に記憶されたメディアガイドアプリケーションによって表示されることができる。 The content and/or media guidance data delivered to user equipment devices 502, 504, and 506 may be over-the-top (OTT) content. OTT content delivery means that Internet-enabled user devices, including any user equipment devices described above, can deliver any content described above in addition to content received via cable or satellite connections. to receive content transmitted over the Internet, including OTT content is delivered over Internet connections provided by Internet Service Providers (ISPs), but third parties also distribute content. ISPs may not be responsible for viewing capabilities, copyright, or redistribution of content, and may only forward IP packets provided by OTT content providers. Examples of OTT content providers include YOUTUBE, NETFLIX, and HULU, which provide audio and video over IP packets. Youtube is owned by Google Inc. Netflix is a trademark owned by Netflix, Inc. and Hulu is a trademark owned by Hulu, LLC. is a trademark owned by OTT content providers may additionally or alternatively provide the media guidance data described above. In addition to content and/or media guidance data, OTT content providers may distribute media guidance applications (e.g., web-based applications or cloud-based applications), or content may be stored on user equipment devices. can be displayed by the selected media guidance application.

メディアガイドシステム500は、いくつかのアプローチまたはネットワーク構成を例証することを意図しており、これによって、ユーザ機器デバイスおよびコンテンツおよびガイドデータのソースは、コンテンツにアクセスし、メディアガイドを提供する目的のために、相互に通信してもよい。本明細書に説明される実施形態は、これらのアプローチのうちのいずれか1つまたは一部において、またはコンテンツを配信し、メディアガイドを提供するための他のアプローチを採用するシステムにおいて、適用されてもよい。以下の4つのアプローチは、図5の汎用実施例の具体的例証を提供する。 Media guidance system 500 is intended to illustrate a number of approaches or network configurations by which user equipment devices and sources of content and guidance data can access content and provide media guidance. may communicate with each other. The embodiments described herein may be applied in any one or some of these approaches, or in systems employing other approaches for delivering content and providing media guidance. may The following four approaches provide specific illustrations of the generalized embodiment of FIG.

あるアプローチでは、ユーザ機器デバイスは、ホームネットワーク内で相互に通信してもよい。ユーザ機器デバイスは、上記に説明される短距離ポイントツーポイント通信方式を介して、ホームネットワーク上に提供されるハブまたは他の類似デバイスを通した間接パスを介して、または通信ネットワーク514を介して、相互に直接通信することができる。1つの家庭内の複数の個人のそれぞれが、ホームネットワーク上の異なるユーザ機器デバイスを動作させてもよい。結果として、種々のメディアガイド情報または設定が、異なるユーザ機器デバイスの間で通信されることが望ましくあり得る。例えば、2005年7月11日に出願されたEllis et al.の米国特許公開第2005/0251827号でより詳細に説明されるように、ホームネットワーク内の異なるユーザ機器デバイス上で、ユーザが一貫したメディアガイドアプリケーション設定を維持することが望ましくあり得る。ホームネットワーク内の異なるタイプのユーザ機器デバイスもまた、相互に通信し、コンテンツを伝送してもよい。例えば、ユーザは、ユーザコンピュータ機器からポータブルビデオプレーヤまたはポータブル音楽プレーヤにコンテンツを伝送してもよい。 In one approach, user equipment devices may communicate with each other within a home network. User equipment devices may communicate via the short-range point-to-point communication scheme described above, via an indirect path through a hub or other similar device provided on the home network, or via communication network 514. , can communicate directly with each other. Multiple individuals within a single home may each operate a different user equipment device on the home network. As a result, it may be desirable for various media guidance information or settings to be communicated between different user equipment devices. For example, Ellis et al. As described in more detail in US Patent Publication No. 2005/0251827, it may be desirable for users to maintain consistent media guidance application settings on different user equipment devices within a home network. Different types of user equipment devices within a home network may also communicate with each other and transmit content. For example, a user may transmit content from user computer equipment to a portable video player or portable music player.

第2のアプローチでは、ユーザは、複数のタイプのユーザ機器を有してもよく、これによって、コンテンツにアクセスし、メディアガイドを取得する。例えば、一部のユーザは、家庭内およびモバイルデバイスによってアクセスされる、ホームネットワークを有してもよい。ユーザは、遠隔デバイス上に実装されるメディアガイドアプリケーションを介して、家庭内デバイスを制御してもよい。例えば、ユーザは、そのオフィスのパーソナルコンピュータ、またはPDAまたはウェブ対応携帯電話等のモバイルデバイスを介して、ウェブサイト上のオンラインメディアガイドアプリケーションにアクセスしてもよい。ユーザは、オンラインガイドアプリケーション上で種々の設定(例えば、録画、リマインダ、または他の設定)を設定して、ユーザの家庭内機器を制御してもよい。オンラインガイドは、直接、またはユーザの家庭内機器上のメディアガイドアプリケーションと通信することによって、ユーザの機器を制御してもよい。ユーザ機器デバイスが相互から遠隔の場所にある、ユーザ機器デバイスの通信のための種々のシステムおよび方法は、例えば、Ellis et al.の2011年10月25日に発行された米国特許第8,046,801号(その全体を参照することによって本明細書に組み込まれる)に議論されている。 In a second approach, users may have multiple types of user equipment by which they access content and obtain media guidance. For example, some users may have home networks that are accessed by in-home and mobile devices. A user may control the in-home device via a media guidance application implemented on the remote device. For example, a user may access an online media guidance application on a website via a personal computer in their office or a mobile device such as a PDA or web-enabled cell phone. The user may set various settings (eg, recordings, reminders, or other settings) on the online guide application to control the user's home equipment. The online guide may control the user's equipment either directly or by communicating with a media guidance application on the user's home equipment. Various systems and methods for communication of user equipment devices, where the user equipment devices are remote from each other, are described, for example, in Ellis et al. US Pat. No. 8,046,801, issued Oct. 25, 2011, which is incorporated herein by reference in its entirety.

第3のアプローチでは、家庭内外のユーザ機器デバイスのユーザは、コンテンツソース516と直接通信し、コンテンツにアクセスするために、そのメディアガイドアプリケーションを使用することができる。具体的には、家庭内では、ユーザテレビ機器502およびユーザコンピュータ機器504のユーザは、メディアガイドアプリケーションにアクセスし、所望のコンテンツ間をナビゲートし、それを特定してもよい。ユーザはまた、無線ユーザ通信デバイス506を使用して、家庭外のメディアガイドアプリケーションにアクセスし、所望のコンテンツ間をナビゲートし、それを特定してもよい。 In a third approach, users of user equipment devices inside and outside the home can communicate directly with content source 516 and use their media guidance applications to access content. Specifically, within the home, users of user television equipment 502 and user computer equipment 504 may access the media guidance application to navigate among and locate desired content. The user may also use the wireless user communication device 506 to access out-of-home media guidance applications to navigate among and locate desired content.

第4のアプローチでは、ユーザ機器デバイスは、クラウドコンピューティング環境内で動作し、クラウドサービスにアクセスしてもよい。クラウドコンピューティング環境では、コンテンツ共有、記憶、または配布のための種々のタイプのコンピューティングサービス(例えば、ビデオ共有サイトまたはソーシャルネットワーキングサイト)が、「クラウド」と称される、ネットワークアクセス可能コンピューティングおよび記憶リソースの集合によって提供される。例えば、クラウドは、通信ネットワーク514を介したインターネット等のネットワークを介して接続される、種々のタイプのユーザおよびデバイスにクラウドベースのサービスを提供する、中央にまたは分散場所に位置し得る、サーバコンピューティングデバイスの集合を含むことができる。これらのクラウドリソースは、1つ以上のコンテンツソース516および1つ以上のメディアガイドデータソース518を含んでもよい。加えて、または代替として、遠隔コンピューティングサイトは、ユーザテレビ機器502、ユーザコンピュータ機器504、および無線ユーザ通信デバイス506等の他のユーザ機器デバイスを含んでもよい。例えば、他のユーザ機器デバイスは、ビデオの記憶されたコピーまたはストリーミングされたビデオへのアクセスを提供してもよい。そのような実施形態では、ユーザ機器デバイスは、中央サーバと通信することなく、ピアツーピア様式で動作してもよい。 In a fourth approach, user equipment devices may operate within a cloud computing environment and access cloud services. In a cloud computing environment, various types of computing services for content sharing, storage, or distribution (e.g., video sharing sites or social networking sites) are network-accessible computing and Provided by a collection of storage resources. For example, a cloud is a server computer, which may be located at a central or distributed location, that provides cloud-based services to various types of users and devices that are connected through a network, such as the Internet via communications network 514. can include a collection of lighting devices. These cloud resources may include one or more content sources 516 and one or more media guidance data sources 518 . Additionally or alternatively, remote computing sites may include other user equipment devices such as user television equipment 502 , user computer equipment 504 , and wireless user communications devices 506 . For example, other user equipment devices may provide access to stored copies of the video or streamed video. In such embodiments, user equipment devices may operate in a peer-to-peer fashion without communicating with a central server.

クラウドは、ユーザ機器デバイスのために、他の実施例の中でもとりわけ、コンテンツ記憶、コンテンツ共有、またはソーシャルネットワーキングサービス等のサービスへのアクセス、および上記に説明される任意のコンテンツへのアクセスを提供する。サービスは、クラウドコンピューティングサービスプロバイダを通して、またはオンラインサービスの他のプロバイダを通して、クラウド内で提供されることができる。例えば、クラウドベースのサービスは、コンテンツ記憶サービス、コンテンツ共有サイト、ソーシャルネットワーキングサイト、または他のサービスを含むことができ、それを介して、ユーザ供給コンテンツは、接続されたデバイス上で他者によって視聴するために配布される。これらのクラウドベースのサービスは、ユーザ機器デバイスが、コンテンツをローカルで記憶し、ローカルで記憶されたコンテンツにアクセスするのではなく、コンテンツをクラウドに記憶し、コンテンツをクラウドから受信することを可能にしてもよい。 The cloud provides, among other examples, access to services such as content storage, content sharing, or social networking services, and access to any of the content described above, for user equipment devices. . Services can be provided in the cloud through cloud computing service providers or through other providers of online services. For example, cloud-based services may include content storage services, content sharing sites, social networking sites, or other services through which user-supplied content is viewed by others on connected devices. Distributed to These cloud-based services allow user equipment devices to store content in the cloud and receive content from the cloud, rather than storing content locally and accessing content stored locally. may

ユーザは、カムコーダ、ビデオモード付きデジタルカメラ、オーディオレコーダ、携帯電話、およびハンドヘルドコンピューティングデバイス等の種々のコンテンツ捕捉デバイスを使用して、コンテンツを録画してもよい。ユーザは、直接、例えば、ユーザコンピュータ機器504から、またはコンテンツ捕捉特徴を有する、無線ユーザ通信デバイス506からのいずれかにおいて、クラウド上のコンテンツ記憶サービスにコンテンツをアップロードすることができる。代替として、ユーザは、最初に、コンテンツをユーザコンピュータ機器504等のユーザ機器デバイスに転送することができる。コンテンツを記憶するユーザ機器デバイスは、通信ネットワーク514上のデータ伝送サービスを使用して、コンテンツをクラウドにアップロードする。いくつかの実施形態では、ユーザ機器デバイス自体が、クラウドリソースであり、他のユーザ機器デバイスは、直接、ユーザがコンテンツを記憶したユーザ機器デバイスから、コンテンツにアクセスすることができる。 Users may record content using a variety of content capture devices such as camcorders, digital cameras with video mode, audio recorders, cell phones, and handheld computing devices. Users can upload content to the content storage service on the cloud either directly, for example, from user computer equipment 504 or from wireless user communication devices 506, which have content capture features. Alternatively, the user can first transfer the content to a user equipment device, such as user computer equipment 504 . User equipment devices that store content use data transmission services on communication network 514 to upload content to the cloud. In some embodiments, the user equipment device itself is a cloud resource, and other user equipment devices can access content directly from the user equipment device on which the user has stored the content.

クラウドリソースは、例えば、ウェブブラウザ、メディアガイドアプリケーション、デスクトップアプリケーション、モバイルアプリケーション、および/またはそれらのアクセスアプリケーションの任意の組み合わせを使用して、ユーザ機器デバイスによってアクセスされてもよい。ユーザ機器デバイスは、アプリケーション配信のために、クラウドコンピューティングに依拠する、クラウドクライアントであってもよい、またはユーザ機器デバイスは、クラウドリソースにアクセスすることなく、ある機能性を有してもよい。例えば、ユーザ機器デバイス上で起動するいくつかのアプリケーションは、クラウドアプリケーション、すなわち、インターネットを経由して、サービスとして配信されるアプリケーションであってもよい一方で、他のアプリケーションは、ユーザ機器デバイス上に記憶され、起動されてもよい。いくつかの実施形態では、ユーザデバイスは、コンテンツを複数のクラウドリソースから同時に受信してもよい。例えば、ユーザデバイスは、オーディオを1つのクラウドリソースからストリーミングする一方で、コンテンツを第2のクラウドリソースからダウンロードすることができる。または、ユーザデバイスは、より効率的なダウンロードのために、コンテンツを複数のクラウドリソースからダウンロードすることができる。いくつかの実施形態では、ユーザ機器デバイスは、図4に関連して説明される処理回路によって実施される処理動作等の処理動作のために、クラウドリソースを使用することができる。 Cloud resources may be accessed by user equipment devices using, for example, web browsers, media guidance applications, desktop applications, mobile applications, and/or any combination of these access applications. A user equipment device may be a cloud client, relying on cloud computing for application delivery, or a user equipment device may have some functionality without access to cloud resources. For example, some applications that run on user equipment devices may be cloud applications, i.e., applications delivered as a service over the Internet, while other applications run on user equipment devices. may be stored and activated. In some embodiments, a user device may receive content from multiple cloud resources simultaneously. For example, a user device may stream audio from one cloud resource while downloading content from a second cloud resource. Alternatively, the user device can download content from multiple cloud resources for more efficient downloads. In some embodiments, user equipment devices may use cloud resources for processing operations such as those performed by the processing circuitry described in connection with FIG.

本明細書で参照されるように、用語「~に応答して」は、「~の結果として開始される」ことを指す。例えば、第2のアクションに応答して実施されている第1のアクションは、第1のアクションと第2のアクションとの間に介在ステップを含んでもよい。本明細書で参照されるように、用語「~に直接応答して」は、「~によって引き起こされる」ことを指す。例えば、第2のアクションに直接応答して実施されている第1のアクションは、第1のアクションと第2のアクションとの間に介在ステップを含まなくてもよい。 As referred to herein, the term "in response to" refers to "initiated as a result of." For example, a first action being performed in response to a second action may include intervening steps between the first action and the second action. As referred to herein, the term "directly in response to" refers to "caused by." For example, a first action being performed in direct response to a second action may not include an intervening step between the first action and the second action.

図6は、本開示のいくつかの実施形態による、非再生コマンドを関連する再生修正に変換し、コマンドを実行するようにコマンドの受信者を促すためのプロセスの例証的フローチャートを描写する。プロセス600および以下のプロセスのうちのいずれかは、(例えば、メディアガイドアプリケーションによって制御回路404に命令される様式で)制御回路404によって実行されてもよい。制御回路404は、ユーザ機器(例えば、ユーザテレビ機器502、ユーザコンピュータ機器504、および/または無線通信デバイス506の機能性のうちのいずれかまたは全てを有し得る、ユーザ機器100)、または通信ネットワーク514を介してユーザ機器から分離される遠隔サーバの一部である、または両方の組み合わせにわたって分散されてもよい。 FIG. 6 depicts an illustrative flowchart of a process for converting non-playback commands into associated playback modifications and prompting recipients of the commands to execute the commands, according to some embodiments of the present disclosure. Process 600 and any of the following processes may be performed by control circuitry 404 (eg, in a manner directed to control circuitry 404 by a media guidance application). Control circuitry 404 controls user equipment (eg, user equipment 100, which may have any or all of the functionality of user television equipment 502, user computer equipment 504, and/or wireless communication device 506), or a communication network. 514, which may be part of a remote server separate from the user equipment, or distributed across a combination of both.

プロセス600は、制御回路404が、第1のユーザ102から第2のユーザ106へのコマンドを決定する、602から開始する。制御回路404は、センサ、ユーザテレビ機器502、ユーザコンピュータ機器504、および/または無線ユーザ通信デバイス512を使用して、第1のユーザ102からのオーディオ出力104を検出することによって、第1のユーザ102から第2のユーザ106へのコマンドを決定する。例えば、制御回路404は、オーディオセンサを使用して、第1のユーザ102からの口頭出力(例えば、「夕食の時間ですよ!」)を検出することによって、第1のユーザ102から第2のユーザ106へのコマンド(例えば、夕食を食べる)を決定してもよい。 Process 600 begins at 602 where control circuitry 404 determines a command from first user 102 to second user 106 . Control circuitry 404 detects audio output 104 from first user 102 using sensors, user television equipment 502 , user computer equipment 504 , and/or wireless user communications device 512 to enable first user 102 to Determine commands from 102 to second user 106 . For example, the control circuit 404 may use an audio sensor to detect verbal output from the first user 102 (eg, "It's time for dinner!") to communicate from the first user 102 to the second user. A command to user 106 (eg, eat dinner) may be determined.

604では、制御回路404は、コマンドを、現在再生されているメディアアセットのための再生動作コマンドのセットと比較する。制御回路404は、記憶装置408から、または通信ネットワーク514を経由して、メディアアセットのための再生動作コマンドのセットを読み出す。制御回路404は、処理回路406を使用して、コマンドを読み出された再生動作のセットと比較する。例えば、制御回路404は、コマンド(例えば、「夕食を食べて」)を、現在再生されているメディアアセットのための再生動作コマンドのセット(例えば、一時停止、再生、巻き戻し、早送り、停止、ミュート等)と比較する。 At 604, control circuitry 404 compares the command to the set of play action commands for the currently playing media asset. Control circuitry 404 retrieves a set of playback operation commands for the media asset from storage device 408 or via communications network 514 . Control circuitry 404, using processing circuitry 406, compares the command to the retrieved set of playback operations. For example, the control circuitry 404 may convert a command (eg, "have dinner") into a set of playback action commands (eg, pause, play, rewind, fast forward, stop, etc.) for the currently playing media asset. mute, etc.).

606では、制御回路404は、コマンドが再生動作のセット内に含有されているかどうかを決定する。606において、制御回路404が、「はい」、すなわち、コマンドが再生動作のセット内に含有されていることを決定する場合には、プロセス606は、プロセス602に戻る。 At 606, control circuitry 404 determines whether the command is contained within the set of play operations. If at 606 control circuit 404 determines YES, ie, the command is contained within the set of play operations, process 606 returns to process 602 .

606において、制御回路404が、「いいえ」、すなわち、コマンドが再生動作のセット内に含有されていないことを決定する場合には、プロセス606は、プロセス608に続く。608では、制御回路404は、第2のユーザ106がコマンドの所望の結果を実行するかどうかを決定する。制御回路404は、上記に説明されるような類似方法を使用して、第2のユーザ106がコマンドを実行するかどうかを決定する。例えば、制御回路404は、無線ユーザ通信デバイス506を使用し、第2のユーザ106が実行するアクションを検出してもよい(例えば、ユーザの電話を追跡し、ユーザが視聴環境から退出するかどうかを決定する)。 At 606 , if control circuit 404 determines “no”, ie, the command is not contained within the set of play operations, process 606 continues to process 608 . At 608, control circuitry 404 determines whether second user 106 executes the desired result of the command. Control circuitry 404 determines whether second user 106 executes the command using a similar method as described above. For example, the control circuitry 404 may use the wireless user communication device 506 to detect actions performed by the second user 106 (eg, track the user's phone and determine if the user exits the viewing environment). to determine).

610では、第2のユーザがコマンドの所望の結果を実行しないことを決定するステップに応答して、制御回路404は、メディアアセットの再生を修正するかどうかを決定する。例えば、制御回路404は、記憶装置408内に記憶された、または通信ネットワーク514を介して読み出された、ユーザのそれぞれのランクを読み出してもよい。制御回路404は、第1のユーザ102が第2のユーザ106よりも高いランクであるかどうかを決定してもよく、第1のユーザ102が第2のユーザ106よりも高いランクであることを決定するステップに応答して、制御回路404は、メディアアセットの再生を修正してもよい。例えば、メディアガイドアプリケーションは、スピーカ414を通したメディアアセット116の再生の音量をミュートしてもよい。別の実施例として、メディアガイドアプリケーションは、ディスプレイ412をオフにしてもよい。 At 610, in response to the second user determining not to perform the desired result of the command, control circuitry 404 determines whether to modify the playback of the media asset. For example, control circuitry 404 may retrieve the user's respective rank stored within storage device 408 or retrieved via communication network 514 . Control circuitry 404 may determine whether first user 102 is of a higher rank than second user 106 and determines that first user 102 is of higher rank than second user 106 . In response to the determining step, control circuitry 404 may modify the playback of the media asset. For example, the media guidance application may mute the volume of playback of media asset 116 through speaker 414 . As another example, the media guidance application may turn off display 412 .

図7は、本開示のいくつかの実施形態による、非再生コマンドを関連する再生修正に変換し、コマンドを実行するようにコマンドの受信者を促すためのプロセスの例証的フローチャートを描写する。プロセス700は、制御回路404が、第1のユーザ104から第2のユーザ106へのコマンドを検出する、702から開始する。制御回路404は、センサ、ユーザテレビ機器502、ユーザコンピュータ機器504、および/または無線ユーザ通信デバイス512を使用して、第1のユーザ102からのオーディオ出力104を検出することによって、第1のユーザ104から第2のユーザ106へのコマンドを検出する。例えば、制御回路404は、オーディオセンサを使用して、第1のユーザからの口頭出力を検出することによって、第1のユーザから第2のユーザへのコマンドを検出してもよい。 FIG. 7 depicts an illustrative flowchart of a process for converting non-playback commands into associated playback modifications and prompting recipients of the commands to execute the commands, according to some embodiments of the present disclosure. Process 700 begins at 702 where control circuitry 404 detects a command from first user 104 to second user 106 . Control circuitry 404 detects audio output 104 from first user 102 using sensors, user television equipment 502 , user computer equipment 504 , and/or wireless user communications device 512 to enable first user 102 to A command from 104 to a second user 106 is detected. For example, control circuitry 404 may detect commands from a first user to a second user by detecting verbal output from the first user using an audio sensor.

704では、制御回路404は、コマンドを、第2のユーザによって現在再生されているメディアアセットのための再生動作コマンドのセットと比較する。制御回路404は、記憶装置408またはメディアガイドデータソース518から、または通信ネットワーク514を介して、メディアアセット108のための再生動作コマンドのセットを読み出す。制御回路404は、処理回路406を使用して、コマンドを読み出された再生動作のセットと比較する。例えば、制御回路404は、記憶装置408内のデータベースから再生動作コマンドのセット(例えば、一時停止、再生、巻き戻し、早送り、停止、ミュート等)を読み出してもよい。制御回路404は、コマンドを読み出された再生動作コマンドのセットと比較してもよい。 At 704, control circuitry 404 compares the command to a set of play action commands for the media asset currently being played by the second user. Control circuitry 404 retrieves a set of playback operation commands for media asset 108 from storage device 408 , media guidance data source 518 , or via communication network 514 . Control circuitry 404, using processing circuitry 406, compares the command to the retrieved set of playback operations. For example, control circuitry 404 may retrieve a set of playback operation commands (eg, pause, play, rewind, fast forward, stop, mute, etc.) from a database within storage device 408 . Control circuitry 404 may compare the command to the retrieved set of playback operation commands.

706では、制御回路404は、コマンドが再生動作のセット内に含有されているかどうかを決定する。706において、制御回路404が、「はい」、すなわち、コマンドが再生動作のセット内に含有されていることを決定する場合には、プロセス706は、プロセス702に戻る。 At 706, control circuitry 404 determines whether the command is contained within the set of play operations. At 706 , if control circuitry 404 determines “yes”, ie, the command is contained within the set of play operations, process 706 returns to process 702 .

706において、制御回路404が、「いいえ」、すなわち、コマンドが再生動作のセット内に含有されていないことを決定する場合には、プロセス706は、プロセス708に進む。708では、制御回路404は、コマンドが再生動作コマンドのセット内に含有されていないことを決定する。例えば、制御回路404は、処理回路406を使用して、コマンド(例えば、夕食を食べる)が再生動作コマンドのセット(例えば、一時停止、再生、停止、巻き戻し、早送り等)内に含有されていないことを決定してもよい。 If, at 706 , control circuitry 404 determines “no”, ie, the command is not contained within the set of play operations, process 706 proceeds to process 708 . At 708, control circuitry 404 determines that the command is not contained within the set of play operation commands. For example, control circuitry 404 uses processing circuitry 406 to determine if a command (e.g., eat dinner) is contained within a set of playback action commands (e.g., pause, play, stop, rewind, fast forward, etc.). You may decide not to.

710では、制御回路404は、第1のユーザ102のユーザプロファイルおよび第2のユーザ106のユーザプロファイルに基づいて、コマンドの複数の結果からコマンドの所望の結果を決定する。制御回路404は、記憶装置408またはメディアガイドデータソース518から、または通信ネットワーク514を介して、第1のユーザ102のユーザプロファイルおよび第2のユーザ106のユーザプロファイルを読み出す。制御回路404は、上記に説明されるような類似方法を使用して、コマンドの所望の結果を決定する。 At 710 , control circuitry 404 determines a desired result of the command from the multiple results of the command based on the user profile of first user 102 and the user profile of second user 106 . Control circuitry 404 retrieves the user profile of first user 102 and the user profile of second user 106 from storage device 408 , media guidance data source 518 , or via communications network 514 . Control circuitry 404 determines the desired result of the command using similar methods as described above.

712では、制御回路404は、第2のユーザ106によって実行されるアクションを検出する。制御回路404は、上記に説明されるような類似方法を使用して、第2のユーザ106が実行するアクションを決定する。例えば、制御回路404は、無線ユーザ通信デバイス506(例えば、カメラ)を使用し、第2のユーザが実行するアクションを検出してもよい(例えば、ユーザの移動を追跡し、ユーザが視聴環境から退出するかどうかを決定する)。714では、制御回路404は、第2のユーザ106のアクションをコマンドの所望の結果と比較する。制御回路404は、上記に説明されるような類似方法を使用して、第2のユーザのアクションをコマンドの所望の結果と比較する。例えば、制御回路404は、アクション(例えば、ユーザが長椅子から移動しないこと)を所望の結果(例えば、ユーザが夕食を食べに行くこと)と比較してもよい。 At 712 , control circuitry 404 detects an action performed by second user 106 . Control circuitry 404 determines the action to be performed by second user 106 using similar methods as described above. For example, control circuitry 404 may use wireless user communication device 506 (eg, a camera) to detect actions performed by the second user (eg, track movement of the user and decide whether to leave). At 714, control circuitry 404 compares the action of second user 106 to the desired result of the command. Control circuitry 404 compares the second user's action to the desired result of the command using similar methods as described above. For example, control circuitry 404 may compare an action (eg, the user does not move from the couch) to a desired outcome (eg, the user goes out to dinner).

716では、第2のユーザ106のアクションがコマンドの所望の結果に対応しないことを決定するステップに応答して、制御回路404は、第2のユーザ106のユーザプロファイルから第2のユーザ106の特性を読み出す。制御回路404は、ユーザプロファイルに対応する記憶装置408内のデータベースから、または通信ネットワーク514を介して、第2のユーザの特性を読み出す。例えば、制御回路404は、第2のユーザのプロファイルに対応する記憶装置408内のデータベースから、第2のユーザの特性(例えば、第2のユーザが10歳である)を読み出す。718では、制御回路404は、第1のユーザ102から検出されるコマンドおよび第2のユーザ106の読み出された特性に基づいて、メディアアセットの再生を修正するかどうかを決定する。制御回路404は、上記に説明されるような類似方法を使用して、コマンドおよび読み出された特性に基づいて、メディアアセットの再生を修正するかどうかを決定してもよい。例えば、制御回路404は、記憶装置408内のユーザプロファイルに対応するデータベースから読み出されるような、2人のユーザの間のランキングに基づいて、メディアアセットの再生を修正するかどうかを決定してもよい。 At 716, in response to determining that the second user's 106 action does not correspond to the desired result of the command, the control circuit 404 extracts the second user's 106 characteristics from the second user's 106 user profile. read out. Control circuitry 404 retrieves the characteristics of the second user from a database in storage device 408 corresponding to the user profile or via communication network 514 . For example, control circuitry 404 retrieves the characteristics of the second user (eg, the second user is 10 years old) from a database in storage device 408 corresponding to the second user's profile. At 718 , control circuitry 404 determines whether to modify the playback of the media asset based on commands detected from first user 102 and the retrieved characteristics of second user 106 . Control circuitry 404 may determine whether to modify the playback of the media asset based on the command and the read characteristics using similar methods as described above. For example, control circuitry 404 may determine whether to modify the playback of media assets based on rankings between two users, as read from a database corresponding to user profiles in storage device 408. good.

図8は、本開示のいくつかの実施形態による、第2のユーザ106の特性に基づいてコマンドを決定するためのプロセスの例証的フローチャートを描写する。プロセス800は、制御回路404が、第2のユーザの読み出された特性からの特性をコマンドと比較し、特性が、年齢、ランク、他のユーザとの関係、および時刻から成る特性の群から選択され、コマンドが、食事、掃除、勉強、調理、および睡眠から成るコマンドの群から選択される、802から開始する。制御回路404は、記憶装置408内のデータベースから特性を読み出す。制御回路404は、上記に説明されるような類似方法を使用して、特性をコマンドと比較する。例えば、制御回路404は、読み出された特性からの特性(例えば、年齢)をコマンド(例えば、食事)と比較してもよい。 FIG. 8 depicts an illustrative flowchart of a process for determining commands based on characteristics of the second user 106, according to some embodiments of the present disclosure. Process 800 begins when control circuit 404 compares the characteristics from the retrieved characteristics of the second user to the command, where the characteristics are selected from a group of characteristics consisting of age, rank, relationship with other users, and time of day. Starting at 802 a selection is made and a command is selected from the group of commands consisting of eating, cleaning, studying, cooking, and sleeping. Control circuitry 404 retrieves the characteristics from a database in storage device 408 . Control circuit 404 compares the characteristic to the command using similar methods as described above. For example, control circuit 404 may compare a characteristic (eg, age) from the read characteristic to a command (eg, meal).

804では、制御回路404は、比較から、コマンドが第2のユーザ106の特性を共有するかどうかを決定する。制御回路404は、記憶装置408内のデータベースからコマンドの特性を読み出し、比較で使用する。例えば、制御回路404は、処理回路406を使用して、コマンド(例えば、食事)が第2のユーザ106の特性(例えば、時刻が夕食の時間に対応する)を共有することを決定してもよい。806では、コマンドが特性を共有することを決定するステップに応答して、制御回路404は、メディアアセットの再生を修正する。例えば、制御回路404は、ユーザテレビ機器502上のメディアアセットの再生を一時停止してもよい。別の実施例として、制御回路404は、スピーカ414を通したメディアアセットの再生の音声(例えば、音量116)をミュートしてもよい。さらに別の実施例として、制御回路404は、メディアアセットの再生を表示していたディスプレイ412の電源を切ってもよい。 At 804 , control circuitry 404 determines from the comparison whether the command shares characteristics of second user 106 . Control circuitry 404 retrieves the command characteristics from a database in storage device 408 and uses them in the comparison. For example, control circuitry 404 may determine, using processing circuitry 406, that the command (e.g., meal) shares characteristics of second user 106 (e.g., time of day corresponds to dinner time). good. At 806, control circuitry 404 modifies the playback of the media asset in response to determining that the commands share characteristics. For example, control circuitry 404 may pause playback of a media asset on user television equipment 502 . As another example, control circuitry 404 may mute audio (eg, volume 116 ) of media asset playback through speaker 414 . As yet another example, control circuitry 404 may turn off display 412 that was displaying the playing of the media asset.

図9は、本開示のいくつかの実施形態による、非再生コマンドを関連する再生修正に変換し、コマンドを実行するようにコマンドの受信者を促すためのプロセスの例証的フローチャートを描写する。プロセス900は、制御回路404が、第1のユーザ102から第2のユーザ106および第3のユーザへのコマンドを検出する、902から開始する。例えば、制御回路404は、オーディオセンサを使用して、第1のユーザからの口頭出力を検出することによって、第1のユーザから第2のユーザおよび第3のユーザへのコマンドを検出してもよい。 FIG. 9 depicts an illustrative flowchart of a process for converting non-playback commands into associated playback modifications and prompting recipients of the commands to execute the commands, according to some embodiments of the present disclosure. Process 900 begins at 902 where control circuitry 404 detects commands from first user 102 to second user 106 and third user. For example, the control circuit 404 may detect commands from the first user to the second and third users by detecting verbal output from the first user using audio sensors. good.

904では、制御回路404は、第1のユーザ102のユーザプロファイル、第2のユーザ106のユーザプロファイル、および第3のユーザのユーザプロファイルに基づいて、コマンドの複数の結果からコマンドの所望の結果を決定する。例えば、制御回路404は、記憶装置408またはメディアガイドデータソース518内のデータベースから、または通信ネットワーク514を介して、コマンドの属性を読み出すことに基づいて、コマンドの所望の結果を決定してもよい。 At 904, the control circuit 404 determines a desired result of the command from the multiple results of the command based on the user profile of the first user 102, the user profile of the second user 106, and the user profile of the third user. decide. For example, control circuitry 404 may determine the desired result of a command based on retrieving attributes of the command from a database within storage device 408 or media guidance data source 518, or via communication network 514. .

906では、制御回路404は、第2のユーザによって実行される第1のアクションおよび第3のユーザによって実行される第2のアクションを検出する。制御回路404は、上記に説明されるような類似方法を使用して、第2のユーザが実行するアクションおよび第3のユーザが実行するアクションを決定する。例えば、制御回路404は、無線ユーザ通信デバイス506(例えば、カメラ)を使用し、第2のユーザおよび第3のユーザが実行するアクションを検出してもよい(例えば、ユーザの移動を追跡し、ユーザが視聴環境から退出するかどうかを決定する)。 At 906, control circuitry 404 detects the first action performed by the second user and the second action performed by the third user. Control circuitry 404 determines the action to be performed by the second user and the action to be performed by the third user using similar methods as described above. For example, control circuitry 404 may use wireless user communication device 506 (eg, a camera) to detect actions performed by the second and third users (eg, track user movement, determines whether the user exits the viewing environment).

908では、制御回路404は、第2のユーザ106のアクションおよび第3のユーザのアクションをコマンドの所望の結果と比較する。例えば、制御回路404は、第2のユーザ106のアクション(例えば、依然としてメディアアセットを鑑賞していること)および第3のユーザのアクション(例えば、依然としてメディアアセットを鑑賞していること)をコマンドの所望の結果(例えば、夕食のテーブルに歩いて行くこと)と比較してもよい。 At 908, control circuitry 404 compares the second user's 106 action and the third user's action to the desired result of the command. For example, the control circuitry 404 may command the actions of the second user 106 (eg, still watching the media asset) and the actions of the third user (eg, still watching the media asset). A desired result (eg, walking to the dinner table) may be compared.

910では、第2のユーザのアクションおよび第3のユーザのアクションがコマンドの所望の結果に対応しないことを決定するステップに応答して、制御回路404は、第2のユーザ106のユーザプロファイルから第2のユーザ106の特性を、第3のユーザのユーザプロファイルから第3のユーザの特性を読み出す。例えば、制御回路404は、第2のユーザのプロファイルに対応する記憶装置408内のデータベースから第2のユーザの特性を読み出してもよく、通信ネットワーク514を介して遠隔サーバ上に記憶された第3のユーザのプロファイルから第3のユーザの特性を読み出してもよい。 At 910, in response to determining that the second user's action and the third user's action do not correspond to the desired result of the command, the control circuitry 404 extracts the third user's action from the second user's 106 user profile. The characteristics of the second user 106 are retrieved from the user profile of the third user. For example, control circuitry 404 may retrieve the characteristics of the second user from a database in storage device 408 that corresponds to the profile of the second user and a third user stored on a remote server via communications network 514 . A third user's characteristics may be retrieved from the user's profile.

912では、制御回路404は、第1のユーザ102から検出されるコマンドおよび第2のユーザ106の読み出された特性および第3のユーザの読み出された特性に基づいて、メディアアセットの再生を修正するかどうかを決定する。例えば、制御回路404は、各ユーザと関連付けられるランクに基づいて、メディアアセットの再生を修正するかどうかを決定する。 At 912, the control circuitry 404 causes playback of the media asset based on commands detected from the first user 102 and the retrieved characteristics of the second user 106 and the retrieved characteristics of the third user. Decide whether to fix it. For example, control circuitry 404 determines whether to modify the playback of media assets based on the rank associated with each user.

図10は、本開示のいくつかの実施形態による、第1のユーザ102の口頭入力104に基づいてコマンドを決定するためのプロセスの例証的フローチャートを描写する。プロセス1000は、制御回路404が、第1のユーザ102からの口頭入力104を検出する、1002から開始する。例えば、制御回路404は、オーディオセンサを使用し、第1のユーザ102からの口頭入力104を検出してもよい。いくつかの事例では、オーディオセンサは、ユーザテレビ機器502、ユーザコンピュータ機器504、および/または無線ユーザ通信デバイス506内に含有されてもよい。 FIG. 10 depicts an illustrative flowchart of a process for determining commands based on verbal input 104 of first user 102, according to some embodiments of the present disclosure. Process 1000 begins at 1002 where control circuitry 404 detects verbal input 104 from first user 102 . For example, control circuitry 404 may use an audio sensor to detect verbal input 104 from first user 102 . In some instances, audio sensors may be contained within user television equipment 502 , user computer equipment 504 , and/or wireless user communications device 506 .

1004では、制御回路404は、口頭入力104をコマンドのデータベースと比較し、データベースは、各口頭入力に対応するコマンドを含有する。制御回路404は、記憶装置408から、通信ネットワーク514を経由して、口頭コマンドのデータベースを読み出す。例えば、制御回路404は、口頭入力(例えば、「夕食ができたよ!」)を、記憶装置408から受信される口頭コマンドのデータベースと比較する。1006では、制御回路404は、ユーザのプロファイルから、第1のユーザ102からの口頭入力に対応するコマンドを決定する。制御回路404は、上記に説明されるような類似方法を使用して、口頭入力に対応するコマンドを決定する。例えば、制御回路404は、処理回路406を使用し、キーワード合致に基づいて、口頭入力を口頭コマンドのデータベースと比較してもよい。 At 1004, control circuitry 404 compares verbal input 104 to a database of commands, which contains commands corresponding to each verbal input. Control circuitry 404 retrieves the database of verbal commands from storage device 408 via communications network 514 . For example, control circuit 404 compares verbal input (eg, “Dinner is ready!”) to a database of verbal commands received from storage device 408 . At 1006 , control circuitry 404 determines commands corresponding to verbal input from first user 102 from the user's profile. Control circuitry 404 determines commands corresponding to verbal input using similar methods as described above. For example, control circuitry 404 may use processing circuitry 406 to compare the verbal input to a database of verbal commands based on keyword matches.

図11は、本開示のいくつかの実施形態による、コマンドの属性に基づいて結果を決定するためのプロセスの例証的フローチャートを描写する。プロセス1100は、制御回路404が、コマンドの属性を決定する、1102から開始する。例えば、制御回路404は、上記に説明されるように、コマンドと関連付けられるオーディオを分析することに基づいて、コマンドの属性を決定してもよい。1104では、制御回路404は、コマンドの属性をコマンドの複数の結果の属性と比較する。例えば、制御回路404は、コマンドの属性を、記憶装置408から読み出され得る、コマンドの複数の結果の属性と比較してもよい。 FIG. 11 depicts an illustrative flowchart of a process for determining outcomes based on attributes of commands, according to some embodiments of the present disclosure. Process 1100 begins at 1102, where control circuitry 404 determines attributes of the command. For example, control circuitry 404 may determine attributes of a command based on analyzing audio associated with the command, as described above. At 1104, control circuitry 404 compares the attributes of the command with the attributes of multiple results of the command. For example, control circuitry 404 may compare the attributes of the command with attributes of multiple results of the command, which may be read from storage device 408 .

1106では、制御回路404は、比較から、コマンドの属性を含有する複数の結果の中の結果を、所望の結果であると決定する。例えば、制御回路404は、最高ランクを伴う複数の結果の中の結果を、所望の結果であると決定してもよい。 At 1106, control circuitry 404 determines from the comparison that the result in the plurality of results containing the attributes of the command is the desired result. For example, control circuitry 404 may determine the result among the plurality of results with the highest rank to be the desired result.

図12は、本開示のいくつかの実施形態による、第2のユーザ106がメディアアセットを提示しているメディア機器デバイスの視聴エリアから退出するかどうかを検出するためのプロセスの例証的フローチャートを描写する。プロセス1200は、制御回路404が、メディアアセットの再生を修正するコマンドを実行する第2のユーザを検出する、1202から開始する。例えば、制御回路404は、メディアアセットの再生を修正する(例えば、メディアアセットを一時停止する)ユーザ入力コマンド(例えば、「一時停止」コマンド)をユーザ入力インターフェース410から受信してもよい。 FIG. 12 depicts an illustrative flowchart of a process for detecting whether the second user 106 leaves the viewing area of a media equipment device presenting media assets, according to some embodiments of the present disclosure. do. Process 1200 begins at 1202, where control circuitry 404 detects a second user executing a command to modify playback of a media asset. For example, control circuitry 404 may receive a user input command (eg, a “pause” command) from user input interface 410 to modify playback of a media asset (eg, pause the media asset).

1204では、制御回路404は、ユーザがメディアアセットを提示しているメディア機器デバイスの視聴環境から退出するかどうかを決定する。1204において、制御回路404が、「はい」、すなわち、第2のユーザ106がメディアアセットを提示しているメディア機器デバイスの視聴環境から退出することを決定する場合、プロセス1204は、プロセス1206に進む。1206では、制御回路404は、センサを使用して、メディアアセットを提示しているメディア機器デバイスの視聴環境から退出する第2のユーザを検出する。例えば、制御回路404は、無線ユーザ通信デバイス506(例えば、カメラ)を使用し、第2のユーザの移動を追跡して、第2のユーザがメディアアセットを提示しているメディア機器デバイスの視聴環境から退出するときを検出してもよい。 At 1204, control circuitry 404 determines whether the user exits the viewing environment of the media equipment device presenting the media asset. At 1204 , if control circuitry 404 determines “yes”, ie, second user 106 is exiting the viewing environment of the media equipment device presenting the media asset, process 1204 proceeds to process 1206 . . At 1206, control circuitry 404 uses sensors to detect a second user exiting the viewing environment of the media equipment device presenting the media asset. For example, control circuitry 404 may use wireless user communication device 506 (eg, a camera) to track the movement of the second user to determine the viewing environment of the media equipment device in which the second user is presenting media assets. may detect when to exit from.

1204において、制御回路404が、「いいえ」、すなわち、ユーザがメディアアセットを提示しているメディア機器デバイスの視聴環境から退出しないことを決定する場合、プロセス1204は、プロセス1208に進む。1208では、制御回路404は、センサを使用して、第2のユーザがメディアアセットデバイスの視聴環境内に留まることを検出する。例えば、制御回路404は、無線ユーザ通信デバイス506(例えば、第2のユーザの携帯電話)を使用し、GPSを通して第2のユーザの移動を追跡し、第2のユーザがメディアアセットを提示しているメディア機器デバイスの視聴環境から退出していないことを検出してもよい。 At 1204 , if control circuitry 404 determines “no”, ie, the user will not exit the viewing environment of the media equipment device presenting the media asset, process 1204 proceeds to process 1208 . At 1208, control circuitry 404 detects, using a sensor, that the second user remains within the viewing environment of the media asset device. For example, control circuitry 404 may use wireless user communication device 506 (eg, the second user's mobile phone) to track the second user's movement through GPS, and the second user's presentation of media assets. may detect that the user has not left the viewing environment of the media equipment device that is present.

図13は、本開示のいくつかの実施形態による、ユーザのランクに基づいてメディアの再生を修正するためのプロセスの例証的フローチャートを描写する。プロセス1300は、制御回路404が、第1のユーザのランクおよび第2のユーザのランクを読み出す、1302から開始する。制御回路404は、記憶装置408内のユーザのためのプロファイルに対応するデータベーから、第1のユーザのランクおよび第2のユーザのランクを読み出す。いくつかの事例では、制御回路404は、通信ネットワーク514からランクを読み出す。例えば、制御回路404は、第1のユーザのランク(例えば、4の中から1のランク)および第2のユーザのランク(例えば、4の中から3のランク)を読み出してもよい。 FIG. 13 depicts an illustrative flowchart of a process for modifying media playback based on a user's rank, according to some embodiments of the present disclosure. Process 1300 begins at 1302 where control circuitry 404 reads the first user's rank and the second user's rank. Control circuitry 404 retrieves the first user's rank and the second user's rank from a database corresponding to profiles for users in storage device 408 . In some cases, control circuit 404 reads the rank from communication network 514 . For example, the control circuit 404 may read the rank of the first user (eg, rank 1 out of 4) and the rank of the second user (eg, rank 3 out of 4).

1304では、制御回路404は、第1のユーザ102のランクが第2のユーザ106のランクよりも高いかどうかを決定する。制御回路404は、処理回路406を使用し、第1のユーザのランクを第2のユーザのランクと比較する。1304において、制御回路404が、「はい」、すなわち、第1のユーザのランクが第2のユーザのランクよりも高いことを決定する場合には、プロセス1304は、プロセス1306に進む。1306では、制御回路404は、メディアアセットの再生を修正する。例えば、制御回路404は、ユーザテレビ機器502上のメディアアセットの再生を一時停止してもよい。別の実施例として、制御回路404は、スピーカ414を通したメディアアセットの再生の音声をミュートしてもよい。さらに別の実施例として、制御回路404は、メディアアセットの再生を表示していたディスプレイ412の電源を切ってもよい。 At 1304 , control circuitry 404 determines whether the rank of first user 102 is higher than the rank of second user 106 . Control circuitry 404, using processing circuitry 406, compares the rank of the first user to the rank of the second user. At 1304 , if control circuitry 404 determines “yes”, ie, the first user's rank is higher than the second user's rank, process 1304 proceeds to process 1306 . At 1306, control circuitry 404 modifies the playback of the media asset. For example, control circuitry 404 may pause playback of a media asset on user television equipment 502 . As another example, control circuitry 404 may mute the audio of media asset playback through speaker 414 . As yet another example, control circuitry 404 may turn off display 412 that was displaying the playing of the media asset.

1304において、制御回路404は、「いいえ」、すなわち、第1のユーザのランクが第2のユーザのランクよりも高くないことを決定する場合には、プロセス1304は、プロセス1308に進む。1308では、制御回路404は、メディアアセットを再生し続ける。 At 1304 , if control circuit 404 determines “no”, ie, the first user's rank is not higher than the second user's rank, process 1304 proceeds to process 1308 . At 1308, control circuitry 404 continues to play the media asset.

システムおよび方法がまた、ユーザが音声の目標を満たすアクションを実施する権限を与えられているかどうかを決定するために、本明細書で提供される。メディアガイドアプリケーションが、メディア機器デバイスの外部の第1のデバイスによって生成される音声を検出してもよい。メディアガイドアプリケーションは、ルックアップテーブルから、音声と関連付けられる既知の目標を読み出してもよい。メディアガイドアプリケーションは、視聴環境内のユーザを検出してもよい。メディアガイドアプリケーションは、ユーザの身元を決定してもよい。そして、メディアガイドアプリケーションは、再生を修正し、ユーザの身元に基づいて、ユーザが既知の目標を達成することを促す、または妨げてもよい。 Systems and methods are also provided herein for determining whether a user is authorized to perform an action that satisfies a speech goal. A media guidance application may detect audio produced by a first device external to the media equipment device. The media guidance application may retrieve known goals associated with the audio from a lookup table. The media guidance application may detect users within the viewing environment. The media guidance application may determine the user's identity. The media guidance application may then modify playback to encourage or discourage the user from achieving known goals based on the user's identity.

図14は、本開示のいくつかの実施形態による、ユーザが音声の目標を満たすアクションを実施する権限を与えられているかどうかを決定することの例証的実施形態を示す。図14は、任意のユーザ機器上でメディアガイドアプリケーションを実行する制御回路によって提示され得る、例証的表示100を描写する。ユーザ機器、制御回路、およびメディアガイドアプリケーションの機能性は、図2-5に関してさらに詳細に説明される。 FIG. 14 illustrates an illustrative embodiment of determining whether a user is authorized to perform an action that meets a speech goal, according to some embodiments of the present disclosure. FIG. 14 depicts an illustrative display 100 that may be presented by control circuitry running a media guidance application on any user equipment. The user equipment, control circuitry, and functionality of the media guidance application are described in further detail with respect to FIGS. 2-5.

メディアガイドアプリケーションは、アクション1404を検出するステップに応答して、第1のデバイス1402から音声1406を出力してもよい。例えば、メディアガイドアプリケーションは、アクション1404(例えば、ユーザがドアベルを押下すること、煙警報器が煙を検出すること、携帯電話が鳴ること)を検出するステップに応答して、第1のデバイス1402(例えば、ドアベル、煙警報器、携帯電話等)から音声1406(例えば、ドアベルが鳴ること、煙警報、着信音等)を出力してもよい。メディアガイドアプリケーションは、第1のユーザ1408および第2のユーザ1410が、再生オーディオ1414を含み得る、メディアアセット1412の再生を鑑賞していることを決定してもよい。メディアガイドアプリケーションは、第1のユーザ1408および第2のユーザ1410が第1の物理的環境1416内でメディアアセット1412を鑑賞していることを決定してもよい。メディアガイドアプリケーションは、音声1406が、第1の環境1416と別個の環境であり得る、第2の物理的環境1418内で生じることを検出してもよい。 The media guidance application may output audio 1406 from first device 1402 in response to detecting action 1404 . For example, the media guidance application, in response to detecting an action 1404 (e.g., a user pressing a doorbell, a smoke alarm detecting smoke, a mobile phone ringing), causes the first device 1402 to A sound 1406 (eg, ringing doorbell, smoke alarm, ringtone, etc.) may be output from (eg, doorbell, smoke alarm, mobile phone, etc.). The media guidance application may determine that first user 1408 and second user 1410 are watching playback of media asset 1412 , which may include playback audio 1414 . The media guidance application may determine that first user 1408 and second user 1410 are viewing media asset 1412 within first physical environment 1416 . The media guidance application may detect that audio 1406 occurs within second physical environment 1418 , which may be an environment separate from first environment 1416 .

いくつかの実施形態では、メディアガイドアプリケーションは、メディア機器デバイスの外部の第1のデバイスによって生成される音声を検出してもよい。例えば、メディアガイドアプリケーションは、センサを使用して、メディア機器デバイス(例えば、テレビ)の外部の第1のデバイス(例えば、ドアベル)によって生成される音声(例えば、ドアベルが鳴ること)を検出してもよい。メディアガイドアプリケーションは、上記に説明されるように、口頭入力を検出することと類似する方法を使用して、第1のデバイスによって生成される音声を検出してもよい。 In some embodiments, the media guidance application may detect audio generated by the first device external to the media equipment device. For example, the media guidance application uses sensors to detect sounds (e.g., doorbell ringing) generated by a first device (e.g., doorbell) external to the media equipment device (e.g., television). good too. The media guidance application may detect audio produced by the first device using methods similar to detecting verbal input, as described above.

例えば、メディアガイドアプリケーションは、知的パーソナルアシスタント(IPA)(例えば、Amazon Echo、Google Home、Siri等)を使用して、メディア機器デバイスの外部の第1のデバイスによって生成される音声を検出してもよく、IPAは、常に、第1の物理的環境1416および第2の物理的環境1418内のオーディオ入力を聴取する。 For example, the media guidance application uses an intelligent personal assistant (IPA) (e.g., Amazon Echo, Google Home, Siri, etc.) to detect audio generated by a first device external to the media equipment device. Well, IPA always listens for audio input in first physical environment 1416 and second physical environment 1418 .

いくつかの実施形態では、メディアガイドアプリケーションは、接続されたIPAのネットワークが存在し、各接続されたIPAは、その独自の環境内に存在し、無線ネットワークを経由して他のIPAと通信することを決定してもよい。例えば、メディアガイドアプリケーションは、接続されたIPAのネットワークが存在し(例えば、リビングルーム内のAmazon Echo、玄関ドアにおけるRingドアベルカメラ等)、無線ネットワークを経由して相互と通信することを決定してもよい。いくつかの事例では、ネットワークIPAは、スレーブ/マスタ設定で構成されてもよい。 In some embodiments, the media guidance application is configured such that there is a network of connected IPA's, each connected IPA's in its own environment and communicating with other IPAs via a wireless network. may decide that For example, the media guidance application has determined that there are networks of connected IPA's (e.g., Amazon Echo in the living room, Ring doorbell camera at the front door, etc.) to communicate with each other via the wireless network. good too. In some cases, network IPAs may be configured in a slave/master setting.

メディアガイドアプリケーションは、音声と関連付けられる目標(例えば、ドアベルが鳴ることに関して、関連付けられる目標は、ユーザがドアに応答することであり得る)および潜在的ユーザアクション(例えば、メディアアセット1412の再生を一時停止し、立ち上がってドアを開ける)を使用し、ユーザが音声の目標を満たすアクションを実施する権限を与えられているかどうかを決定することに役立ち得る。本明細書で参照されるように、「音声と関連付けられる目標」は、音声を通知されることの結果としてユーザによって講じられる好ましいアクションであるように定義される。例えば、メディアガイドアプリケーションは、ドアベルが鳴ることと関連付けられる目標が、ユーザがドアに応答することであり得ることを決定してもよい。別の実施例として、メディアガイドアプリケーションは、煙警報器のビープ音と関連付けられる目標が、ユーザが煙警報器を含有する家および/または環境から退出することであり得ることを決定してもよい。さらに別の実施例として、メディアガイドアプリケーションは、煙警報器のビープ音と関連付けられる別の目標が、ユーザが煙警報器内のバッテリを交換することであり得ることを決定してもよい。 The media guidance application can determine the goal associated with the sound (e.g., for the doorbell to ring, the associated goal may be for the user to answer the door) and potential user actions (e.g., playback of media asset 1412). stop, get up and open the door) to help determine if the user is authorized to perform an action that meets the audio goal. As referred to herein, a "goal associated with a sound" is defined to be a preferred action taken by a user as a result of being notified of a sound. For example, the media guidance application may determine that the goal associated with ringing the doorbell may be for the user to answer the door. As another example, the media guidance application may determine that the goal associated with the smoke alarm beeping sound may be for the user to exit the home and/or environment containing the smoke alarm. . As yet another example, the media guidance application may determine that another goal associated with a smoke alarm beep may be for the user to replace the battery in the smoke alarm.

メディアガイドアプリケーションは、複数の目標の中の目標を、複数のアクションの中のアクションのセットおよび複数の音声の中の音声と関連付ける、データベースを記憶してもよい。メディアガイドアプリケーションは、ユーザプロファイル内にデータベースを記憶してもよい。データベース内に記憶された値(例えば、目標、アクション、音声)は、エディタによって事前設定されてもよく、ユーザ入力によって編集されてもよい。 The media guidance application may store a database that associates goals in the plurality of goals with sets of actions in the plurality of actions and sounds in the plurality of sounds. The media guidance application may store the database within the user profile. Values (eg, goals, actions, sounds) stored in the database may be preset by an editor or edited by user input.

例えば、メディアガイドアプリケーションは、複数の目標(例えば、ドアに応答する、ドアに応答しない等)の中の目標(例えば、ドアに応答する)を、複数のアクション(例えば、メディアアセットの再生を一時停止してドアに応答する、メディアアセットの再生を鑑賞し続けてドアベルを無視する等)の中のアクションのセット(例えば、メディアアセットの再生を鑑賞し続けてドアベルを無視する)および複数の音声(例えば、ドアベルが鳴ること、電話が鳴ること、煙検出器のビープ音等)の中の音声(例えば、ドアベルが鳴ること)と関連付ける、データベースを記憶してもよい。 For example, a media guidance application may assign a goal (e.g., respond to door) within multiple goals (e.g., respond to door, not respond to door, etc.) to multiple actions (e.g., pause media asset playback). a set of actions (e.g., keep listening to a media asset playing and ignore the doorbell) and multiple sounds within A database may be stored that associates sounds (eg, doorbell ringing) within (eg, doorbell ringing, phone ringing, smoke detector beeping, etc.).

メディアガイドアプリケーションは、第1のデバイス1402によって生成される音声の属性をデータベースのエントリと比較し、音声と関連付けられる目標および目標と関連付けられる対応するアクションのセットを決定してもよい。例えば、メディアガイドアプリケーションは、第1のデバイス1402によって生成される音声1406(例えば、ドアベルが鳴ること)を、データベースのエントリと比較し、音声1406と関連付けられる目標(例えば、ドアに応答する)および目標と関連付けられる対応するアクションのセット(例えば、メディアアセットの再生を一時停止する、視聴環境1516から退出してドアに応答する等)を決定してもよい。 The media guidance application may compare the attributes of the audio produced by the first device 1402 to database entries to determine a goal associated with the audio and a corresponding set of actions associated with the goal. For example, the media guidance application compares the sound 1406 generated by the first device 1402 (e.g., ringing the doorbell) to entries in the database and determines the goals associated with the sound 1406 (e.g., answering the door) and A corresponding set of actions associated with the goal (eg, pausing playback of the media asset, exiting the viewing environment 1516 and answering the door, etc.) may be determined.

いくつかの実施形態では、第1のデバイス1402によって生成される音声1406をデータベースと比較し、音声と関連付けられる目標および目標と関連付けられる対応するアクションのセットを決定するとき、メディアガイドアプリケーションは、音声1406の特性に基づいて、音声1406とデータベース内のエントリとの間の合致を決定してもよい。例えば、メディアガイドアプリケーションは、音声1406の特性(例えば、口調、音量、周波数等)を使用し、音声をデータベース内のその対応するエントリと合致させてもよい。 In some embodiments, when comparing the audio 1406 generated by the first device 1402 to the database and determining a goal associated with the audio and a set of corresponding actions associated with the goal, the media guidance application may use the audio Based on the characteristics of 1406, a match between speech 1406 and entries in the database may be determined. For example, the media guidance application may use characteristics of audio 1406 (eg, tone, volume, frequency, etc.) to match the audio with its corresponding entry in the database.

例えば、メディアガイドアプリケーションは、上記により詳細に説明されるように、音声処理技法を使用して、音声1406の特性(例えば、属性)を決定してもよい。メディアガイドアプリケーションは、音声および複数のエントリの中のエントリが共通する特性の閾値量を有することを決定することによって、音声とエントリとの間に合致が存在するかどうかを決定してもよい。メディアガイドアプリケーションは、プロファイルから閾値量を読み出してもよく、閾値量は、ユーザ入力に基づいて更新され得る、エディタによって事前設定されてもよい。例えば、メディアガイドアプリケーションは、音声1406(例えば、ドアベルが鳴ること)が複数のエントリ(例えば、ドアベル音、火災警報器音、電話が鳴ること等)の中のエントリ(例えば、ドアベル音)と共通する特性の閾値量(例えば、3つ以上の特性であり得る)を有することを決定してもよい。 For example, the media guidance application may determine characteristics (eg, attributes) of audio 1406 using audio processing techniques, as described in more detail above. The media guidance application may determine whether a match exists between the audio and the entry by determining that the audio and the entry in the plurality of entries have a threshold amount of characteristics in common. The media guidance application may read the threshold amount from the profile, and the threshold amount may be preset by the editor, which may be updated based on user input. For example, the media guidance application may determine that a sound 1406 (eg, doorbell ringing) is common with an entry (eg, doorbell ringing) among multiple entries (eg, doorbell ringing, fire alarm ringing, phone ringing, etc.). It may be determined that it has a threshold amount of characteristics (eg, which may be three or more characteristics) that it has.

いくつかの実施形態では、第1のデバイスによって生成される音声を、データベースと比較し、音声1406と関連付けられる目標および目標と関連付けられる対応するアクションのセットを決定するとき、メディアガイドアプリケーションは、音声1406の指紋に基づいて、音声1406とデータベース内のエントリとの間の合致を決定してもよい。本明細書で使用されるように、音声の「指紋」は、オーディオサンプルを識別するために使用され得る、オーディオ信号から決定的に生成される凝縮デジタル要約である。メディアガイドアプリケーションは、音声の指紋を、データベース内の各エントリと関連付けられるオーディオの指紋と比較してもよい。メディアガイドアプリケーションは、指紋が許容差範囲内で同一であるときに、指紋の間の合致を決定してもよく、許容差範囲は、プロファイル内に記憶され、エディタによって事前設定される。 In some embodiments, when comparing the audio generated by the first device to the database and determining a goal associated with the audio 1406 and a set of corresponding actions associated with the goal, the media guidance application may use the audio A match between the speech 1406 and an entry in the database may be determined based on the fingerprint of 1406 . As used herein, an audio "fingerprint" is a condensed digital summary generated definitively from an audio signal that can be used to identify an audio sample. The media guidance application may compare the audio fingerprint to the audio fingerprint associated with each entry in the database. The media guidance application may determine a match between fingerprints when the fingerprints are identical within a tolerance range, which is stored in the profile and preset by the editor.

メディアガイドアプリケーションは、エントリから、音声と関連付けられる目標を読み出してもよい。例えば、メディアガイドアプリケーションは、エントリから、音声(例えば、ドアベルが鳴ること)と関連付けられる目標(例えば、ドアに応答する)を読み出してもよい。 The media guidance application may retrieve goals associated with the audio from the entry. For example, the media guidance application may read from the entry the goal (eg, answer the door) associated with the sound (eg, ringing the doorbell).

メディアガイドアプリケーションは、エントリから、目標と関連付けられる対応するアクションのセットを読み出してもよい。例えば、メディアガイドアプリケーションは、エントリから、目標(例えば、ドアに応答する)と関連付けられる対応するアクションのセット(例えば、メディアアセットの再生を鑑賞する、メディアアセットの再生の音量を上げる等)を読み出してもよい。 The media guidance application may retrieve from the entry a corresponding set of actions associated with the goal. For example, the media guidance application reads from the entry a corresponding set of actions (eg, watch the media asset play, increase the volume of the media asset playback, etc.) associated with the goal (eg, answer the door). may

メディアガイドアプリケーションは、メディア機器デバイスの視聴環境1416内のユーザを検出してもよい。例えば、メディアガイドアプリケーションは、センサ(例えば、カメラ)を使用し、メディア機器デバイス(例えば、テレビ)の第1の視聴環境1416内のユーザを検出してもよい。 The media guidance application may detect the user within the viewing environment 1416 of the media equipment device. For example, the media guidance application may use sensors (eg, cameras) to detect users within the first viewing environment 1416 of media equipment devices (eg, televisions).

いくつかの実施形態では、メディアデバイスの第1の視聴環境1416内のユーザを検出するとき、メディアガイドアプリケーションは、センサを使用して、第1の視聴環境1416内の第1のユーザ1408の存在を検出してもよい。例えば、メディアガイドアプリケーションは、赤外線センサを使用し、第1の視聴環境1416の熱マップを決定し、熱マップ内のユーザの熱シグネチャを検出することに基づいて、第1のユーザ1408がメディア機器デバイス(例えば、テレビ)の第1の視聴環境1416内にいることを検出してもよい。 In some embodiments, when detecting a user within the first viewing environment 1416 of the media device, the media guidance application uses sensors to detect the presence of the first user 1408 within the first viewing environment 1416 . may be detected. For example, the media guidance application uses an infrared sensor to determine a heat map of the first viewing environment 1416, and based on detecting the user's heat signature in the heat map, the first user 1408 uses the media device. A device (eg, a television) may detect being within a first viewing environment 1416 .

いくつかの実施形態では、メディアデバイスの第1の視聴環境1416内の第1のユーザ1408を検出するとき、メディアガイドアプリケーションは、カメラを使用して、視聴環境内のユーザの存在を検出してもよい。例えば、メディアガイドアプリケーションは、カメラを使用し、メディア機器デバイス(例えば、テレビ)の視聴環境内のユーザを検出してもよい。メディア機器デバイスの視聴環境内のユーザを検出するためのシステムおよび方法は、2016年7月1日に出願された、Panchaksharaiah et al.の米国出願第15/200,194号、2016年7月1日に出願された、Panchaksharaiah et al.の米国出願第15/200,216号、および2016年7月1日に出願された、Blake et al.の米国出願第15/200,638号(それらの全体として参照することによって本明細書に組み込まれる)で、より詳細に説明されている。 In some embodiments, when detecting the first user 1408 within the first viewing environment 1416 of the media device, the media guidance application uses a camera to detect the presence of the user within the viewing environment. good too. For example, a media guidance application may use a camera to detect a user within the viewing environment of a media equipment device (eg, television). A system and method for detecting a user within a viewing environment of a media equipment device is disclosed in Panchaksharaiah et al. No. 15/200,194, filed July 1, 2016, Panchaksharaiah et al. and US Application No. 15/200,216, filed July 1, 2016, Blake et al. No. 15/200,638, which is incorporated herein by reference in its entirety.

いくつかの実施形態では、メディアデバイスの第1の視聴環境1416内の第1のユーザ1408を検出するとき、メディアガイドアプリケーションは、全地球測位システム(GPS)を使用して、第1の視聴環境1416内の第1のユーザ1408の存在を検出してもよい。例えば、メディアガイドアプリケーションは、ユーザと関連付けられるユーザデバイス(例えば、ユーザの携帯電話、ウェアラブル技術(例えば、Apple Watch)等)と関連付けられるGPSを介して、ユーザの場所を検出してもよい。メディアガイドアプリケーションは、ユーザの場所(例えば、GPS座標)から、視聴環境の既知の場所に基づいて、ユーザがメディアデバイスの視聴環境内にいるかどうかを決定してもよい。 In some embodiments, upon detecting the first user 1408 in the media device's first viewing environment 1416, the media guidance application uses the global positioning system (GPS) to locate the first viewing environment. The presence of first user 1408 in 1416 may be detected. For example, the media guidance application may detect the user's location via GPS associated with a user device associated with the user (eg, the user's mobile phone, wearable technology (eg, Apple Watch), etc.). From the user's location (eg, GPS coordinates), the media guidance application may determine whether the user is within the viewing environment of the media device based on the known location of the viewing environment.

メディアガイドアプリケーションは、第1のユーザ1408のユーザプロファイルから、ユーザが目標と関連付けられる決定されたアクションのセットの中のアクションを実施する権限を与えられているかどうかを決定してもよい。例えば、メディアガイドアプリケーションは、ユーザのプロファイル内の承認データベースから、ユーザが目標(例えば、ドアに応答する)と関連付けられるアクションを実施する(例えば、視聴環境から退出する)権限を与えられているかどうかを読み出してもよい。メディアガイドアプリケーションは、ユーザプロファイル内の承認データベース内にユーザの承認ステータス(例えば、ユーザがアクションを実施する権限を与えられているか、またはいないかのいずれか)を記憶してもよく、承認ステータスは、下記に説明される方法を使用して決定される。 The media guidance application may determine from the user profile of the first user 1408 whether the user is authorized to perform actions in the determined set of actions associated with the goal. For example, the media guidance application determines from an authorization database in the user's profile whether the user is authorized to perform an action (e.g., exit the viewing environment) associated with the goal (e.g., answer the door). may be read. The media guidance application may store the user's authorization status (e.g., whether the user is authorized to perform the action or not) in an authorization database within the user profile, where the authorization status is , is determined using the methods described below.

いくつかの実施形態では、ユーザのユーザプロファイルから、ユーザが目標と関連付けられる決定されたアクションのセットの中のアクションを実施する権限を与えられているかどうかを決定するとき、メディアガイドアプリケーションは、ユーザプロファイルから、ユーザのためのランクを読み出してもよい。例えば、メディアガイドアプリケーションは、ユーザのためのランク(例えば、10の中から8)を読み出してもよい。 In some embodiments, when determining from the user's user profile whether the user is authorized to perform an action in the determined set of actions associated with the goal, the media guidance application prompts the user The rank for the user may be retrieved from the profile. For example, the media guidance application may retrieve the rank (eg, 8 out of 10) for the user.

いくつかの実施形態では、メディアガイドアプリケーションは、そのユーザのランクが動的であり、ユーザプロファイル内で頻繁に更新され得ることを決定してもよい。メディアガイドアプリケーションは、ユーザのランクが、視聴環境/家庭内の他のユーザの存在、ユーザの年齢等を含む、複数の要因に基づいて決定されることを決定してもよい。メディアガイドアプリケーションは、値が各要因に動的に割り当てられることを決定してもよい(例えば、値は、要因を値のルックアップテーブルと比較することによって割り当てられてもよく、ルックアップテーブル値は、エディタによって決定され、ユーザ入力に基づいて更新されてもよい)。例えば、メディアガイドアプリケーションは、より多くのユーザが視聴環境内に存在するとき、かつユーザの年齢が増加するにつれて、ユーザのランクがより高いことを決定してもよい。 In some embodiments, the media guidance application may determine that the user's rank is dynamic and may be updated frequently within the user profile. The media guidance application may determine that a user's rank is determined based on a number of factors, including the viewing environment/presence of other users in the home, the user's age, and the like. The media guidance application may determine that a value is dynamically assigned to each factor (e.g., the value may be assigned by comparing the factor to a lookup table of values, and the lookup table value may be determined by the editor and updated based on user input). For example, the media guidance application may determine that a user ranks higher when more users are present in the viewing environment and as the user's age increases.

メディアガイドアプリケーションは、各要因に割り当てられた加重(例えば、0%~100%)を読み出すことによって、複数の要因からユーザのランクを計算してもよい。メディアガイドアプリケーションは、各要因に割り当てられた加重が事前決定され、エディタによって割り当てられ、それがユーザ入力に基づいて更新され得ることを決定してもよい。メディアガイドアプリケーションは、次いで、要因毎の加重および要因毎の値を使用して(例えば、いくつかの要因に関して、要因毎に加重および値の積を合計することによって)、ユーザのためのランク(例えば、0~100)を計算してもよい。例えば、メディアガイドアプリケーションは、各要因の加重(例えば、ユーザの年齢加重=50%、視聴環境内の他のユーザの存在加重=50%)および要因毎の値(例えば、ユーザの年齢値=15、視聴環境内の他のユーザの存在=50)を使用して、ユーザのためのランク(例えば、100の中から0.515+0.550=32.5)を計算してもよい。 The media guidance application may calculate a user's rank from multiple factors by reading the weight assigned to each factor (eg, 0%-100%). The media guidance application may determine that the weight assigned to each factor is pre-determined and assigned by an editor, which can be updated based on user input. The media guidance application then uses the weights for each factor and the values for each factor (e.g., by summing the products of the weights and values for each factor for several factors) to determine the rank ( For example, 0 to 100) may be calculated. For example, the media guidance application may provide a weight for each factor (e.g., user age weight = 50%, presence weight of other users in viewing environment = 50%) and a value for each factor (e.g., user age value = 15). , the presence of other users in the viewing environment=50) may be used to calculate a rank for the user (e.g., 0.5 * 15+0.5 * 50=32.5 out of 100) .

メディアガイドアプリケーションは、データベースから、アクションのためのランクを読み出してもよい。メディアガイドアプリケーションは、アクションのためのランクがエディタによって事前決定され、ユーザ入力から更新され得ることを決定してもよい。例えば、メディアガイドアプリケーションは、データベースから、アクション(例えば、視聴環境から退出する)のためのランク(例えば、100の中から50)を読み出してもよい。 The media guidance application may retrieve ranks for actions from a database. The media guidance application may determine that the ranks for actions are pre-determined by the editor and can be updated from user input. For example, the media guidance application may retrieve a rank (eg, 50 out of 100) for an action (eg, exit the viewing environment) from a database.

いくつかの実施形態では、メディアガイドアプリケーションは、アクションのランクを動的に決定してもよい。メディアガイドアプリケーションは、視聴環境/家庭内に存在するユーザ、ユーザの年齢、危険性等の要因を使用し、ランクを決定してもよい。例えば、メディアガイドアプリケーションは、センサを使用し、音声を検出した後に、任意の他のユーザが視聴環境または家庭内に存在するかどうかを決定してもよい。他のユーザが存在しないことを決定するステップに応答して、メディアガイドアプリケーションは、ユーザがアクションを完了するべきではない状況(例えば、ユーザが独りで家にいる子供であり、したがって、見知らぬ人に対してドアに応答するべきではない)を示し得るため、アクションをより高くランク付けしてもよい。メディアガイドアプリケーションは、上記に説明されるように、要因に基づいてユーザのランクを決定するときと類似する方法を使用して、要因に基づいてアクションのランクを決定してもよい。 In some embodiments, the media guidance application may dynamically determine the rank of actions. The media guidance application may use factors such as the users present in the viewing environment/home, the user's age, risk, etc. to determine the rank. For example, the media guidance application may use sensors to determine if any other users are present in the viewing environment or home after detecting audio. In response to determining that there are no other users, the media guidance application may indicate situations in which the user should not complete the action (e.g., the user is a child at home alone and therefore is should not respond to the door), so the action may be ranked higher. The media guidance application may rank actions based on factors using methods similar to those used to rank users based on factors, as described above.

別の実施例として、メディアガイドアプリケーションは、アクションが提示する危険性に従ってアクションをランク付けしてもよい。メディアガイドアプリケーションは、アクションの散在的結果を分析することによって、危険性を決定してもよい。例えば、メディアガイドアプリケーションは、カメラを使用して、ユーザデバイス(例えば、ドアベル)を使用して音声を生成する個人の身元を決定してもよい。メディアガイドアプリケーションが、(例えば、カメラによって生成される画像を使用して、個人の顔をユーザプロファイルからの既知のユーザと関連付けられる顔と比較し、個人の顔と既知のユーザの顔との間に合致がないことを決定することによって)個人が見知らぬ人であることを決定する場合、メディアガイドアプリケーションは、より高い危険性を有するため、アクションを高くランク付けしてもよい。メディアガイドアプリケーションが、(例えば、カメラを使用し、ユーザを、ユーザプロファイルを有する複数のユーザと比較することに基づいて、ユーザを識別することによって)個人が見知らぬ人ではないことを決定する場合、メディアガイドアプリケーションは、より低い危険性を有するため、アクションをより低くランク付けしてもよい。 As another example, the media guidance application may rank actions according to the dangers they present. The media guidance application may determine risk by analyzing the disseminated results of actions. For example, a media guidance application may use a camera to determine the identity of an individual who uses a user device (eg, doorbell) to generate audio. A media guidance application (e.g., using images generated by a camera) compares the individual's face to faces associated with known users from the user profile, and determines the difference between the individual's face and the known user's face. If the media guidance application determines that the individual is a stranger (by determining that there is no match in the ), the media guidance application may rank the action higher because it carries a higher risk. If the media guidance application determines that the individual is not a stranger (e.g., by identifying the user based on using a camera and comparing the user to multiple users with user profiles), A media guidance application may rank the action lower because it has a lower risk.

メディアガイドアプリケーションは、ユーザのためのランクがアクションのためのランクを超えるかどうかを決定してもよい。例えば、メディアガイドアプリケーションは、ユーザのためのランク(例えば、10の中から8)がアクションのためのランク(例えば、10の中から5)を超えることを決定してもよい。 The media guidance application may determine whether the rank for the user exceeds the rank for the action. For example, the media guidance application may determine that the rank for the user (eg, 8 out of 10) exceeds the rank for the action (eg, 5 out of 10).

ユーザのためのランクがアクションのためのランクを超えることを決定するステップに応答して、メディアガイドアプリケーションは、ユーザがアクションを実施する権限を与えられていることを決定してもよい。例えば、メディアガイドアプリケーションは、ユーザがアクションを実施する(例えば、視聴環境から退出する)権限を与えられていることを決定してもよい。 In response to determining that the rank for the user exceeds the rank for the action, the media guidance application may determine that the user is authorized to perform the action. For example, the media guidance application may determine that the user is authorized to perform an action (eg, exit the viewing environment).

ユーザがアクションを実施する権限を与えられていることを決定するステップに応答して、メディアガイドアプリケーションは、検出された音声を示すユーザのための通知を生成してもよい。例えば、メディアガイドアプリケーションは、ユーザのための音声通知(例えば、ドアベル音)を生成して、メディアアセットの再生に勝るように再生し、検出された音声を示してもよい。メディアガイドアプリケーションは、検出された音声(例えば、ドアベルが鳴ること、火災警報、電話の呼び出し)のクリップである音声通知を再生に勝るように再生し、検出された音源をユーザに可聴的に警告してもよい。 In response to determining that the user is authorized to perform the action, the media guidance application may generate a notification for the user indicating the detected sound. For example, the media guidance application may generate an audio notification (eg, a doorbell sound) for the user and play it over the playback of the media asset to indicate the detected audio. The media guidance application plays an audio notification that is a clip of the detected sound (e.g. doorbell ringing, fire alarm, phone ringing) over playback to audibly alert the user to the detected sound source. You may

いくつかの実施形態では、メディアガイドアプリケーションは、エディタによって決定されるような、またはユーザによって入力される、事前設定された時間量に対応する、設定された時間量(例えば、5秒)にわたって、音声通知を再生してもよい。例えば、メディアガイドアプリケーションは、エディタによって決定されるような事前設定された時間量(例えば、3秒)にわたって、メディアアセットの再生に勝るようにドアベルが鳴る音を再生してもよい。 In some embodiments, the media guidance application displays the media guidance application for a set amount of time (eg, 5 seconds) corresponding to a preset amount of time as determined by the editor or entered by the user. An audio notification may be played. For example, the media guidance application may play a doorbell ringing over playing the media asset for a preset amount of time (eg, 3 seconds) as determined by the editor.

いくつかの実施形態では、メディアガイドアプリケーションは、メディアガイドアプリケーションがユーザからのアクションを検出する(例えば、ユーザが再生を一時停止する、ユーザが視聴環境から退出する等)まで、メディアアセットの再生に勝るように音声通知を再生してもよい。例えば、メディアガイドアプリケーションは、メディアガイドアプリケーションがユーザからのアクションを検出する(例えば、メディアガイドアプリケーションが、カメラを介して、視聴環境から退出してドアに応答するユーザを検出する)まで、メディアアセットの再生に勝るように音声通知(例えば、ドアベルが鳴ること)を再生してもよい。 In some embodiments, the media guidance application stops playing the media asset until the media guidance application detects an action from the user (e.g., the user pauses playback, the user exits the viewing environment, etc.). An audio notification may be played to win. For example, the media guidance application may keep the media assets open until the media guidance application detects an action from the user (e.g., the media guidance application detects the user, via a camera, leaving the viewing environment and answering the door). An audio notification (eg, the doorbell ringing) may be played over the playback of the

いくつかの実施形態では、検出された音声を示すユーザのための通知を生成するとき、メディアガイドアプリケーションは、メディア機器デバイス上に表示されるべきオーバーレイを生成してもよく、オーバーレイは、音声についてのユーザのための通知を含有する。例えば、メディアガイドアプリケーションは、メディア機器デバイス上に表示されるべきオーバーレイ(例えば、「ドアベルが鳴っています!」と発するオーバーレイ)を表示するために生成してもよい。 In some embodiments, when generating a notification for a user indicating detected audio, the media guidance application may generate an overlay to be displayed on the media equipment device, the overlay indicating the audio. contains notifications for users of For example, the media guidance application may generate overlays to be displayed on the media equipment device (eg, an overlay stating "The doorbell is ringing!").

メディアガイドアプリケーションは、メディアアセットの再生を修正し、ユーザが目標と関連付けられるアクションを実施することを可能にしてもよい。例えば、メディアガイドアプリケーションは、メディアアセットの再生を修正し(例えば、ユーザが鑑賞している映画を一時停止する)、ユーザが目標(例えば、ドアに応答する)と関連付けられるアクションを実施する(例えば、視聴環境から退出する)ことを可能にしてもよい。 The media guidance application may modify the playback of the media asset and allow the user to perform actions associated with the goal. For example, the media guidance application modifies the playback of media assets (e.g., pauses a movie that the user is watching) and performs actions associated with the user's goals (e.g., respond to doors) (e.g., , exit the viewing environment).

いくつかの実施形態では、メディアガイドアプリケーションは、ユーザが閾値時間量後に目標と関連付けられるアクションを実施していないことを決定した後に、メディアアセットの再生を修正することを決定してもよい。メディアガイドアプリケーションは、プロファイル内のデータベースから閾値時間量を読み出してもよく、閾値時間量は、具体的目標毎にエディタによって事前設定される。メディアガイドアプリケーションは、ユーザ入力に基づいて、具体的目標毎に閾値時間量を編集してもよい。例えば、メディアガイドアプリケーションは、ユーザが、プロファイル内のデータベースから読み出される閾値時間量(例えば、30秒)後に、目標と関連付けられるアクション(例えば、視聴環境から退出してドアに応答する)を実施していないことを決定した後に、メディアアセットの再生を修正することを決定してもよい。 In some embodiments, the media guidance application may decide to modify the playback of the media asset after determining that the user has not performed an action associated with the goal after a threshold amount of time. The media guidance application may retrieve the threshold amount of time from a database in the profile, which is preset by the editor for each specific goal. The media guidance application may compile the threshold amount of time for each specific goal based on user input. For example, the media guidance application performs the action associated with the goal (e.g., exit the viewing environment and answer the door) after the user has a threshold amount of time (e.g., 30 seconds) retrieved from the database in the profile. After determining that it is not, it may decide to modify the playback of the media asset.

いくつかの実施形態では、メディアアセットの再生を修正し、ユーザが目標と関連付けられるアクションを実施することを可能にするとき、メディアガイドアプリケーションは、データベースから、目標と関連付けられる再生修正のセットを読み出してもよい。例えば、メディアガイドアプリケーションは、データベースから、目標と関連付けられる再生修正のセット(例えば、一時停止、再生、早送り、巻き戻し、ミュート、オン/オフにする等)を読み出してもよい。 In some embodiments, when modifying the playback of a media asset and allowing the user to perform an action associated with the goal, the media guidance application retrieves from the database the set of playback modifications associated with the goal. may For example, the media guidance application may retrieve from a database a set of playback modifications (eg, pause, play, fast forward, rewind, mute, turn on/off, etc.) associated with the goal.

メディアガイドアプリケーションは、ユーザのための選好に基づいて、再生修正のセットから再生修正を選択してもよい。メディアガイドアプリケーションは、ユーザプロファイルからユーザのための選好を読み出してもよい。ユーザのための選好は、ユーザ入力に基づいて事前設定されてもよい、またはユーザ挙動に基づいて決定されてもよい、または両方の組み合わせである。例えば、メディアガイドアプリケーションは、ユーザが音声(例えば、ドアベルが鳴ること)を聞くことに応答して、ユーザのコマンド履歴を追跡し、ユーザのお気に入りの再生コマンドを決定してもよい。メディアガイドアプリケーションは、コマンドのタイムスタンプを検出された音声のタイムスタンプと比較することに基づいて、ユーザが音声を聞いた後に実施されるコマンドを決定してもよい。例えば、メディアガイドアプリケーションは、ユーザのための選好(例えば、ユーザは、常に、立ち上がってドアに応答する前にコンテンツを一時停止する)に基づいて、再生修正のセットから再生修正(例えば、一時停止)を選択してもよい。 The media guidance application may select playback modifications from the set of playback modifications based on preferences for the user. The media guidance application may read preferences for the user from the user profile. Preferences for a user may be preset based on user input, determined based on user behavior, or a combination of both. For example, the media guidance application may track the user's command history and determine the user's favorite playback commands in response to the user hearing a sound (eg, a doorbell ringing). The media guidance application may determine the command to be performed after the user hears the audio based on comparing the timestamp of the command to the timestamp of the detected audio. For example, the media guidance application selects a playback modification (e.g., pause) from a set of playback modifications based on preferences for the user (e.g., the user always stands up and pauses content before answering the door). ) may be selected.

メディアガイドアプリケーションは、選択された再生修正に基づいて、メディアアセットの再生を修正してもよい。例えば、メディアガイドアプリケーションは、選択された再生修正(例えば、メディアアセットの再生を一時停止する)に基づいて、メディアアセットの再生を修正してもよい。別の実施例として、メディアガイドアプリケーションは、メディアアセットの再生をミュートすること、メディアアセットの再生を停止すること、メディアアセットの再生をオフにすること、または任意の他の類似再生修正によって、選択された再生修正に基づいてメディアアセットの再生を修正してもよい。 The media guidance application may modify the playback of the media asset based on the selected playback modifications. For example, the media guidance application may modify the playback of the media asset based on selected playback modifications (eg, pause playback of the media asset). As another example, the media guidance application may mute playback of the media asset, stop playback of the media asset, turn off playback of the media asset, or any other similar playback modification. Playback of the media asset may be modified based on the playback modification made.

ユーザがアクションを実施する権限を与えられていないことを決定するステップに応答して、メディアガイドアプリケーションは、第2のユーザがアクションを実施するための通知を生成してもよい。例えば、メディアガイドアプリケーションは、アクション(例えば、ドアに応答する)を実施するための通知を生成してもよい(例えば、SMSメッセージを第2のユーザ1410に送信する、オーディオアラートを第2のユーザ1410の個人用デバイスに送信する、またはメディアアセットの上に表示されるべき第2のユーザ1410のための命令を伴うオーバーレイを生成する)。 In response to determining that the user is not authorized to perform the action, the media guidance application may generate a notification for the second user to perform the action. For example, the media guidance application may generate a notification to perform an action (eg, answer the door) (eg, send an SMS message to the second user 1410, send an audio alert to the second user 1410). 1410 personal device or generate an overlay with instructions for the second user 1410 to be displayed on top of the media asset).

いくつかの実施形態では、メディアガイドアプリケーションは、ユーザが音声を聞き、したがって、音声に応答してアクションを実施する気にさせられ得るかどうかを決定してもよい。 In some embodiments, the media guidance application may determine whether the user is listening to audio and thus may be motivated to perform an action in response to the audio.

いくつかの実施形態では、メディアガイドアプリケーションは、音声が視聴環境の可聴範囲内であることを決定してもよい。例えば、メディアガイドアプリケーションは、視聴環境内に含有されるセンサ(例えば、マイクロホン)を使用して、音声を検出してもよい。メディアガイドアプリケーションは、検出された音声の音量を、音声が有し、依然として可聴範囲内であり得る最小音量値(プロファイルから読み出される)と比較してもよい。 In some embodiments, the media guidance application may determine that the audio is within audible range of the viewing environment. For example, the media guidance application may use sensors (eg, microphones) contained within the viewing environment to detect audio. The media guidance application may compare the volume of the detected audio to the minimum volume value (read from the profile) that the audio may have and still be within the audible range.

ユーザがアクションを実施する権限を与えられていないことを決定するステップに応答して、メディアガイドアプリケーションは、ユーザがメディアアセットの再生を修正することを防止してもよい。例えば、メディアガイドアプリケーションは、ユーザがメディアガイドアプリケーションの再生を修正することを防止してもよい(例えば、ユーザがメディアアセットの再生を一時停止することを可能にしない)。 In response to determining that the user is not authorized to perform the action, the media guidance application may prevent the user from modifying playback of the media asset. For example, the media guidance application may prevent the user from modifying the playback of the media guidance application (eg, do not allow the user to pause playback of the media asset).

メディアガイドアプリケーションは、メディアアセットの再生を修正し、ユーザが目標と関連付けられるアクションを実施することを防止してもよい。例えば、メディアガイドアプリケーションは、メディアアセットの再生の音量を増加させ、ユーザの可聴範囲内の音声をかき消してもよい。 The media guidance application may modify the playback of the media asset and prevent the user from performing actions associated with the goal. For example, the media guidance application may increase the volume of the playback of the media asset, drowning out sounds within the user's audible range.

いくつかの実施形態では、メディアアセットの再生を修正するとき、メディアガイドアプリケーションは、可聴範囲内である音声を減衰させる音量を決定してもよい。例えば、メディアガイドアプリケーションは、可聴範囲内の音声の決定された音量と同等である、またはそれよりも高い音量を決定してもよい。 In some embodiments, when modifying the playback of a media asset, the media guidance application may determine the volume at which to attenuate sounds that are within the audible range. For example, the media guidance application may determine a volume that is equal to or higher than the determined volume of speech within the audible range.

メディアガイドアプリケーションは、音声を減衰させる音量であるように、メディアアセットの再生に対応する音量を調節してもよい。例えば、メディアガイドアプリケーションは、可聴範囲内の音声の検出された音量よりも高い音量であるように、メディアアセットの再生音量を調節してもよい。 The media guidance application may adjust the volume corresponding to the playback of the media asset such that the volume attenuates the sound. For example, the media guidance application may adjust the playback volume of the media asset so that it is louder than the detected volume of sounds in the audible range.

図15は、本開示のいくつかの実施形態による、ユーザが音声の目標を満たすアクションを実施する権限を与えられているかどうかを決定するためのプロセスの例証的フローチャートを描写する。プロセス1500は、制御回路404が、メディア機器デバイスの外部の第1のデバイス102によって生成される音声106を検出する、1502から開始する。例えば、制御回路404は、メディア機器デバイス(例えば、テレビ)の外部の第1のデバイス102(例えば、ドアベル)またはスピーカ414によって生成される音声106(例えば、ドアベルが鳴ること)を検出してもよい。 FIG. 15 depicts an illustrative flowchart of a process for determining whether a user is authorized to perform an action that satisfies a speech goal, according to some embodiments of the present disclosure. Process 1500 begins at 1502 where control circuitry 404 detects audio 106 produced by first device 102 external to the media equipment device. For example, control circuitry 404 may detect sound 106 (e.g., doorbell ringing) generated by first device 102 (e.g., doorbell) or speaker 414 external to a media equipment device (e.g., television). good.

1504では、制御回路404は、ルックアップテーブルから、音声と関連付けられる既知の目標を読み出す。制御回路404は、記憶装置408またはメディアガイドデータソース518内に記憶されたルックアップテーブルから既知の目標を読み出してもよい。制御回路404はまた、通信ネットワーク514から、ルックアップテーブルから既知の目標を読み出してもよい。例えば、制御回路404は、音声1406(例えば、ドアベルが鳴ること)と関連付けられる既知の目標(例えば、ドアに応答する)を読み出してもよい。1506では、制御回路404は、視聴環境内のユーザを検出する。例えば,制御回路404は、センサを使用して、視聴環境内のユーザを検出してもよい。1508では、制御回路404は、第1のユーザ1408の身元を決定する。制御回路404は、上記に説明される方法を使用して、ユーザの身元を決定してもよい。1510では、制御回路404は、再生を修正し、第1のユーザ1408の身元に基づいて、第1のユーザ1408が既知の目標を達成することを促す、または妨げる。例えば、制御回路404は、再生を修正し(例えば、再生を一時停止する)、第1のユーザ1408の身元(例えば、住宅所有者)に基づいて、既知の目標(例えば、ドアに応答する)を達成するように第1のユーザ1408を促してもよい。 At 1504, control circuit 404 retrieves a known target associated with the speech from a lookup table. Control circuitry 404 may retrieve the known target from a lookup table stored within storage device 408 or media guidance data source 518 . Control circuitry 404 may also retrieve known targets from lookup tables from communications network 514 . For example, control circuitry 404 may retrieve a known goal (eg, answer door) associated with sound 1406 (eg, doorbell ringing). At 1506, control circuitry 404 detects the user within the viewing environment. For example, control circuitry 404 may use sensors to detect users within the viewing environment. At 1508 , control circuitry 404 determines the identity of first user 1408 . Control circuitry 404 may determine the user's identity using the methods described above. At 1510, control circuitry 404 modifies playback to encourage or prevent first user 1408 from achieving a known goal based on first user's 1408 identity. For example, the control circuit 404 may modify playback (eg, pause playback) and based on the identity of the first user 1408 (eg, homeowner), a known goal (eg, respond to the door). may prompt the first user 1408 to achieve

図16は、本開示のいくつかの実施形態による、ユーザが音声1406の目標を満たすアクションを実施する権限を与えられているかどうかを決定するためのプロセスの例証的フローチャートを描写する。1602では、制御回路404は、メディア機器デバイスの外部の第1のデバイスによって生成される音声1406を検出する。例えば、制御回路404は、メディア機器デバイスの外部の第1のデバイス1402(例えば、ドアベル)によって生成される音声1406(例えば、ドアベルが鳴ること)を検出してもよい。1604では、制御回路404は、複数の目標の中の各目標を、複数のアクションの中のアクションのセットおよび複数の音声の中の音声と関連付ける、データベースを記憶する。制御回路404は、記憶装置408またはメディアガイドデータソース518内にデータベースを記憶する、または通信ネットワーク514を介してデータベースを読み出す。 FIG. 16 depicts an illustrative flowchart of a process for determining whether a user is authorized to perform an action that meets the goal of speech 1406, according to some embodiments of the present disclosure. At 1602, control circuitry 404 detects audio 1406 produced by a first device external to the media equipment device. For example, control circuitry 404 may detect sound 1406 (eg, doorbell ringing) generated by first device 1402 (eg, doorbell) external to the media equipment device. At 1604, control circuitry 404 stores a database that associates each goal in the plurality of goals with a set of actions in the plurality of actions and a voice in the plurality of voices. Control circuitry 404 stores the database in storage device 408 or media guidance data source 518 or retrieves the database via communications network 514 .

1606では、制御回路404は、第1のデバイスによって生成される音声1406を、データベースと比較し、音声1406と関連付けられる目標および目標と関連付けられる対応するアクションのセットを決定する。1608では、制御回路は、メディア機器デバイスの視聴環境内のユーザを検出する。例えば、制御回路404は、赤外線センサを使用し、メディア機器デバイスの視聴環境内のユーザを検出してもよい。1610では、制御回路404は、ユーザ1408のユーザプロファイルから、ユーザ1408が目標と関連付けられる決定されたアクションのセットの中のアクションを実施する権限を与えられているかどうかを決定する。制御回路404は、上記に説明されるような類似方法を使用して、ユーザがアクションを実施する権限を与えられているかどうかを決定する。 At 1606, control circuitry 404 compares the sound 1406 produced by the first device to a database to determine a goal associated with the sound 1406 and a corresponding set of actions associated with the goal. At 1608, the control circuitry detects the user within the viewing environment of the media equipment device. For example, control circuitry 404 may use an infrared sensor to detect a user within the viewing environment of the media equipment device. At 1610, control circuitry 404 determines from the user profile of user 1408 whether user 1408 is authorized to perform an action in the determined set of actions associated with the goal. Control circuitry 404 determines whether the user is authorized to perform the action using similar methods as described above.

1612では、制御回路404は、ユーザ1408が目標と関連付けられる決定されたアクションのセットの中のアクションを実施する権限を与えられているかどうかを決定する。1612において、制御回路404が、「はい」、すなわち、ユーザ1408が目標と関連付けられる決定されたアクションのセットの中のアクションを実施する権限を与えられていることを決定する場合には、プロセス1612は、プロセス1614に進む。1614では、制御回路404は、検出された音声1406を示すユーザのための通知を生成する。例えば、制御回路は、検出された音声を示すユーザのためのオーバーレイをディスプレイ412上に生成してもよい。1616では、制御回路404は、メディアアセットの再生を修正し、ユーザ1408が目標と関連付けられるアクションを実施することを可能にする。例えば、制御回路404は、メディアアセット1412の再生をミュートし、ユーザが目標(例えば、ドアに応答する)と関連付けられるアクション(例えば、視聴環境から退出する)を実施することを可能にしてもよい。 At 1612, control circuitry 404 determines whether user 1408 is authorized to perform an action in the determined set of actions associated with the goal. At 1612, if control circuitry 404 determines yes, ie, user 1408 is authorized to perform an action in the determined set of actions associated with the goal, then process 1612 goes to process 1614 . At 1614 , control circuitry 404 generates a notification for the user indicating detected sound 1406 . For example, the control circuitry may generate an overlay for the user on display 412 showing the detected sound. At 1616, control circuitry 404 modifies the playback of the media asset and allows user 1408 to perform actions associated with the goal. For example, control circuitry 404 may mute playback of media asset 1412 and allow the user to perform an action (eg, exit the viewing environment) associated with the goal (eg, respond to a door). .

1612において、制御回路404が、「いいえ」、すなわち、ユーザ1408が目標と関連付けられる決定されたアクションのセットの中のアクションを実施する権限を与えられていないことを決定する場合には、プロセス1612は、プロセス1618に進む。1618では、制御回路404は、第2のユーザ1410がアクションを実施するための通知を生成する。例えば、制御回路404は、第2のユーザ(例えば、家庭内の成人)がアクション(例えば、ドアに応答する)を実施するために、無線通信デバイス506へのSMSメッセージを生成してもよい。1620では、制御回路404は、音声が視聴環境の可聴範囲内であることを決定する。例えば、制御回路404は、上記に説明されるように、マイクロホンを使用し、音声が視聴環境の可聴範囲内であるかどうかを検出してもよい。1622では、制御回路404は、ユーザ1408がメディアアセットの再生を修正することを防止してもよい。例えば、制御回路404は、ユーザ入力インターフェース410を介してユーザによって入力されるユーザ1408コマンドに応答しない場合がある。 At 1612, if control circuitry 404 determines "no", ie, user 1408 is not authorized to perform an action in the determined set of actions associated with the goal, then process 1612 goes to process 1618 . At 1618, control circuitry 404 generates a notification for second user 1410 to perform an action. For example, control circuitry 404 may generate an SMS message to wireless communication device 506 for a second user (eg, an adult in the household) to perform an action (eg, answer the door). At 1620, control circuitry 404 determines that the audio is within the audible range of the viewing environment. For example, the control circuit 404 may use a microphone to detect if the sound is within audible range of the viewing environment, as described above. At 1622, control circuitry 404 may prevent user 1408 from modifying the playback of the media asset. For example, control circuitry 404 may not respond to user 1408 commands entered by a user via user input interface 410 .

1624では、制御回路404は、メディアアセットの再生を修正し、ユーザ1408が目標と関連付けられるアクションを実施することを防止する。1626では、制御回路404は、可聴範囲内である音声を減衰させる音量1406を決定する。制御回路404は、上記に説明されるような類似方法を使用して、音声を減衰させる音量を決定する。1628では、制御回路404は、ユーザ1408を減衰させる音量であるように、メディアアセットの再生(例えば、オーディオ再生1414)に対応する音量を調節する。 At 1624, control circuitry 404 modifies the playback of the media asset to prevent user 1408 from performing the action associated with the goal. At 1626, the control circuit 404 determines the volume 1406 to attenuate sounds that are within the audible range. Control circuit 404 determines the volume at which to attenuate the sound using similar methods as described above. At 1628 , control circuitry 404 adjusts the volume corresponding to the playback of the media asset (eg, audio playback 1414 ) such that the volume is attenuating the user 1408 .

図17は、本開示のいくつかの実施形態による、音声1406と関連付けられる目標を識別するためのプロセスの例証的フローチャートを描写する。プロセス1700は、制御回路404が、音声の特性に基づいて、音声1406とデータベース内のエントリとの間の合致を決定する、1702から開始する。例えば、制御回路404は、音声の特性(例えば、口調、音量等)に基づいて、音声1406(例えば、ドアベルが鳴ること)とデータベース内のエントリとの間の合致を決定してもよい。1704では、制御回路404は、エントリから、音声1406と関連付けられる目標を読み出す。例えば、制御回路404は、エントリから、音声(例えば、ドアベルが鳴ること)と関連付けられる目標(例えば、ドアに応答する)を読み出してもよい。1706では、制御回路404は、エントリから、目標と関連付けられる対応するアクションのセットを読み出す。例えば、制御回路404は、エントリから、目標(例えば、ドアに応答する)と関連付けられる対応するアクションのセット(例えば、再生を一時停止する、ドアに応答する等)を読み出してもよい。 FIG. 17 depicts an illustrative flowchart of a process for identifying goals associated with speech 1406, according to some embodiments of the present disclosure. Process 1700 begins at 1702 where control circuitry 404 determines a match between speech 1406 and an entry in the database based on characteristics of the speech. For example, control circuitry 404 may determine a match between sound 1406 (eg, doorbell ringing) and an entry in the database based on characteristics of the sound (eg, tone, volume, etc.). At 1704, control circuitry 404 retrieves the goal associated with speech 1406 from the entry. For example, control circuitry 404 may read from the entry a goal (eg, answer the door) associated with a sound (eg, ringing the doorbell). At 1706, control circuitry 404 reads from the entry a corresponding set of actions associated with the goal. For example, control circuitry 404 may retrieve from the entry a corresponding set of actions (eg, pause playback, respond to door, etc.) associated with the goal (eg, respond to door).

図18は、本開示のいくつかの実施形態による、視聴環境内のユーザの存在を検出するためのプロセスの例証的フローチャートを描写する。プロセス1800は、制御回路404が、センサを使用して、視聴環境内のユーザ1408の存在を検出する、1802から開始する。制御回路404は、通信ネットワーク514を介してセンサに接続してもよい。例えば、制御回路404は、赤外線センサを使用して、視聴環境内のユーザの存在を検出してもよい。 FIG. 18 depicts an illustrative flowchart of a process for detecting the presence of a user within a viewing environment, according to some embodiments of the present disclosure. Process 1800 begins at 1802 where control circuitry 404 detects the presence of user 1408 within the viewing environment using sensors. Control circuitry 404 may connect to the sensors via communication network 514 . For example, control circuitry 404 may use an infrared sensor to detect the presence of a user within the viewing environment.

図19は、本開示のいくつかの実施形態による、通知を含有するオーバーレイを生成するためのプロセスの例証的フローチャートを描写する。プロセス1900は、制御回路404が、メディア機器デバイス上に表示されるべきオーバーレイを生成し、オーバーレイが、音声1406についてのユーザ1408のための通知を含有する、1902から開始する。制御回路404は、ディスプレイ412上に表示されるべきオーバーレイを生成してもよい。例えば、制御回路404は、メディア機器デバイス(例えば、テレビ)上に表示されるべきオーバーレイを生成してもよく、オーバーレイは、音声についてのユーザのための通知を含有する(例えば、「ドアベルが鳴っています」と読めるテキストを伴うオーバーレイ)。 FIG. 19 depicts an illustrative flowchart of a process for generating overlays containing notifications, according to some embodiments of the present disclosure. Process 1900 begins at 1902 where control circuitry 404 generates an overlay to be displayed on a media equipment device, overlay containing a notification for user 1408 about audio 1406 . Control circuitry 404 may generate overlays to be displayed on display 412 . For example, control circuitry 404 may generate an overlay to be displayed on a media equipment device (e.g., a television), the overlay containing a notification for the user about audio (e.g., "Doorbell rings"). overlay with text that reads "

図20は、本開示のいくつかの実施形態による、メディアアセットの再生を修正するためのプロセスの例証的フローチャートを描写する。プロセス2000は、制御回路404が、データベースから、目標と関連付けられる再生修正のセットを読み出す、2002から開始する。制御回路404は、記憶装置408またはメディアガイドデータソース518内に記憶されたデータベースから、または通信ネットワーク514を介して、再生修正のセットを読み出してもよい。例えば、制御回路404は、データベースから、目標(例えば、ドアに応答する)と関連付けられる再生修正のセット(例えば、再生を一時停止する、再生をミュートする等)を読み出してもよい。 FIG. 20 depicts an illustrative flowchart of a process for modifying playback of media assets, according to some embodiments of the present disclosure. Process 2000 begins at 2002 where control circuitry 404 retrieves from a database a set of regeneration modifications associated with a goal. Control circuitry 404 may retrieve the set of playback modifications from a database stored within storage device 408 or media guidance data source 518 , or via communications network 514 . For example, control circuitry 404 may retrieve from a database a set of playback modifications (eg, pause playback, mute playback, etc.) associated with a goal (eg, respond to a door).

2004では、制御回路404は、ユーザ1408のための選好に基づいて、再生修正のセットから再生修正を選択する。例えば、制御回路404は、ユーザ1408のための選好(例えば、ユーザがドアに応答するときにコンテンツを見逃さないことを好む)に基づいて、再生修正(例えば、再生を一時停止する)を選択してもよい。2006では、制御回路404は、選択された再生修正に基づいて、メディアアセットの再生を修正する。例えば、制御回路404は、選択された再生修正(例えば、再生を一時停止する)に基づいて、メディアアセットの再生を一時停止してもよい。 At 2004 , control circuitry 404 selects a playback modification from the set of playback modifications based on preferences for user 1408 . For example, control circuitry 404 selects playback modifications (eg, pause playback) based on preferences for user 1408 (eg, user prefers not to miss content when answering the door). may At 2006, control circuitry 404 modifies the playback of the media asset based on the selected playback modifications. For example, control circuitry 404 may pause playback of a media asset based on a selected playback modification (eg, pause playback).

図21は、本開示のいくつかの実施形態による、ユーザ1408がアクションを実施する権限を与えられているかどうかを決定するためのプロセスの例証的フローチャートを描写する。プロセス2100は、制御回路404が、ユーザプロファイルから、ユーザ1408のためのランクを読み出す、2102から開始する。制御回路404は、記憶装置408またはメディアガイドデータソース518内に記憶されたユーザプロファイルから、または通信ネットワーク514を介して、ユーザ1408のためのランクを読み出してもよい。例えば、メディアガイドアプリケーションは、記憶装置408内のユーザプロファイルから、ユーザ1408のためのランク(例えば、10の中から8)を読み出してもよい。2104では、制御回路404は、データベースから、アクションのためのランクを読み出す。例えば、制御回路404は、記憶装置408内のデータベースから、アクションのためのランク(例えば、10の中から5)を読み出してもよい。 FIG. 21 depicts an illustrative flowchart of a process for determining whether user 1408 is authorized to perform an action, according to some embodiments of the present disclosure. Process 2100 begins at 2102 where control circuitry 404 reads the rank for user 1408 from the user profile. Control circuitry 404 may retrieve the rank for user 1408 from a user profile stored within storage device 408 or media guidance data source 518 , or via communication network 514 . For example, the media guidance application may retrieve the rank (eg, 8 out of 10) for user 1408 from the user profile in storage device 408 . At 2104, control circuitry 404 retrieves the rank for the action from the database. For example, control circuitry 404 may retrieve a rank (eg, 5 out of 10) for an action from a database within storage device 408 .

2106では、制御回路404は、ユーザ1408のランクがアクションのためのランクを超えるかどうかを決定する。2106において、制御回路404が、「はい」、すなわち、ユーザのランクがアクションのランクを超えることを決定する場合、プロセス2106は、2108に進む。2108では、制御回路404は、ユーザ1408がアクションを実施する権限を与えられていることを決定する。2106において、制御回路404が、「いいえ」、すなわち、ユーザ1408のランクがアクションのランクを超えないことを決定する場合、プロセス2106は、2110に進む。2110では、制御回路404は、ユーザ1408がアクションを実施する権限を与えられていないことを決定する。 At 2106, control circuitry 404 determines whether the rank of user 1408 exceeds the rank for the action. At 2106 , if control circuitry 404 determines “yes”, ie, the user's rank exceeds the action's rank, process 2106 proceeds to 2108 . At 2108, control circuitry 404 determines that user 1408 is authorized to perform the action. At 2106 , if control circuitry 404 determines “no”, ie, the rank of user 1408 does not exceed the rank of the action, process 2106 proceeds to 2110 . At 2110, control circuitry 404 determines that user 1408 is not authorized to perform the action.

プロセス600-1300および1400-2100またはその任意のステップは、図1および4-5に示されるデバイスのうちのいずれかの上で実施される、またはそれによって提供され得ることに留意されたい。例えば、プロセス600-1300および1400-2100のいずれかは、ユーザ機器502、504、506(図5)、および/または推奨を選択するためのユーザ機器デバイス上で実装される制御回路によって命令される通りに、制御回路404(図4)によって実行されてもよい。加えて、プロセス600-1300および1400-2100の1つ以上のステップが、任意の他のプロセスまたは実施形態の1つ以上のステップに組み込まれる、またはそれと組み合わせられてもよい。 Note that the processes 600-1300 and 1400-2100 or any steps thereof may be performed on or provided by any of the devices shown in FIGS. 1 and 4-5. For example, any of processes 600-1300 and 1400-2100 may be directed by control circuitry implemented on user equipment 502, 504, 506 (FIG. 5) and/or user equipment devices for selecting recommendations. As such, it may be performed by control circuit 404 (FIG. 4). Additionally, one or more steps of processes 600-1300 and 1400-2100 may be incorporated into or combined with one or more steps of any other process or embodiment.

図6-13および14-21のそれぞれのステップまたは説明は、本開示の任意の他の実施形態と併用され得ることが考慮される。加えて、図6-13および14-21に関連して説明されるステップおよび説明は、本開示の目的を促すために、代替順序で、または並行して、行われてもよい。例えば、これらのステップはそれぞれ、システムまたは方法の遅延を低減させる、または速度を増加させるように、任意の順序で、または並行して、または実質的に同時に実施されてもよい。さらに、図1および4-5に関連して議論されるデバイスまたは機器のうちのいずれかは、図6-13および14-21のステップのうちの1つ以上のものを実施するために使用され得ることに留意されたい。 It is contemplated that each step or description of Figures 6-13 and 14-21 may be used in conjunction with any other embodiment of the present disclosure. Additionally, the steps and descriptions described in connection with FIGS. 6-13 and 14-21 may be performed in alternate orders or in parallel for the purposes of the present disclosure. For example, each of these steps may be performed in any order or in parallel or substantially simultaneously to reduce delay or increase speed of the system or method. Additionally, any of the devices or instruments discussed in connection with FIGS. 1 and 4-5 may be used to perform one or more of the steps of FIGS. 6-13 and 14-21. Note that we get

本発明に関与する方法は、コンピュータ使用可能および/または可読媒体を含むコンピュータプログラム製品で具現化され得ることが、当業者に明白であろう。例えば、そのようなコンピュータ使用可能媒体は、CD-ROMディスクまたは従来のROMデバイス等の読取専用メモリデバイス、またはその上に記憶されたコンピュータ可読プログラムコードを有する、ハードドライブデバイスまたはコンピュータディスケット等のランダムアクセスメモリから成ってもよい。また、本開示に関与する方法、技法、およびプロセスは、処理回路を使用して実行され得ることも理解されたい。例えば、ユーザの位置を決定することは、例えば、図4の処理回路406によって実施されてもよい。処理回路は、例えば、ユーザ機器400、メディアコンテンツソース516、またはメディアガイドデータソース518内の汎用プロセッサ、カスタマイズされた集積回路(例えば、ASIC)、またはフィールドプログラマブルゲートアレイ(FPGA)であってもよい。例えば、本明細書に説明されるようなプロファイルは、図4の記憶装置408または図5のメディアガイドデータソース518内に記憶され、そこから読み出されてもよい。さらに、処理回路またはコンピュータプログラムは、図4の記憶装置408または図5のメディアガイドデータソース518内に記憶されたユーザ機器100の設定を更新してもよい。 It will be apparent to those skilled in the art that the methods involved in the present invention can be embodied in a computer program product including computer usable and/or readable media. For example, such computer-usable medium may be a read-only memory device, such as a CD-ROM disc or conventional ROM device, or a random memory device, such as a hard drive device or computer diskette, having computer-readable program code stored thereon. It may consist of an access memory. It should also be appreciated that the methods, techniques, and processes involved in the present disclosure may be implemented using processing circuitry. For example, determining the user's location may be performed by, for example, processing circuitry 406 of FIG. The processing circuitry may be, for example, a general purpose processor, a customized integrated circuit (eg, an ASIC), or a field programmable gate array (FPGA) within user equipment 400, media content source 516, or media guidance data source 518. . For example, profiles as described herein may be stored in and retrieved from storage device 408 of FIG. 4 or media guidance data source 518 of FIG. Additionally, the processing circuitry or computer program may update settings of user equipment 100 stored within storage device 408 in FIG. 4 or media guidance data source 518 in FIG.

上記に議論されるプロセスは、限定的ではなく例証的であることを意図している。当業者は、本明細書に議論されるプロセスのステップが、本発明の範囲から逸脱することなく、省略される、修正される、組み合わせられる、および/または再配列されてもよく、任意の付加的ステップが、実施されてもよいことを理解するであろう。より一般的には、上記の開示は、例示的であって、限定を意図するものではない。続く請求項のみが、本発明が含むものに関する境界を設定することが意図される。さらに、いずれか1つの実施形態で説明される特徴および限定は、本明細書の任意の他の実施形態に適用され得、一実施形態に関するフローチャートまたは実施例は、好適な様式で任意の他の実施形態と組み合わせられる、異なる順序で行われる、または並行して行われ得ることに留意されたい。加えて、本明細書で説明されるシステムおよび方法は、リアルタイムで実施されてもよい。また、上記に説明されるシステムおよび/または方法は、他のシステムおよび/または方法に適用され得る、またはそれらに従って使用され得ることにも留意されたい。 The processes discussed above are intended to be illustrative rather than limiting. Those skilled in the art will appreciate that the steps of the processes discussed herein may be omitted, modified, combined and/or rearranged without departing from the scope of the invention, and any additions It will be appreciated that multiple steps may be performed. More generally, the above disclosure is illustrative and not meant to be limiting. Only the claims that follow are intended to set boundaries as to what the present invention encompasses. Moreover, features and limitations described in any one embodiment may apply to any other embodiment herein, and any flow chart or example relating to one embodiment may be used in any suitable manner to describe any other embodiment. Note that embodiments may be combined, performed in a different order, or performed in parallel. Additionally, the systems and methods described herein may be implemented in real time. It should also be noted that the systems and/or methods described above may be applied to or used in accordance with other systems and/or methods.

本開示のいくつかの部分は、「関連技術」または「慣例」を参照し得るが、任意のそのような参照は、文脈を本開示の発明に提供する目的のためにすぎず、最先端技術を構成するものに関していずれの承認も形成しない。 Although some portions of this disclosure may refer to "related art" or "conventional practice," any such reference is merely for the purpose of providing context to the disclosed inventions, not state of the art. does not form any acknowledgment as to what constitutes

Claims (8)

装置であって、前記装置は、
第1のユーザから第2のユーザへの口頭コマンドを認識するためのオーディオ検出センサと、
前記口頭コマンドに対する前記第2のユーザによって実行されるアクションを検出するためのセンサと、
前記口頭コマンドを、現在再生されているメディアアセットのための再生動作コマンドのセットと比較するための手段と、
前記比較することに応答して、前記口頭コマンドが前記再生動作コマンドのセット内に含有されていないことを決定するための手段と、
前記口頭コマンドが前記再生動作コマンドのセット内に含有されていないことを決定することに応答して、前記第2のユーザが前記口頭コマンドの複数の結果から前記口頭コマンドの所望の結果を実行するかどうかを検出するための手段と、
前記第2のユーザが前記口頭コマンドの前記所望の結果を実行しないことを決定することに応答して、前記メディアアセットの再生を修正するかどうかを決定するための手段と
を備え、前記装置は、
前記第1のユーザのユーザプロファイルおよび前記第2のユーザのユーザプロファイルに基づいて、前記口頭コマンドの複数の結果から前記口頭コマンドの前記所望の結果を決定するための手段
をさらに備え、
前記第2のユーザが前記口頭コマンドの前記所望の結果を実行するかどうかを検出するための手段は、前記第2のユーザのアクションを前記口頭コマンドの前記所望の結果と比較するように構成され、
前記メディアアセットの再生を修正するかどうかを決定するための手段は、前記第2のユーザのユーザプロファイルから前記第2のユーザの特性を読み出すことと、前記第1のユーザから検出される前記口頭コマンドおよび前記第2のユーザの前記読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定することとを行うように構成され、
前記第1のユーザのユーザプロファイルおよび前記第2のユーザのユーザプロファイルに基づいて、前記口頭コマンドの前記複数の結果から前記口頭コマンドの前記所望の結果を決定するための手段は、前記口頭コマンドの属性を決定するための手段と、前記口頭コマンドの属性を前記口頭コマンドの前記複数の結果の属性と比較するための手段と、前記比較から、前記口頭コマンドの属性を含有する前記複数の結果の中の結果を前記所望の結果であると決定するための手段とをさらに備える、装置。
A device, said device comprising:
an audio detection sensor for recognizing verbal commands from a first user to a second user;
a sensor for detecting an action performed by said second user in response to said verbal command;
means for comparing the verbal command to a set of playback action commands for a currently playing media asset;
means, responsive to the comparing, for determining that the verbal command is not contained within the set of playback action commands;
In response to determining that the verbal command is not contained within the set of playback action commands, the second user executes a desired result of the verbal command from a plurality of results of the verbal command. means for detecting whether
means for determining whether to modify playback of the media asset in response to the second user determining not to perform the desired result of the verbal command , wherein the apparatus comprises: ,
means for determining the desired outcome of the verbal command from a plurality of outcomes of the verbal command based on the user profile of the first user and the user profile of the second user;
further comprising
The means for detecting whether the second user performs the desired result of the verbal command is configured to compare the action of the second user with the desired result of the verbal command. ,
The means for determining whether to modify playback of the media asset comprises: retrieving characteristics of the second user from a user profile of the second user; determining whether to modify playback of the media asset based on the command and the retrieved characteristics of the second user;
means for determining the desired result of the verbal command from the plurality of results of the verbal command based on the user profile of the first user and the user profile of the second user; means for determining an attribute; means for comparing an attribute of said verbal command with attributes of said plurality of results of said verbal command; and means for determining a result therein to be said desired result .
前記第1のユーザから検出される前記口頭コマンドおよび前記第2のユーザの前記読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定するための手段は、前記第2のユーザの前記読み出された特性からの特性を前記口頭コマンドと比較するための手段であって、前記特性は、年齢、ランク、他のユーザとの関係、および時刻から成る特性の群から選択され、前記口頭コマンドは、食事、掃除、勉強、調理、および睡眠から成る口頭コマンドの群から選択される、手段と、前記比較から、前記口頭コマンドが前記第2のユーザの特性を共有するかどうかを決定するための手段と、前記口頭コマンドが前記特性を共有することを決定することに応答して、前記メディアアセットの再生を修正するための手段とを備え、かつ/または、
前記所望の結果を決定するための手段は、第3のユーザのユーザプロファイルにさらに基づいて前記所望の結果を決定するように構成され、前記装置は、前記第3のユーザによって実行される第2のアクションを検出するための手段と、前記第3のユーザのアクションを前記口頭コマンドの前記所望の結果と比較するための手段とをさらに備え、前記メディアアセットの再生を修正するかどうかを決定するための手段は、前記第2のユーザのアクションおよび前記第3のユーザのアクションが前記口頭コマンドの前記所望の結果に対応しないことを決定することに応答して、前記第3のユーザのユーザプロファイルから前記第3のユーザの特性を読み出すことと、前記第1のユーザから検出される前記口頭コマンドと前記第2のユーザの前記読み出された特性と前記第3のユーザの前記読み出された特性とに基づいて、前記メディアアセットの再生を修正するかどうかを決定することとを行うように構成される、請求項に記載の装置。
means for determining whether to modify playback of the media asset based on the verbal command detected from the first user and the retrieved characteristic of the second user; with said verbal command, said characteristics being selected from the group of characteristics consisting of age, rank, relationship with other users, and time of day and said verbal command is selected from a group of verbal commands consisting of eating, cleaning, studying, cooking, and sleeping; and from said comparison, whether said verbal command shares characteristics of said second user. and means for modifying playback of the media asset in response to determining that the verbal command shares the property; and/or
The means for determining the desired result is configured to determine the desired result further based on a user profile of a third user, the device performing a second process performed by the third user. and means for comparing said third user's action with said desired result of said verbal command to determine whether to modify playback of said media asset. means, in response to determining that said second user's action and said third user's action do not correspond to said desired outcome of said verbal command, modifying said third user's user profile; and the verbal command detected from the first user, the retrieved characteristic of the second user and the retrieved characteristic of the third user. and determining whether to modify playback of the media asset based on a characteristic.
前記オーディオ検出センサは、
前記第1のユーザからの口頭入力を検出するための手段と、
前記口頭入力を口頭コマンドのデータベースと比較するための手段であって、前記データベースは、各口頭入力に対応する口頭コマンドを含有する、手段と、
前記比較から、前記第1のユーザからの前記口頭入力に対応する口頭コマンドを決定するための手段と
を備える、請求項に記載の装置。
The audio detection sensor is
means for detecting verbal input from the first user;
means for comparing said verbal input to a database of verbal commands, said database containing a verbal command corresponding to each verbal input;
2. The apparatus of claim 1 , comprising: means for determining, from said comparison, a verbal command corresponding to said verbal input from said first user.
前記比較から、前記第1のユーザからの前記口頭入力に対応する前記口頭コマンドを決定するための手段は、
前記口頭入力と前記口頭コマンドのデータベースとの間の合致を決定するための手段と、
前記合致に対応する口頭コマンドを、前記第1のユーザからの前記口頭入力に対応する前記口頭コマンドであると決定するための手段と
を備える、請求項に記載の装置。
means for determining, from the comparison, the verbal command corresponding to the verbal input from the first user;
means for determining a match between said verbal input and said database of verbal commands;
4. The apparatus of claim 3 , comprising: means for determining a verbal command corresponding to said match to be said verbal command corresponding to said verbal input from said first user.
記メディアアセットの再生を修正するかどうかを決定するための手段は、前記第1のユーザのランクおよび前記第2のユーザのランクを読み出すための手段と、前記ランクから、前記第1のユーザが前記第2のユーザよりも高くランク付けされているかどうかを決定するための手段と、前記第1のユーザが前記第2のユーザよりも高くランク付けされていることを決定することに応答して、前記メディアアセットの再生を修正するための手段と、前記第2のユーザが前記第1のユーザよりも高くランク付けされていることを決定することに応答して、前記メディアアセットを再生し続けるための手段とを含む、請求項に記載の装置。 means for determining whether to modify playback of the media asset comprises : means for retrieving the rank of the first user and the rank of the second user; means for determining whether the is ranked higher than the second user; and in response to determining that the first user is ranked higher than the second user. means for modifying playback of the media asset; and playing the media asset in response to determining that the second user is ranked higher than the first user. 2. The apparatus of claim 1 , comprising means for continuing. 前記第2のユーザによって実行されるアクションを検出するための手段は、
センサを使用して、前記メディアアセットを提示しているメディア機器デバイスの視聴環境から退出する前記第2のユーザを検出するための手段、
前記メディアアセットの再生を修正する口頭コマンドを実行する前記第2のユーザを検出するための手段、
センサを使用して、前記第2のユーザがメディアアセットデバイスの前記視聴環境内に留まることを検出するための手段
のうちの少なくとも1つを含む、請求項に記載の装置。
The means for detecting an action performed by said second user comprises:
means for using sensors to detect the second user exiting a viewing environment of a media equipment device presenting the media asset;
means for detecting said second user executing a verbal command to modify playback of said media asset;
3. The apparatus of claim 1 , comprising at least one of: means for using a sensor to detect that the second user remains within the viewing environment of a media asset device.
方法であって、前記方法は、
オーディオ検出センサが、第1のユーザから第2のユーザへの口頭コマンドを認識することと、
センサが、前記口頭コマンドに対する前記第2のユーザによって実行されるアクションを検出することと、
前記口頭コマンドを、現在再生されているメディアアセットのための再生動作コマンドのセットと比較することと、
前記比較することに応答して、前記口頭コマンドが前記再生動作コマンドのセット内に含有されていないことを決定することと、
前記口頭コマンドが前記再生動作コマンドのセット内に含有されていないことを決定することに応答して、前記第2のユーザが前記口頭コマンドの複数の結果から前記口頭コマンドの所望の結果を実行するかどうかを検出することと、
前記第2のユーザが前記口頭コマンドの前記所望の結果を実行しないことを決定することに応答して、前記メディアアセットの再生を修正するかどうかを決定することと
を含み、
前記メディアアセットは、前記第2のユーザによって現在再生されており、前記方法は、
前記第1のユーザのユーザプロファイルおよび前記第2のユーザのユーザプロファイルに基づいて、前記口頭コマンドの複数の結果から前記口頭コマンドの前記所望の結果を決定すること
をさらに含み、
前記第2のユーザが前記口頭コマンドの前記所望の結果を実行するかどうかを検出することは、前記第2のユーザのアクションを前記口頭コマンドの前記所望の結果と比較することを含み、
前記メディアアセットの再生を修正するかどうかを決定することは、前記第2のユーザのユーザプロファイルから前記第2のユーザの特性を読み出すことと、前記第1のユーザから検出される前記口頭コマンドおよび前記第2のユーザの前記読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定することとを含み、
前記第1のユーザのユーザプロファイルおよび前記第2のユーザのユーザプロファイルに基づいて、前記口頭コマンドの前記複数の結果から前記口頭コマンドの前記所望の結果を決定することは、
前記口頭コマンドの属性を決定することと、
前記口頭コマンドの属性を前記口頭コマンドの前記複数の結果の属性と比較することと、
前記比較から、前記口頭コマンドの属性を含有する前記複数の結果の中の結果を前記所望の結果であると決定することと
を含む、方法。
A method, the method comprising:
an audio detection sensor recognizing a verbal command from the first user to the second user;
a sensor detecting an action performed by the second user in response to the verbal command;
comparing the verbal command to a set of playback action commands for a currently playing media asset;
determining, in response to the comparing, that the verbal command is not contained within the set of playback motion commands;
In response to determining that the verbal command is not contained within the set of playback action commands, the second user executes a desired result of the verbal command from a plurality of results of the verbal command. and detecting whether
determining whether to modify playback of the media asset in response to the second user determining not to perform the desired result of the verbal command ;
The media asset is currently being played by the second user, and the method includes:
Determining the desired outcome of the verbal command from a plurality of outcomes of the verbal command based on the first user's user profile and the second user's user profile.
further comprising
detecting whether the second user performs the desired result of the verbal command includes comparing the second user's action to the desired result of the verbal command;
Determining whether to modify playback of the media asset comprises: retrieving characteristics of the second user from a user profile of the second user; the verbal command detected from the first user; determining whether to modify playback of the media asset based on the retrieved characteristics of the second user;
determining the desired result of the verbal command from the plurality of results of the verbal command based on the user profile of the first user and the user profile of the second user;
determining attributes of the verbal command;
comparing attributes of the verbal command with attributes of the plurality of results of the verbal command;
determining from the comparison a result among the plurality of results containing attributes of the verbal command to be the desired result;
A method , including
前記第1のユーザから検出される前記口頭コマンドおよび前記第2のユーザの前記読み出された特性に基づいて、前記メディアアセットの再生を修正するかどうかを決定することは、前記第2のユーザの前記読み出された特性からの特性を前記口頭コマンドと比較することであって、前記特性は、年齢、ランク、他のユーザとの関係、および時刻から成る特性の群から選択され、前記口頭コマンドは、食事、掃除、勉強、調理、および睡眠から成る口頭コマンドの群から選択される、ことと、前記比較から、前記口頭コマンドが前記第2のユーザの特性を共有するかどうかを決定することと、前記口頭コマンドが前記特性を共有することを決定することに応答して、前記メディアアセットの再生を修正することとを含み、かつ/または、
前記方法は、前記第1のユーザから前記第2のユーザおよび第3のユーザへの口頭コマンドを検出することであって、前記所望の結果を決定することは、前記第3のユーザのユーザプロファイルにさらに基づく、ことと、前記第3のユーザによって実行される第2のアクションを検出することと、前記第3のユーザのアクションを前記口頭コマンドの前記所望の結果と比較することと、前記第2のユーザのアクションおよび前記第3のユーザのアクションが前記口頭コマンドの前記所望の結果に対応しないことを決定することに応答して、前記第3のユーザのユーザプロファイルから前記第3のユーザの特性を読み出すこととをさらに含み、前記メディアアセットの再生を修正するかどうかを決定することは、前記第3のユーザの前記読み出された特性にさらに基づく、請求項に記載の方法。
Determining whether to modify playback of the media asset based on the verbal command detected from the first user and the retrieved characteristics of the second user is performed by the second user. to the verbal command, wherein the trait is selected from a group of traits consisting of age, rank, relationship with other users , and time of day; wherein the command is selected from the group of verbal commands consisting of eating, cleaning, studying, cooking, and sleeping, and determining from said comparison whether said verbal command shares characteristics of said second user. and modifying playback of the media asset in response to determining that the verbal command shares the property; and/or
The method detects a verbal command from the first user to the second user and a third user, wherein determining the desired result comprises: a user profile of the third user; detecting a second action performed by the third user; comparing the third user's action to the desired result of the verbal command; responsive to determining that two user's actions and the third user's actions do not correspond to the desired outcome of the verbal command; 8. The method of claim 7 , further comprising retrieving characteristics, wherein determining whether to modify playback of the media asset is further based on the retrieved characteristics of the third user.
JP2020531696A 2017-12-12 2018-06-27 Systems and methods for modifying playback of media assets in response to verbal commands unrelated to playback of media assets Active JP7275134B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023076097A JP2023087057A (en) 2017-12-12 2023-05-02 System and method for modifying playback of media asset in response to verbal command unrelated to playback of media asset

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US15/839,540 2017-12-12
US15/839,569 US10135632B1 (en) 2017-12-12 2017-12-12 Systems and methods for determining whether a user is authorized to perform an action in response to a detected sound
US15/839,569 2017-12-12
US15/839,540 US10425247B2 (en) 2017-12-12 2017-12-12 Systems and methods for modifying playback of a media asset in response to a verbal command unrelated to playback of the media asset
PCT/US2018/039669 WO2019117999A1 (en) 2017-12-12 2018-06-27 Systems and methods for modifying playback of a media asset in response to a verbal command unrelated to playback of the media asset

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023076097A Division JP2023087057A (en) 2017-12-12 2023-05-02 System and method for modifying playback of media asset in response to verbal command unrelated to playback of media asset

Publications (3)

Publication Number Publication Date
JP2021506187A JP2021506187A (en) 2021-02-18
JP2021506187A5 JP2021506187A5 (en) 2021-08-05
JP7275134B2 true JP7275134B2 (en) 2023-05-17

Family

ID=63108617

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020531696A Active JP7275134B2 (en) 2017-12-12 2018-06-27 Systems and methods for modifying playback of media assets in response to verbal commands unrelated to playback of media assets
JP2023076097A Pending JP2023087057A (en) 2017-12-12 2023-05-02 System and method for modifying playback of media asset in response to verbal command unrelated to playback of media asset

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023076097A Pending JP2023087057A (en) 2017-12-12 2023-05-02 System and method for modifying playback of media asset in response to verbal command unrelated to playback of media asset

Country Status (6)

Country Link
EP (1) EP3622723A1 (en)
JP (2) JP7275134B2 (en)
KR (1) KR102502319B1 (en)
CN (1) CN111466121A (en)
CA (1) CA3083352A1 (en)
WO (1) WO2019117999A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014171202A (en) 2013-03-05 2014-09-18 Nakayo Telecommun Inc Video reproduction device or voice reproduction device having temporary stop function
US20150264439A1 (en) 2012-10-28 2015-09-17 Hillcrest Laboratories, Inc. Context awareness for smart televisions
JP2016090655A (en) 2014-10-30 2016-05-23 シャープ株式会社 Voice recognition robot system, voice recognition robot, controller for voice recognition robot, communication terminal for controlling voice recognition robot, and program
JP2016206461A (en) 2015-04-23 2016-12-08 富士通株式会社 Content reproduction device, content reproduction program, and content reproduction method
WO2017147081A1 (en) 2016-02-22 2017-08-31 Sonos, Inc. Voice control of a media playback system

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6239794B1 (en) 1994-08-31 2001-05-29 E Guide, Inc. Method and system for simultaneously displaying a television program and information about the program
US6564378B1 (en) 1997-12-08 2003-05-13 United Video Properties, Inc. Program guide system with browsing display
CN1867068A (en) 1998-07-14 2006-11-22 联合视频制品公司 Client-server based interactive television program guide system with remote server recording
AR020608A1 (en) 1998-07-17 2002-05-22 United Video Properties Inc A METHOD AND A PROVISION TO SUPPLY A USER REMOTE ACCESS TO AN INTERACTIVE PROGRAMMING GUIDE BY A REMOTE ACCESS LINK
CN101383946A (en) 1998-07-17 2009-03-11 联合视频制品公司 System for demanding programme and related method thereof
US7165098B1 (en) 1998-11-10 2007-01-16 United Video Properties, Inc. On-line schedule system with personalization features
WO2002069636A1 (en) 2001-02-21 2002-09-06 United Video Properties, Inc. Systems and methods for interactive program guides with personal video recording features
US7536704B2 (en) * 2001-10-05 2009-05-19 Opentv, Inc. Method and apparatus automatic pause and resume of playback for a popup on interactive TV
US20100153885A1 (en) 2005-12-29 2010-06-17 Rovi Technologies Corporation Systems and methods for interacting with advanced displays provided by an interactive media guidance application
US9215510B2 (en) * 2013-12-06 2015-12-15 Rovi Guides, Inc. Systems and methods for automatically tagging a media asset based on verbal input and playback adjustments
US20150172878A1 (en) 2013-12-12 2015-06-18 Aliphcom Acoustic environments and awareness user interfaces for media devices
US9844023B2 (en) * 2014-10-03 2017-12-12 Echostar Technologies L.L.C. System and method to silence other devices in response to an incoming audible communication
US10043516B2 (en) * 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150264439A1 (en) 2012-10-28 2015-09-17 Hillcrest Laboratories, Inc. Context awareness for smart televisions
JP2014171202A (en) 2013-03-05 2014-09-18 Nakayo Telecommun Inc Video reproduction device or voice reproduction device having temporary stop function
JP2016090655A (en) 2014-10-30 2016-05-23 シャープ株式会社 Voice recognition robot system, voice recognition robot, controller for voice recognition robot, communication terminal for controlling voice recognition robot, and program
JP2016206461A (en) 2015-04-23 2016-12-08 富士通株式会社 Content reproduction device, content reproduction program, and content reproduction method
WO2017147081A1 (en) 2016-02-22 2017-08-31 Sonos, Inc. Voice control of a media playback system

Also Published As

Publication number Publication date
WO2019117999A1 (en) 2019-06-20
JP2021506187A (en) 2021-02-18
CN111466121A (en) 2020-07-28
KR102502319B1 (en) 2023-02-21
EP3622723A1 (en) 2020-03-18
KR20200098608A (en) 2020-08-20
CA3083352A1 (en) 2019-06-20
JP2023087057A (en) 2023-06-22

Similar Documents

Publication Publication Date Title
US11563597B2 (en) Systems and methods for modifying playback of a media asset in response to a verbal command unrelated to playback of the media asset
JP7239494B2 (en) Systems and methods for generating volume-based responses for multiple voice-activated user devices
US20210248999A1 (en) Systems and methods for conversations with devices about media using interruptions and changes of subjects
US12021909B2 (en) Systems and methods for establishing a voice link between users accessing media
US20230156290A1 (en) Systems and methods for determining whether to adjust volumes of individual audio components in a media asset based on a type of a segment of the media asset
JP7305647B2 (en) Systems and methods for dynamically enabling and disabling biometric devices
US20230262284A1 (en) Systems and methods for selecting network-connected devices to provide device functions for an event
US10135632B1 (en) Systems and methods for determining whether a user is authorized to perform an action in response to a detected sound
JP7275134B2 (en) Systems and methods for modifying playback of media assets in response to verbal commands unrelated to playback of media assets

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210624

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220819

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230502

R150 Certificate of patent or registration of utility model

Ref document number: 7275134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150