JP2005031786A - Character input device - Google Patents
Character input device Download PDFInfo
- Publication number
- JP2005031786A JP2005031786A JP2003193511A JP2003193511A JP2005031786A JP 2005031786 A JP2005031786 A JP 2005031786A JP 2003193511 A JP2003193511 A JP 2003193511A JP 2003193511 A JP2003193511 A JP 2003193511A JP 2005031786 A JP2005031786 A JP 2005031786A
- Authority
- JP
- Japan
- Prior art keywords
- character
- input
- contact
- mode
- input mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Navigation (AREA)
- Input From Keyboards Or The Like (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、タッチパネルに対する接触操作により文字(記号を含む)入力を行うことができる文字入力装置に関する。
【0002】
【従来の技術】
最近では電子機器の多機能化が進み、利用者による操作もより一層複雑化してきている。例えば、目的地までの経路案内を行うナビゲーション装置においては、目的地設定のために、地名や施設名を入力したり、電話番号を入力する操作が頻繁に行われる。
【0003】
これら文字入力装置の代表的なものとしてはパーソナルコンピュータ等で用いられるキーボードがあるが、車載用ナビゲーション装置等の電子機器では設置スペースが限られているため、パーソナルコンピュータ用のキーボードをそのまま設置することはとてもできず、タッチパネルが装備された表示装置の画面にキーボードを表示し、該当する文字の部分に接触させることにより文字入力を行わせる方式(以下、文字位置接触入力モードと称する)がよく採用されている。
【0004】
また、別の入力モードとしては、タッチパネルに対する接触操作軌跡に基づいて文字認識を行い、認識された文字を入力文字とする方式(以下、軌跡文字入力モードと称する)(特許文献1参照)がある。
【0005】
【特許文献1】
特開平10−91727号公報
【0006】
【発明が解決しようとする課題】
上記した入力モードにはそれぞれ一長一短があり、一般的にはキーボードになれた人には文字位置接触入力モードの方が入力し易いが、キーボードになれていない人には軌跡文字入力モードが入力し易く、またキーボードになれた人でも読みが分からない場合や、画面を見ることが困難な場合には軌跡文字入力モードが入力し易くなる。
【0007】
本発明は、上記課題に鑑みなされたものであって、文字や記号等の入力操作をより容易に行うことができる文字入力装置を提供することを目的としている。
【0008】
【課題を解決するための手段及びその効果】
上記課題を解決するために、本発明に係る文字入力装置(1)は、タッチパネルに対する接触操作により文字入力を行う文字入力装置において、前記タッチパネルにおける各文字の操作領域を表示し、接触操作位置に対応する文字を入力文字とする文字位置接触入力モードを実行するための文字位置接触入力手段と、前記タッチパネルにおける接触操作軌跡に基づいて文字認識を行い、認識した文字を入力文字とする軌跡文字入力モードを実行するための軌跡文字入力手段と、複数の文字から構成される単語入力処理中に、前記文字位置接触入力モードと軌跡文字入力モードとを切り換え、文字位置接触入力と軌跡文字入力の混合入力を可能とするモード切換手段とを備えていることを特徴としている。
上記文字入力装置(1)によれば、文字位置接触入力モードと軌跡文字入力モードとを文字入力中に自在に切り換えて文字の入力を行うことができるので、文字入力をスムーズに行うことが可能となる。
【0009】
また、本発明に係る文字入力装置(2)は、上記文字入力装置(1)において、入力モードが、初期状態においては文字位置接触入力モードに設定されていることを特徴としている。
上記文字入力装置(2)によれば、文字入力開始時には何時でもより一般的な文字位置接触入力モードとなっているので、入力モードがその時その時で変わることが無く、利用者の戸惑いを無くすことができる。
【0010】
また、本発明に係る文字入力装置(3)は、上記文字入力装置(1)において、入力モードが、初期状態においては前回入力時のモードに設定されるようになっていることを特徴としている。
上記文字入力装置(3)によれば、文字入力開始時には前回の文字入力時に利用された入力モードとなるので、その利用者が良く利用する入力モードに設定される可能性が高くなり、入力モードを切り換える手間を省くことができる。
【0011】
また、本発明に係る文字入力装置(4)は、上記文字入力装置(1)〜(3)のいずれかにおいて、入力モードが、次文字入力時においては文字位置接触入力モードに設定されるようになっていることを特徴としている。
上記文字入力装置(4)によれば、次文字入力時には何時でもより一般的な文字位置接触入力モードとなるので、一時的に軌跡文字入力モードに切り換えた場合においても次文字入力時には文字位置接触入力モードへの切り換え操作をする必要がなく、操作性を向上させることができる。
【0012】
また、本発明に係る文字入力装置(5)は、上記文字入力装置(1)〜(3)のいずれかにおいて、入力モードが、次文字入力時においては前回入力時の入力モードと同じになるように、文字位置接触入力モードと軌跡文字入力モードとが選択設定されるように構成されていることを特徴としている。
上記文字入力装置(5)によれば、一連の文字を入力する際には、前記モード切換手段を介した何らかの切り換え操作が無い限り、同じ文字入力モードが維持されるので、使用者の意図しない文字入力モードへの切り換えがなされることがなく、利用者が文字入力モードの切り換わりに戸惑うことを防止できる。
【0013】
また、本発明に係る文字入力装置(6)は、上記文字入力装置(1)〜(5)のいずれかにおいて、文字位置接触入力モード時におけるタッチパネルの接触操作時間を検出する文字位置接触入力操作時間検出手段を備え、該文字位置接触入力操作時間検出手段の検出した操作時間が所定時間以上の場合に、前記モード切換手段が入力モードを前記軌跡文字入力モードに切り換えることを特徴としている。
上記文字入力装置(6)によれば、タッチパネルの接触操作時間を長くするといった接触操作位置を気にせずに行える簡単な操作により、文字入力モードが前記軌跡文字入力モードに切り換わり、文字入力をよりスムーズに行うことが可能となる。
【0014】
また、本発明に係る文字入力装置(7)は、上記文字入力装置(6)において、接触操作時間が所定時間以上となって文字入力モードが軌跡文字入力モードに切り換えられた場合に、前記文字位置接触入力手段が、当該接触操作の操作位置に対応する文字を入力文字として有効とするものであることを特徴としている。上記文字入力装置(7)によれば、接触操作時間が所定時間以上になり、文字入力モードが軌跡文字入力モードに切り換えられた場合に、その時の接触操作位置に応じた文字入力が有効となるので、文字入力と文字入力モードの切り換え操作を区別して別に行う必要が無く、操作を簡素化できる。
【0015】
また、本発明に係る文字入力装置(8)は、上記文字入力装置(6)において、接触操作時間が所定時間以上となって文字入力モードが軌跡文字入力モードに切り換えられた場合に、前記文字位置接触入力手段が、当該接触操作の操作位置に対応する文字を入力文字として無効とするものであることを特徴としている。上記文字入力装置(8)によれば、接触操作時間が所定時間以上となって文字入力モードが軌跡文字入力モードに切り換えられた場合に、文字入力モードの切り換え操作が、文字入力操作と独立したものとなるので、文字入力モードの切り換え操作が分かりやすくなる。
【0016】
また、本発明に係る文字入力装置(9)は、上記文字入力装置(6)において、操作時間が所定時間以上となって文字入力モードが軌跡文字入力モードに切り換えられた場合に、当該接触操作の操作開始位置に対応する文字を入力文字として有効とするか、あるいは無効とするかを、前記文字位置接触入力手段が、利用者による設定に従い決定するものであることを特徴としている。
上記文字入力装置(9)によれば、操作時間が所定時間以上となって文字入力モードが軌跡文字入力モードに切り換えられた場合に、接触操作の操作開始位置に対応する文字を入力文字として有効とするか、あるいは無効とするかを利用者が選択設定できるので、各利用者にとって使いやすいものとすることができる。
【0017】
また、本発明に係る文字入力装置(10)は、上記文字入力装置(1)〜(9)のいずれかにおいて、文字位置接触入力モード時におけるタッチパネルの接触操作位置に対応する入力文字を表示する対応文字表示手段を備え、前記文字位置接触入力手段が、前記タッチパネルへの接触状態が非接触状態時となった時の位置に対応する文字を確定入力文字とするものであることを特徴としている。
上記文字入力装置(10)によれば、接触開始位置ではなく、接触終了位置に応じた文字が入力されるので、接触操作位置の微小修正が可能となり、文字入力操作がよりスムーズになる。
【0018】
また、本発明に係る文字入力装置(11)は、上記文字入力装置(1)〜(10)のいずれかにおいて、軌跡文字入力モード時におけるタッチパネルの接触操作位置が変化しない停止時間を検出する接触操作位置停止時間検出手段を備え、前記モード切換手段が、前記接触操作位置停止時間検出手段により検出された停止時間が所定時間以上の場合に前記軌跡文字入力モードを前記文字位置接触入力モードに切り換えるものであることを特徴としている。
上記文字入力装置(11)によれば、前記タッチパネルに対する接触位置が変化しない時間が長くなるといった、軌跡文字入力の意志がない(あるいは入力終了)と判断できる状態になった場合に、文字入力モードを前記軌跡文字入力モードから前記文字位置接触入力モードに切り換えることができ、文字入力をスムーズに行うことが可能となる。
【0019】
また、本発明に係る文字入力装置(12)は、上記文字入力装置(1)〜(11)のいずれかにおいて、文字位置接触入力モード時におけるタッチパネルへの接触状態を維持して接触位置を変化させるスライド接触操作のスライド距離を検出するスライド距離検出手段を備え、該スライド距離検出手段により検出されたスライド距離が所定距離以上である場合に、前記モード切換手段が前記文字位置接触入力モードを前記軌跡文字入力モードに切り換えるものであることを特徴としている。
上記文字入力装置(12)によれば、利用者によるスライド接触操作を軌跡文字入力モードへの切り換えの意志とみなすことにより、前記文字位置接触入力モードから前記軌跡文字入力モードへの切り換えが行われ、文字入力をスムーズに行うことが可能となる。
【0020】
また、本発明に係る文字入力装置(13)は、上記文字入力装置(12)において、前記スライド距離が所定距離以上となって前記文字位置接触入力モードから前記軌跡文字入力モードに切り換えられた場合に、前記文字位置接触入力手段が、前記接触操作の開始位置に対応する文字を入力文字として有効とするものであることを特徴としている。
上記文字入力装置(13)によれば、スライド接触操作による文字入力モードの切り換え時に、その時の接触操作開始位置に対応した文字入力が有効となるので、文字入力と文字入力モードの切り換え操作を区別して別に行う必要が無く、操作を簡素化できる。
【0021】
また、本発明に係る文字入力装置(14)は、上記文字入力装置(12)において、前記スライド距離が所定距離以上となって前記文字位置接触入力モードから前記軌跡文字入力モードに切り換えられた場合に、前記文字位置接触入力手段が、前記接触操作の開始位置に対応する文字を入力文字として無効とするものであることを特徴としている。
上記文字入力装置(14)によれば、スライド接触操作による文字入力モードの切り換え操作が、文字入力操作と独立したものとなるので、文字入力モードの切り換え操作が分かりやすくなる。
【0022】
また、本発明に係る文字入力装置(15)は、上記文字入力装置(12)において、前記スライド距離が所定距離以上となって前記文字位置接触入力モードから前記軌跡文字入力モードに切り換えられた場合に、当該接触操作の操作開始位置に対応する文字を入力文字として有効とするか、あるいは無効とするかを、前記文字位置接触入力手段が、利用者による設定に従い決定するものであることを特徴としている。
上記文字入力装置(15)によれば、前記スライド距離が所定距離以上となって前記文字位置接触入力モードから前記軌跡文字入力モードに切り換えられた場合に、接触操作の操作開始位置に対応する文字を入力文字として有効とするか、あるいは無効とするかを利用者が選択設定できるので、各利用者にとって使いやすいものとすることができる。
【0023】
また、本発明に係る文字入力装置(16)は、上記文字入力装置(12)〜(15)のいずれかにおいて、前記軌跡文字入力手段が、前記文字位置接触入力モードから前記軌跡文字入力モードに切り換わる前のスライド接触操作も文字入力モードに含めて文字認識を行うものであることを特徴としている。
上記文字入力装置(16)によれば、前記文字位置接触入力モードから前記軌跡文字入力モードへの切り換えを意識せずに、文字の軌跡を示すスライド接触操作を行えば軌跡文字入力が行われるので、操作性を良くすることができる。
【0024】
また、本発明に係る文字入力装置(17)は、上記文字入力装置(12)〜(15)のいずれかにおいて、前記軌跡文字入力手段が、前記文字位置接触入力モードから前記軌跡文字入力モードに切り換わる前のスライド接触操作は軌跡に含めずに文字認識を行うものであることを特徴としている。
上記文字入力装置(17)によれば、前記文字位置接触入力モードから前記軌跡文字入力モードに変わったことを確認して軌跡文字入力を開始すればよいので、入力操作に慣れていない人にとっては入力操作を確実に行えるものとなる。
【0025】
また、本発明に係る文字入力装置(18)は、上記文字入力装置(1)〜(17)のいずれかにおいて、軌跡文字入力モード時における軌跡文字入力用の入力領域を備え、さらに接触操作軌跡を表示する軌跡文字表示手段を備えていることを特徴としている。
上記文字入力装置(18)によれば、軌跡文字の入力状態を確認しながら入力操作を行えるので、入力に戸惑うことを無くすことができる。
【0026】
また、本発明に係る文字入力装置(19)は、上記文字入力装置(16)又は(18)において、軌跡文字入力モード時における軌跡文字入力用の入力領域を備え、さらに接触操作軌跡を表示する軌跡文字表示手段と、前記軌跡文字入力モードへ切り換わる前のスライド接触操作に基づく接触軌跡を、軌跡文字入力用の前記入力領域に対応させて変換し、前記軌跡文字表示手段に接触操作軌跡として表示できるようにする軌跡変換手段とを備えていることを特徴としている。
上記文字入力装置(19)によれば、軌跡文字入力状態を入力有効操作分も含めて、前記軌跡文字表示手段で確認しながら入力操作が行えるので、入力に戸惑うことを無くすことができる。
【0027】
【発明の実施の形態】
以下、本発明の実施の形態に係る文字入力装置を図面に基づいて説明する。図1は実施の形態(1)に係る文字入力装置を装備したナビゲーションシステムの構成を示すブロック図である。
【0028】
GPSセンサ3は、GPS衛星からの信号を受信し、その信号から位置を算出して、ナビゲーションシステム制御用のマイクロコンピュータ(マイコン)2に出力する。DVD−ROM再生部5は、地図データが記憶されたDVD−ROM(光ディスク)6から、マイコン2の制御信号に応じて必要なデータを読み込んで、マイコン2に出力する。DVD−ROM再生部5のDVD−ROM6は交換可能となっており、地図の更新(地図DVD−ROMのバージョンアップ)に対応可能になっている。また、別の実施の形態では、DVD−ROM再生部5と、地図データが記憶されたDVD−ROM(光ディスク)6とに代わり、ハードディスク(HDD)が装備されていてもよい。
【0029】
タッチパネル4は、ナビゲーションシステム操作用のスイッチを構成しており、ディスプレイ1の前面に装備された押圧圧力の変化あるいは静電容量の変化により操作位置を検出する透明のシートスイッチや、格子状に張りめぐらされた赤外線網の遮断状態により操作位置を検出する赤外線センサを含んで構成され、ディスプレイ1に対応した座標入力、例えばディスプレイ1に表示された地図上における位置指定や、ディスプレイ1に表示された押しボタンスイッチ等の選択操作が可能となっている。操作スイッチとしてはタッチパネル4以外に、ナビゲーションシステム本体に設置された押しボタンスイッチや、赤外線リモコン装置に搭載されたON−OFFスイッチやジョイスティック(いずれも図示せず)等の方向指定用スイッチ等も装備されている。
【0030】
マイコン2は、GPSセンサ3により検出された自車位置、操作スイッチの操作状態に応じて、DVD−ROM再生部5を制御して必要な地図データ等をDVD−ROM6から読み込んだり、目的地までの経路を演算する処理等を行い、液晶表示装置で構成されたディスプレイ1に、対応する地図、経路、各種案内、そして操作案内表示等を行うようになっている。マイコン2には、各種データ、プログラムの記憶、また演算処理のために用いられるRAM及びROM(いずれも図示せず)が内蔵されている。
【0031】
そして、マイコン2は目的地の設定時や施設情報の表示時等、様々なな場面で施設情報、ニュース、交通情報、天気予報、娯楽情報等の必要な情報や、各種操作画面をディスプレイ7に表示させる制御を行う。
【0032】
次に文字入力装置について説明する。先ず文字入力装置における基本的な機能・表示について説明する。図2(A)〜(D)は文字入力装置における機能および表示状態を示す画面図である。図2にはナビゲーション装置における目的地設定を住所に基づいて行う操作において、画面に表示される種別として50音を例にあげているが、他に電話番号入力操作時における数字入力やアルファベット入力に関しても同様に適用することができる。
【0033】
先ず第1の文字入力形態について説明する。文字入力装置における表示状態は、図2(A)に示したように、50音順に各文字の押釦12が入力画面11に表示される(文字位置接触入力モード)。この入力画面11は目的地等の入力操作時に表示される。また、入力画面11の入力表示部15には既入力分の文字「こう」が表示された状態を示している(本例は、「こうべ」を入力する場合を示しており、「べ」を入力する時の状態を示している)。また、入力画面11には、その他に前後の文字にカーソルを移動させるための移動キー→、←や1文字消去キーDL等の操作キー群13や、入力表示部15に表示された文字を入力文字として確定するための確定キー14が表示され、さらに、入力モードを切り換える(文字位置接触入力モードから軌跡文字入力モードへの切り換えの)ためのモード切換釦16が表示される。ここで矢印20は指等による押圧操作を示している。
【0034】
図2(A)に示したようにモード切換釦16が押圧操作されると、文字位置接触入力モードから軌跡文字入力モードに変わり、入力画面11は図2(B)に示した手書入力画面18に切り換わる。軌跡文字入力モードの手書入力画面18には、接触移動操作の軌跡を表示する軌跡表示部19に操作軌跡が表示され、同時に操作釦表示領域17には各種押釦が表示される。そして、接触操作の後、所定時間接触操作が行われなかった場合には、既入力分の操作軌跡により文字を認識し、入力表示部15に認識文字が表示される。
操作釦表示領域17に表示される押釦としては、入力軌跡を消去するためのクリア釦17a、現入力文字(認識文字)を確定して次の文字入力(軌跡文字入力モードを維持)に移らすための次入力釦17b、認識文字を取り消すためのNG釦17c、現入力文字を確定する(文字位置接触入力モードに切り換える)ためのOK釦17d等がある。
【0035】
本例ではOK釦17d操作時に軌跡文字入力モードから文字位置接触入力モードに切り換わるようになっているが、別の実施の形態では、利用者の設定により文字位置接触入力モードに切り換わるか、軌跡文字入力モードが維持されるかを選択できるようになっており、この場合には次入力釦は不要になる。また、本例では、文字入力状態となった場合には、先ずより一般的な文字位置接触入力モードとなるように設定されているが、別の実施の形態では、この文字入力状態の初期入力モードも、利用者の設定により文字位置接触入力モードになるか、軌跡文字入力モードになるかを選択できるようになっていてもよい。
【0036】
次に第2の文字入力形態について説明する。第2の文字入力形態は、基本的には第1の文字入力形態と変わらないが、この第2の文字入力形態では、接触操作が所定時間継続した場合に、自動的に文字位置接触入力モードから軌跡文字入力モードに切り換わり、入力画面11は図2(A)に示した状態から図2(B)に示した手書入力画面18に切り換わる。この第2の文字入力形態では、原理的には切換釦16は不要であるが、切換釦16を表示しておき、接触操作時間による自動モード切換と、切換釦16によるモード切換を併用しても良い。
【0037】
また、この第2の文字入力形態では、接触操作位置20の文字釦12操作を有効にし、既入力文字として扱うことにより入力効率を上げている。接触操作位置20は、接触操作を止めた位置としている。これは、利用者が接触操作を実行する場合、目的の文字位置にすぐに接触できることは稀で、接触開始位置から目的の文字位置に微調整する場合が多いことを考慮した結果である。また、別の実施の形態では利用者の設定により、接触操作位置20の文字釦12操作を有効にするか、無効とするかを選択できるようにしても良い。
【0038】
次に第3の文字入力形態について説明する。第3の文字入力形態は、基本的には第1の文字入力形態と変わらないが、この第3の文字入力形態では、接触状態が維持されたまま接触操作位置が所定距離移動した場合(スライド接触操作された場合)に、文字位置接触入力モードから軌跡文字入力モードに自動的に切り換わり、入力画面11は図2(C)に示した状態から図2(B)に示した手書入力画面18に切り換わる。この第3の文字入力形態では、切換釦16は不要であるが、切換釦16を表示し、スライド接触操作距離によるモード切換と、切換釦16によるモード切換を併用しても良い。さらに、別の実施の形態では、スライド接触操作距離によるモード切換と、接触操作時間によるモード切換との併用、さらにスライド接触操作距離によるモード切換と、接触操作時間によるモード切換と、切換釦16によるモード切換とを併用してもよい。
【0039】
また、この第3の文字入力形態では、第2の文字入力形態の場合と同様に、接触操作位置20の文字釦12操作を有効にし、既入力文字として扱うことにより入力効率を上げている。接触操作位置20は、接触操作を止めた位置としている。これは、利用者が接触操作を実行する場合、目的の文字位置にすぐに接触できることは稀で、接触開始位置から目的の文字位置に微調整する場合が多いことを考慮した結果である。また、別の実施の形態では利用者の設定により、接触操作位置20の文字釦12操作を有効にするか、無効とするかを選択できるようにしても良い。
【0040】
さらに、手書入力画面18表示前(文字位置接触入力モード時)の、スライド接触操作軌跡も文字認識として有効としており、手書入力画面18の大きさや位置に合わせて既スライド接触操作軌跡を軌跡変換して手書入力画面18に表示するようになっている。この軌跡変換は、予め設計値として入力画面11の大きさ、位置、手書入力画面18の大きさ、位置が分かっているので、その値を用いて演算を行う。
【0041】
図3は文字入力装置におけるマイコン2が行うモード設定処理を示すフローチャートで、上述した動作を実現するためのものである。この処理はナビゲーションシステムが入力状態となった時に実行される。
【0042】
まずステップS1では、初期入力モードが、軌跡文字入力モードあるいは文字位置接触入力モード(設定無しも含む)のいずれに設定されているかを判断し、文字位置接触入力モードであると判断すればステップS2に移り、軌跡文字入力モードであると判断すればステップS6に移る。ステップS2では、入力モードを文字位置接触入力モードに確定し、その後ステップS3に移る。ステップS6では、入力モードを軌跡文字入力モードに確定し、その後ステップS3に移る。ステップS3では、入力モードの変更状態となったか否かを判断(スライド接触操作距離、接触操作時間、切換釦16操作、あるいは文字入力の完了に伴う初期入力モード等により判断)し、変更状態でないと判断すればステップS4に移る。他方、軌跡文字入力モードへの変更と判断すればステップS6に移り、また、文字位置接触入力方モードへの変更と判断すればステップS2に戻る。
【0043】
ステップS4では、文字入力が完了したか否かを判断(操作釦種別により判断)し、入力完了でないと判断すればステップS3に戻り、入力完了・次入力有りと判断すればステップS7に移り、また入力完了・次入力無しと判断すればステップS5に進む。ステップS5では、一連の文字入力、例えば地名入力が完了したとして、入力文字(単語)に応じた、例えば目的地設定等の処理を行い、その後処理を終える。
他方、ステップS7では次文字入力モードの判別を、新規(次)文字入力モードの設定状態により行い、前モード維持の場合にはステップS3に移り、軌跡文字入力モードの場合にはステップS6に移り、また文字位置接触入力モードあるいは設定無しの場合にはステップS2に戻る。
【0044】
図4は、マイコン2が行う文字位置接触入力モード(接触操作時間切換)処理を示すフローチャートで、文字位置接触入力モード時において接触操作があった時に行われる。
まずステップS11では、タッチパネル4への接触状態が非接触状態に変わったか否かの判断を行い、非接触状態に変わったと判断すればステップS12に進む。ステップS12では非接触状態に変わった接触位置をメモリに記憶保持し、その後ステップS13に移る。ステップS13ではタッチパネル4への接触継続時間長さを判別し、所定時間以上であると判断すればステップS15に移り、他方、所定時間未満であると判断すればステップS14に進む。ステップS14では、メモリに記憶保持された接触位置(文字釦)に応じた文字を入力文字として確定し、処理を終える。
【0045】
ステップS15では、入力モードを軌跡文字入力モードとしてステップS16に移る。ステップS16では、タッチパネル4への接触継続時間が長い場合の接触位置に応じた文字入力を有効とするか否かのモードを利用者による設定状態により判断し、有効モードであると判断すればステップS14に移り、無効モードであると判断すれば処理を終える。
【0046】
図5は、マイコン2が行う軌跡文字入力モード処理を示すフローチャートであり、軌跡文字入力モード時において接触操作があった時に行われる。
【0047】
まずステップS21では、既接触入力分が有ったか否かを、メモリへのスライド接触操作軌跡データに基づいて判断し、既接触入力分が有ると判断すればステップS22に進み、無いと判断すればステップS23に移る。ステップS22では既接触入力分の取り込み処理をし、その後ステップS23に進む。
【0048】
ステップS23では軌跡文字入力画面を表示する処理を行い、その後ステップS24に移る。この表示処理の際には既スライド接触操作軌跡データについても軌跡文字入力画面用に変換されたデータに基づいて表示する。ステップS24ではタッチパネル4への接触状態が非接触状態に変わったか否かを判断し、非接触状態に変わるまでは接触軌跡を記憶する処理を実行し、非接触状態になったと判断すればステップS25に進む。ステップS25では、接触軌跡に基づいて文字認識を行い、入力文字を確定し、その後処理を終える。
【0049】
図6は、マイコン2が行う文字位置接触入力モード(スライド接触操作距離切換)処理を示すフローチャートで、この処理は文字位置接触入力モード時において接触操作があった時に行われる。
まずステップS41では、タッチパネル4への接触状態が非接触状態に変わったか否かの判断を行い、非接触状態に変わったと判断すればステップS42に進む。ステップS42では非接触状態に変わった接触位置をメモリに記憶保持し、その後ステップS43に進む。ステップS43ではタッチパネル4へのスライド接触操作距離を判断し、所定距離以上であると判断すればステップS45に移り、所定距離未満であると判断すればステップS44に進む。ステップS44では、メモリに記憶保持された接触位置(文字釦)に応じた文字を入力文字として確定処理し、その後処理を終える。
【0050】
他方、ステップS45では、入力モードを軌跡文字入力モードに切り換えると共に、既スライド接触操作分について、有効とする場合には既スライド接触操作軌跡に変換処理を施して記憶することにより継続入力可能とし、また無効とする場合には既スライド接触操作軌跡のデータは破棄してステップS46に進む。ステップS46では、タッチパネル4へのスライド接触操作距離が長い場合の接触位置に応じた文字入力を有効とするか否かのモードを利用者による設定状態により判断し、有効モードであると判断すればステップS44に移り、無効モードであると判断すれば処理を終える。
【0051】
上記処理により、文字入力の際の操作性を格段に向上させることができる。尚、上述の処理では、各種の文字入力形態を併用した場合を例に挙げて説明しているが、すべての文字入力形態を併用する必要はなく、上記文字入力形態の一部を省略した形態での実施でも充分な効果をあげることができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る文字入力装置が装備されたナビゲーションシステムの概略構成を示すブロック図である。
【図2】(A)〜(D)は実施の形態に係る文字入力装置における入力画面の表示状態を示す画面図である。
【図3】マイコンが行うモード設定処理を示すフローチャートである。
【図4】マイコンが行う文字位置接触入力モード(接触操作時間切換)処理を示すフローチャートである。
【図5】マイコンが行う軌跡文字入力モード処理を示すフローチャートである。
【図6】マイコンが行う文字位置接触入力モード(スライド接触操作距離切換)処理を示すフローチャートである。
【符号の説明】
1 ディスプレイ
2 マイクロコンピュータ(マイコン)
3 GPSセンサ
4 タッチパネル
5 DVD−ROM再生部
6 DVD−ROMディスク[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a character input device capable of inputting characters (including symbols) by a touch operation on a touch panel.
[0002]
[Prior art]
Recently, electronic devices have become more multifunctional, and operations by users have become more complex. For example, in a navigation apparatus that provides route guidance to a destination, an operation of inputting a place name or facility name or inputting a telephone number is frequently performed for setting a destination.
[0003]
A typical example of these character input devices is a keyboard used in a personal computer or the like. However, since an installation space is limited in an electronic device such as an in-vehicle navigation device, a keyboard for a personal computer should be installed as it is. Is not possible, and a method of displaying characters on the screen of a display device equipped with a touch panel and inputting characters by touching the corresponding characters (hereinafter referred to as character position contact input mode) is often used. Has been.
[0004]
As another input mode, there is a method of performing character recognition based on a touch operation locus on the touch panel and using the recognized character as an input character (hereinafter referred to as locus character input mode) (see Patent Document 1). .
[0005]
[Patent Document 1]
JP-A-10-91727
[0006]
[Problems to be solved by the invention]
Each of the above input modes has their merits and demerits. Generally, the character position contact input mode is easier to input for those who are familiar with the keyboard, but the trajectory character input mode is input for those who are not the keyboard. It is easy to input the trajectory character input mode when a person who is familiar with the keyboard does not understand reading or when it is difficult to see the screen.
[0007]
The present invention has been made in view of the above problems, and an object of the present invention is to provide a character input device that can more easily input characters and symbols.
[0008]
[Means for solving the problems and effects thereof]
In order to solve the above problems, a character input device (1) according to the present invention is a character input device that performs character input by a touch operation on a touch panel, displays an operation area of each character on the touch panel, and is at a touch operation position. Character position contact input means for executing a character position contact input mode using a corresponding character as an input character, and character recognition based on a touch operation locus on the touch panel, and a trajectory character input using the recognized character as an input character Trajectory character input means for executing the mode, and switching between the character position contact input mode and the trajectory character input mode during a word input process composed of a plurality of characters, mixing character position contact input and trajectory character input And a mode switching means that enables input.
According to the character input device (1), since character input can be performed by freely switching between the character position contact input mode and the trajectory character input mode during character input, character input can be performed smoothly. It becomes.
[0009]
The character input device (2) according to the present invention is characterized in that, in the character input device (1), the input mode is set to the character position contact input mode in the initial state.
According to the character input device (2), since the character position contact input mode is more general at any time when the character input starts, the input mode does not change at that time, and the user is not confused. Can do.
[0010]
The character input device (3) according to the present invention is characterized in that, in the character input device (1), the input mode is set to the mode at the time of previous input in the initial state. .
According to the character input device (3), when the character input starts, the input mode used at the time of the previous character input is set, so that the user is likely to be set to the input mode frequently used. It is possible to save the trouble of switching.
[0011]
In the character input device (4) according to the present invention, in any one of the character input devices (1) to (3), the input mode is set to the character position contact input mode when the next character is input. It is characterized by becoming.
According to the character input device (4), when the next character is input, the character position contact input mode is more general at any time. Therefore, even when the character input is temporarily switched to the trajectory character input mode, the character position contact is performed when the next character is input. There is no need to switch to the input mode, and operability can be improved.
[0012]
In the character input device (5) according to the present invention, in any one of the character input devices (1) to (3), the input mode is the same as the input mode at the time of the previous input when the next character is input. As described above, the character position contact input mode and the trajectory character input mode are selected and set.
According to the character input device (5), when inputting a series of characters, the same character input mode is maintained unless there is any switching operation via the mode switching means, which is not intended by the user. Switching to the character input mode is not performed, and the user can be prevented from being confused about switching to the character input mode.
[0013]
The character input device (6) according to the present invention includes a character position contact input operation for detecting a touch operation time of the touch panel in the character position contact input mode in any of the character input devices (1) to (5). Time detection means is provided, and when the operation time detected by the character position contact input operation time detection means is a predetermined time or more, the mode switching means switches the input mode to the locus character input mode.
According to the character input device (6), the character input mode is switched to the trajectory character input mode by a simple operation that can be performed without worrying about the contact operation position such as extending the touch operation time of the touch panel, and character input can be performed. It becomes possible to carry out more smoothly.
[0014]
In the character input device (7) according to the present invention, the character input device (6) is configured such that when the contact operation time is longer than a predetermined time and the character input mode is switched to the trajectory character input mode. The position contact input means is characterized in that a character corresponding to the operation position of the contact operation is validated as an input character. According to the character input device (7), when the contact operation time is longer than a predetermined time and the character input mode is switched to the trajectory character input mode, the character input corresponding to the contact operation position at that time becomes valid. Therefore, it is not necessary to separately perform the switching operation between the character input and the character input mode, and the operation can be simplified.
[0015]
In the character input device (8) according to the present invention, when the character input mode is switched to the locus character input mode in the character input device (6) when the contact operation time is longer than a predetermined time and the character input mode is switched to the trajectory character input mode. The position contact input means invalidates a character corresponding to the operation position of the contact operation as an input character. According to the character input device (8), when the contact operation time is longer than a predetermined time and the character input mode is switched to the locus character input mode, the character input mode switching operation is independent of the character input operation. Therefore, the operation for switching the character input mode is easy to understand.
[0016]
Further, the character input device (9) according to the present invention is configured so that, in the character input device (6), when the operation time is longer than a predetermined time and the character input mode is switched to the locus character input mode, the touch operation is performed. The character position contact input means determines whether the character corresponding to the operation start position is valid or invalid as the input character according to the setting by the user.
According to the character input device (9), when the operation time is longer than a predetermined time and the character input mode is switched to the trajectory character input mode, the character corresponding to the operation start position of the touch operation is effective as the input character. Since it is possible for the user to select and set whether to make it invalid or invalid, it is easy for each user to use.
[0017]
The character input device (10) according to the present invention displays an input character corresponding to the touch operation position of the touch panel in the character position contact input mode in any of the character input devices (1) to (9). The character position contact input means includes a corresponding character display means, and the character corresponding to the position when the touch state of the touch panel is in a non-contact state is used as a confirmed input character. .
According to the character input device (10), since the character corresponding to the contact end position is input instead of the contact start position, the touch operation position can be finely corrected, and the character input operation becomes smoother.
[0018]
Moreover, the character input device (11) according to the present invention is a contact that detects a stop time during which the touch operation position of the touch panel does not change in the locus character input mode in any of the character input devices (1) to (10). An operation position stop time detecting means is provided, and the mode character switching means switches the locus character input mode to the character position contact input mode when the stop time detected by the contact operation position stop time detecting means is a predetermined time or more. It is characterized by being.
According to the character input device (11), when it becomes possible to determine that there is no willingness to input the trajectory character (or the input is completed) such that the time during which the touch position on the touch panel does not change is long, the character input mode Can be switched from the locus character input mode to the character position contact input mode, and the character input can be performed smoothly.
[0019]
The character input device (12) according to the present invention changes the contact position while maintaining the contact state with the touch panel in the character position contact input mode in any of the character input devices (1) to (11). Slide distance detection means for detecting the slide distance of the slide contact operation to be performed, and when the slide distance detected by the slide distance detection means is a predetermined distance or more, the mode switching means sets the character position contact input mode to It is characterized by switching to the locus character input mode.
According to the character input device (12), switching from the character position contact input mode to the locus character input mode is performed by regarding the user's intention to switch to the locus character input mode. Thus, it is possible to smoothly input characters.
[0020]
In the character input device (13) according to the present invention, in the character input device (12), when the slide distance becomes a predetermined distance or more and the character position contact input mode is switched to the trajectory character input mode. In addition, the character position contact input means is characterized in that a character corresponding to the start position of the contact operation is validated as an input character.
According to the character input device (13), when the character input mode is switched by the slide contact operation, the character input corresponding to the contact operation start position at that time becomes valid. There is no need to perform it separately, and the operation can be simplified.
[0021]
In the character input device (14) according to the present invention, the character input device (12) is switched from the character position contact input mode to the trajectory character input mode when the slide distance is equal to or greater than a predetermined distance. In addition, the character position contact input means invalidates a character corresponding to the start position of the contact operation as an input character.
According to the character input device (14), the character input mode switching operation by the slide contact operation is independent of the character input operation, so that the character input mode switching operation is easy to understand.
[0022]
In the character input device (15) according to the present invention, in the character input device (12), when the slide distance becomes a predetermined distance or more and the character position contact input mode is switched to the trajectory character input mode. The character position contact input means determines whether the character corresponding to the operation start position of the contact operation is valid or invalid as the input character according to the setting by the user. It is said.
According to the character input device (15), when the slide distance is equal to or greater than a predetermined distance and the character position contact input mode is switched to the locus character input mode, the character corresponding to the operation start position of the contact operation Since the user can select and set whether to be valid as an input character or invalid, it is easy to use for each user.
[0023]
In the character input device (16) according to the present invention, in any one of the character input devices (12) to (15), the trajectory character input means changes from the character position contact input mode to the trajectory character input mode. The slide contact operation before switching is also included in the character input mode to perform character recognition.
According to the character input device (16), the trajectory character is input by performing a slide contact operation indicating the trajectory of the character without being conscious of switching from the character position contact input mode to the trajectory character input mode. The operability can be improved.
[0024]
In the character input device (17) according to the present invention, in any one of the character input devices (12) to (15), the trajectory character input means changes from the character position contact input mode to the trajectory character input mode. The slide contact operation before switching is characterized by character recognition without being included in the trajectory.
According to the character input device (17), since it is only necessary to confirm the change from the character position contact input mode to the locus character input mode and start locus character input, for those who are not familiar with the input operation. The input operation can be performed reliably.
[0025]
A character input device (18) according to the present invention includes an input area for locus character input in the locus character input mode in any one of the character input devices (1) to (17), and further includes a touch operation locus. It is characterized by having a trajectory character display means for displaying.
According to the character input device (18), since the input operation can be performed while confirming the input state of the locus character, it is possible to avoid being confused by the input.
[0026]
A character input device (19) according to the present invention includes an input area for locus character input in the locus character input mode in the character input device (16) or (18), and further displays a contact operation locus. A trajectory character display means and a contact trajectory based on the slide contact operation before switching to the trajectory character input mode are converted corresponding to the input area for trajectory character input, and the trajectory character display means is used as a touch operation trajectory. It is characterized by having a trajectory conversion means for enabling display.
According to the character input device (19), since the input operation can be performed while confirming the locus character input state including the input valid operation by the locus character display means, it is possible to avoid being confused by the input.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a character input device according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a navigation system equipped with a character input device according to the embodiment (1).
[0028]
The
[0029]
The touch panel 4 constitutes a switch for operating the navigation system. The touch panel 4 is a transparent sheet switch mounted on the front surface of the display 1 for detecting an operation position by a change in pressing pressure or a change in capacitance, or a grid-like switch. An infrared sensor that detects the operation position according to the interrupted state of the turned infrared network is included, and coordinate input corresponding to the display 1, for example, position designation on the map displayed on the display 1, and display on the display 1 Selection operation such as a push button switch is possible. In addition to the touch panel 4 as operation switches, push button switches installed in the navigation system main body, ON-OFF switches and joysticks (both not shown) mounted on the infrared remote control device are also equipped. Has been.
[0030]
The
[0031]
Then, the
[0032]
Next, the character input device will be described. First, basic functions and display in the character input device will be described. 2A to 2D are screen views showing functions and display states in the character input device. FIG. 2 shows 50 sounds as an example of the type displayed on the screen in the operation for setting the destination in the navigation device based on the address. Can be applied similarly.
[0033]
First, the first character input form will be described. In the display state of the character input device, as shown in FIG. 2A, pushbuttons 12 for each character are displayed on the
[0034]
When the
The push button displayed in the operation
[0035]
In this example, when the
[0036]
Next, the second character input form will be described. The second character input form is basically the same as the first character input form. However, in the second character input form, when the contact operation continues for a predetermined time, the character position contact input mode is automatically set. From the state shown in FIG. 2 (A) to the
[0037]
Further, in this second character input form, the input efficiency is increased by enabling the
[0038]
Next, a third character input form will be described. The third character input form is basically the same as the first character input form. However, in the third character input form, the contact operation position is moved by a predetermined distance while the contact state is maintained (slide). When the touch operation is performed), the character position contact input mode is automatically switched to the trajectory character input mode, and the
[0039]
Further, in the third character input form, as in the case of the second character input form, the
[0040]
Furthermore, the slide contact operation locus before the
[0041]
FIG. 3 is a flowchart showing a mode setting process performed by the
[0042]
First, in step S1, it is determined whether the initial input mode is set to the locus character input mode or the character position contact input mode (including no setting), and if it is determined to be the character position contact input mode, step S2 is performed. If it is determined that the trajectory character input mode is selected, the process proceeds to step S6. In step S2, the input mode is fixed to the character position contact input mode, and then the process proceeds to step S3. In step S6, the input mode is fixed to the locus character input mode, and then the process proceeds to step S3. In step S3, it is determined whether or not the input mode has been changed (determined based on the slide contact operation distance, contact operation time,
[0043]
In step S4, it is determined whether or not the character input is completed (determined based on the type of operation button). If it is determined that the input is not completed, the process returns to step S3. If it is determined that the input is completed and there is no next input, the process proceeds to step S5. In step S5, assuming that a series of character input, for example, place name input, has been completed, processing such as destination setting is performed according to the input character (word), and the processing is thereafter terminated.
On the other hand, in step S7, the next character input mode is determined based on the setting state of the new (next) character input mode. If the previous mode is maintained, the process proceeds to step S3. If the trajectory character input mode is selected, the process proceeds to step S6. If the character position contact input mode or no setting is made, the process returns to step S2.
[0044]
FIG. 4 is a flowchart showing a character position contact input mode (contact operation time switching) process performed by the
First, in step S11, it is determined whether or not the touch state on the touch panel 4 has changed to the non-contact state. If it is determined that the touch state has changed to the non-contact state, the process proceeds to step S12. In step S12, the contact position changed to the non-contact state is stored in the memory, and then the process proceeds to step S13. In step S13, the duration of contact with the touch panel 4 is determined. If it is determined that the time is longer than the predetermined time, the process proceeds to step S15. If it is determined that the time is less than the predetermined time, the process proceeds to step S14. In step S14, the character corresponding to the contact position (character button) stored and held in the memory is determined as the input character, and the process ends.
[0045]
In step S15, the input mode is set as the locus character input mode, and the process proceeds to step S16. In step S16, the mode for determining whether or not to enable the character input according to the contact position when the contact duration time on the touch panel 4 is long is determined based on the setting state by the user. The process proceeds to S14, and if it is determined that the mode is invalid, the process is terminated.
[0046]
FIG. 5 is a flowchart showing the locus character input mode processing performed by the
[0047]
First, in step S21, it is determined whether or not there is an existing contact input based on the slide contact operation trajectory data to the memory. If it is determined that there is an existing contact input, the process proceeds to step S22, and it is determined that there is not. If yes, the process proceeds to step S23. In step S22, the input process for the already touched input is performed, and then the process proceeds to step S23.
[0048]
In step S23, a process of displaying a trajectory character input screen is performed, and then the process proceeds to step S24. In this display process, the already-sliding touch operation trajectory data is also displayed based on the data converted for the trajectory character input screen. In step S24, it is determined whether or not the touch state on the touch panel 4 has changed to a non-contact state, and processing for storing the contact locus is executed until the touch state is changed to a non-contact state. Proceed to In step S25, character recognition is performed based on the contact trajectory, the input character is confirmed, and then the process ends.
[0049]
FIG. 6 is a flowchart showing a character position contact input mode (slide contact operation distance switching) process performed by the
First, in step S41, it is determined whether or not the touch state on the touch panel 4 has changed to a non-contact state. If it is determined that the touch state has changed to a non-contact state, the process proceeds to step S42. In step S42, the contact position changed to the non-contact state is stored and held in the memory, and then the process proceeds to step S43. In step S43, the slide contact operation distance to the touch panel 4 is determined. If it is determined that the distance is greater than the predetermined distance, the process proceeds to step S45, and if it is determined that the distance is less than the predetermined distance, the process proceeds to step S44. In step S44, the character corresponding to the contact position (character button) stored and held in the memory is determined as an input character, and the processing is thereafter terminated.
[0050]
On the other hand, in step S45, the input mode is switched to the trajectory character input mode, and if it is validated for the already-sliding touch operation, it can be continuously input by performing conversion processing on the already-sliding touch operation trajectory and storing it. On the other hand, if invalid, the data of the already-sliding touch operation locus is discarded and the process proceeds to step S46. In step S46, the mode for determining whether or not to enable the character input according to the contact position when the slide contact operation distance to the touch panel 4 is long is determined based on the setting state by the user, and if the mode is determined to be the effective mode. The process proceeds to step S44, and if it is determined that the mode is invalid, the process is terminated.
[0051]
By the above process, the operability when inputting characters can be remarkably improved. In the above-described processing, the case where various character input forms are used together is described as an example, but it is not necessary to use all the character input forms together, and a form in which a part of the character input forms is omitted. Even in the implementation, sufficient effects can be achieved.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a navigation system equipped with a character input device according to an embodiment of the present invention.
FIGS. 2A to 2D are screen diagrams showing display states of an input screen in the character input device according to the embodiment.
FIG. 3 is a flowchart showing a mode setting process performed by a microcomputer.
FIG. 4 is a flowchart showing a character position contact input mode (contact operation time switching) process performed by a microcomputer;
FIG. 5 is a flowchart showing locus character input mode processing performed by a microcomputer.
FIG. 6 is a flowchart showing a character position contact input mode (slide contact operation distance switching) process performed by the microcomputer;
[Explanation of symbols]
1 Display
2 Microcomputer
3 GPS sensor
4 Touch panel
5 DVD-ROM playback unit
6 DVD-ROM disc
Claims (19)
前記タッチパネルにおける各文字の操作領域を表示し、接触操作位置に対応する文字を入力文字とする文字位置接触入力モードを実行するための文字位置接触入力手段と、
前記タッチパネルにおける接触操作軌跡に基づいて文字認識を行い、認識した文字を入力文字とする軌跡文字入力モードを実行するための軌跡文字入力手段と、
複数の文字から構成される単語入力処理中に、前記文字位置接触入力モードと軌跡文字入力モードとを切り換え、文字位置接触入力と軌跡文字入力の混合入力を可能とするモード切換手段とを備えていることを特徴とする文字入力装置。In a character input device that inputs characters by touching the touch panel,
Character position contact input means for displaying an operation area of each character on the touch panel and executing a character position contact input mode using a character corresponding to the contact operation position as an input character;
Trajectory character input means for performing character recognition based on a touch operation trajectory on the touch panel and executing a trajectory character input mode using the recognized character as an input character;
Mode switching means for switching between the character position contact input mode and the locus character input mode during a word input process composed of a plurality of characters and enabling mixed input of the character position contact input and the locus character input. A character input device.
該文字位置接触入力操作時間検出手段の検出した操作時間が所定時間以上の場合に、前記モード切換手段が入力モードを前記軌跡文字入力モードに切り換えることを特徴とする請求項1〜5のいずれかの項に記載の文字入力装置。Character position contact input operation time detection means for detecting the touch operation time of the touch panel in the character position contact input mode,
6. The mode switching means switches the input mode to the locus character input mode when the operation time detected by the character position contact input operation time detection means is a predetermined time or more. The character input device described in the section.
前記文字位置接触入力手段が、当該接触操作の操作位置に対応する文字を入力文字として有効とするものであることを特徴とする請求項6記載の文字入力装置。When the contact operation time exceeds the specified time and the input mode is switched to the locus character input mode,
The character input device according to claim 6, wherein the character position contact input unit validates a character corresponding to the operation position of the contact operation as an input character.
前記文字位置接触入力手段が、当該接触操作の操作位置に対応する文字を入力文字として無効とするものであることを特徴とする請求項6記載の文字入力装置。When the contact operation time exceeds the specified time and the input mode is switched to the locus character input mode,
The character input device according to claim 6, wherein the character position contact input unit invalidates a character corresponding to the operation position of the contact operation as an input character.
当該接触操作の操作開始位置に対応する文字を入力文字として有効とするか、あるいは無効とするかを、前記文字位置接触入力手段が、利用者による設定に従い決定するものであることを特徴とする請求項6記載の文字入力装置。When the operation time exceeds the specified time and the character input mode is switched to the locus character input mode,
The character position contact input means determines whether a character corresponding to the operation start position of the contact operation is valid or invalid as an input character according to a setting by a user. The character input device according to claim 6.
前記モード切換手段が、前記接触操作位置停止時間検出手段により検出された停止時間が所定時間以上の場合に前記軌跡文字入力モードを前記文字位置接触入力モードに切り換えるものであることを特徴とする請求項1〜10のいずれかの項に記載の文字入力装置。Contact operation position stop time detection means for detecting a stop time during which the touch operation position of the touch panel does not change in the locus character input mode,
The mode switching means switches the trajectory character input mode to the character position contact input mode when the stop time detected by the contact operation position stop time detection means is a predetermined time or more. Item 11. The character input device according to any one of Items 1 to 10.
該スライド距離検出手段により検出されたスライド距離が所定距離以上である場合に、前記モード切換手段が、前記文字位置接触入力モードを前記軌跡文字入力モードに切り換えるものであることを特徴とする請求項1〜11のいずれかの項に記載の文字入力装置。A slide distance detecting means for detecting a slide distance of a slide contact operation for changing the contact position while maintaining a contact state with the touch panel in the character position contact input mode;
The mode switching means switches the character position contact input mode to the trajectory character input mode when the slide distance detected by the slide distance detection means is a predetermined distance or more. The character input device according to any one of 1 to 11.
前記文字位置接触入力手段が、前記接触操作の開始位置に対応する文字を入力文字として有効とするものであることを特徴とする請求項12記載の文字入力装置。When the slide distance is a predetermined distance or more and the character position contact input mode is switched to the locus character input mode,
13. The character input device according to claim 12, wherein the character position contact input means validates a character corresponding to the start position of the contact operation as an input character.
前記文字位置接触入力手段が、前記接触操作の開始位置に対応する文字を入力文字として無効とするものであることを特徴とする請求項12記載の文字入力装置。When the slide distance is a predetermined distance or more and the character position contact input mode is switched to the locus character input mode,
The character input device according to claim 12, wherein the character position contact input unit invalidates a character corresponding to a start position of the contact operation as an input character.
当該接触操作の操作開始位置に対応する文字を入力文字として有効とするか、あるいは無効とするかを、前記文字位置接触入力手段が、利用者による設定に従い決定するものであることを特徴とする請求項12記載の文字入力装置。When the slide distance is a predetermined distance or more and the character position contact input mode is switched to the locus character input mode,
The character position contact input means determines whether a character corresponding to the operation start position of the contact operation is valid or invalid as an input character according to a setting by a user. The character input device according to claim 12.
さらに接触操作軌跡を表示する軌跡文字表示手段と、
前記軌跡文字入力モードへ切り換わる前のスライド接触操作に基づく接触軌跡を、軌跡文字入力用の前記入力領域に対応させて変換し、前記軌跡文字表示手段に接触操作軌跡として表示できるようにする軌跡変換手段とを備えていることを特徴とする請求項16又は請求項18記載の文字入力装置。Provided with an input area for trajectory character input in the trajectory character input mode,
Furthermore, trajectory character display means for displaying the contact operation trajectory,
A trajectory that converts a contact trajectory based on a slide contact operation before switching to the trajectory character input mode in correspondence with the input area for trajectory character input and allows the trajectory character display means to display the trajectory as a contact operation trajectory. 19. The character input device according to claim 16, further comprising a conversion unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003193511A JP2005031786A (en) | 2003-07-08 | 2003-07-08 | Character input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003193511A JP2005031786A (en) | 2003-07-08 | 2003-07-08 | Character input device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005031786A true JP2005031786A (en) | 2005-02-03 |
JP2005031786A5 JP2005031786A5 (en) | 2006-08-24 |
Family
ID=34204959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003193511A Pending JP2005031786A (en) | 2003-07-08 | 2003-07-08 | Character input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005031786A (en) |
Cited By (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007145106A (en) * | 2005-11-25 | 2007-06-14 | Xanavi Informatics Corp | On-vehicle information terminal |
JP2008233483A (en) * | 2007-03-20 | 2008-10-02 | Kyocera Mita Corp | Display device and image forming apparatus equipped with the same |
JP2008269456A (en) * | 2007-04-24 | 2008-11-06 | Matsushita Electric Ind Co Ltd | Character input device and program for inputting character |
JP2010009335A (en) * | 2008-06-27 | 2010-01-14 | Kyocera Corp | Portable terminal and portable terminal control program |
US7656314B2 (en) | 2005-09-02 | 2010-02-02 | Alps Electric Co., Ltd. | Input device |
JP2010127925A (en) * | 2008-11-25 | 2010-06-10 | Elan Microelectronics Corp | Navigation system |
JP2011253252A (en) * | 2010-05-31 | 2011-12-15 | Toshiba Corp | Electronic device and input control method of the same |
JP2012048765A (en) * | 2011-12-09 | 2012-03-08 | Panasonic Corp | Input apparatus, input method and program for input |
JP2012108963A (en) * | 2012-03-09 | 2012-06-07 | Toshiba Corp | Electronic equipment, and input control method |
JP2012113755A (en) * | 2012-03-08 | 2012-06-14 | Kyocera Corp | Character input device |
JP2013051738A (en) * | 2008-03-24 | 2013-03-14 | Toshiba Lighting & Technology Corp | Monitor station for remote control and remote monitoring control system |
JP2013117925A (en) * | 2011-12-05 | 2013-06-13 | Denso Corp | Input device |
JP2013134783A (en) * | 2011-12-23 | 2013-07-08 | Eturbotouch Technology Inc | Touch key module and mode switching method |
JP2013175204A (en) * | 2013-04-03 | 2013-09-05 | Kyocera Corp | Portable terminal and portable terminal control method |
JP2014186688A (en) * | 2013-03-25 | 2014-10-02 | Kyocera Corp | Portable electronic device, control method and control program |
JP2015001865A (en) * | 2013-06-17 | 2015-01-05 | コニカミノルタ株式会社 | Image forming system, image forming apparatus, remote operation device and program |
JP2015057728A (en) * | 2014-11-12 | 2015-03-26 | 株式会社ユピテル | Information display device for vehicle |
JP2015522883A (en) * | 2012-07-13 | 2015-08-06 | サムスン エレクトロニクス カンパニー リミテッド | Application control method and apparatus using handwritten image recognition |
JP2015528167A (en) * | 2012-07-13 | 2015-09-24 | シャンハイ・シュール・(クーテック)・インフォメーション・テクノロジー・カンパニー・リミテッドShanghai Chule (Cootek) Information Technology Co, Ltd. | System and method for input assist control by sliding operation in portable terminal equipment |
JP2015207304A (en) * | 2015-06-26 | 2015-11-19 | 京セラ株式会社 | Portable terminal and portable terminal control method |
JP2016505908A (en) * | 2012-08-01 | 2016-02-25 | アップル インコーポレイテッド | Device, method and graphical user interface for entering characters |
US9706127B2 (en) | 2015-06-07 | 2017-07-11 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
JP2017519263A (en) * | 2015-03-19 | 2017-07-13 | アップル インコーポレイテッド | Touch input cursor operation |
US9753639B2 (en) | 2012-05-09 | 2017-09-05 | Apple Inc. | Device, method, and graphical user interface for displaying content associated with a corresponding affordance |
US9778771B2 (en) | 2012-12-29 | 2017-10-03 | Apple Inc. | Device, method, and graphical user interface for transitioning between touch input to display output relationships |
US9823839B2 (en) | 2012-05-09 | 2017-11-21 | Apple Inc. | Device, method, and graphical user interface for displaying additional information in response to a user contact |
JP2017208111A (en) * | 2017-06-28 | 2017-11-24 | カシオ計算機株式会社 | Electronic apparatus comprising dictionary function and program |
US9830048B2 (en) | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US9886184B2 (en) | 2012-05-09 | 2018-02-06 | Apple Inc. | Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object |
US9891811B2 (en) | 2015-06-07 | 2018-02-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9959025B2 (en) | 2012-12-29 | 2018-05-01 | Apple Inc. | Device, method, and graphical user interface for navigating user interface hierarchies |
US9990121B2 (en) | 2012-05-09 | 2018-06-05 | Apple Inc. | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
US9990107B2 (en) | 2015-03-08 | 2018-06-05 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US9996231B2 (en) | 2012-05-09 | 2018-06-12 | Apple Inc. | Device, method, and graphical user interface for manipulating framed graphical objects |
US10037138B2 (en) | 2012-12-29 | 2018-07-31 | Apple Inc. | Device, method, and graphical user interface for switching between user interfaces |
US10042542B2 (en) | 2012-05-09 | 2018-08-07 | Apple Inc. | Device, method, and graphical user interface for moving and dropping a user interface object |
US10048757B2 (en) | 2015-03-08 | 2018-08-14 | Apple Inc. | Devices and methods for controlling media presentation |
US10067645B2 (en) | 2015-03-08 | 2018-09-04 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10067653B2 (en) | 2015-04-01 | 2018-09-04 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US10073615B2 (en) | 2012-05-09 | 2018-09-11 | Apple Inc. | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
US10078442B2 (en) | 2012-12-29 | 2018-09-18 | Apple Inc. | Device, method, and graphical user interface for determining whether to scroll or select content based on an intensity theshold |
US10095391B2 (en) | 2012-05-09 | 2018-10-09 | Apple Inc. | Device, method, and graphical user interface for selecting user interface objects |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US10126930B2 (en) | 2012-05-09 | 2018-11-13 | Apple Inc. | Device, method, and graphical user interface for scrolling nested regions |
US10162452B2 (en) | 2015-08-10 | 2018-12-25 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US10168826B2 (en) | 2012-05-09 | 2019-01-01 | Apple Inc. | Device, method, and graphical user interface for transitioning between display states in response to a gesture |
US10175757B2 (en) | 2012-05-09 | 2019-01-08 | Apple Inc. | Device, method, and graphical user interface for providing tactile feedback for touch-based operations performed and reversed in a user interface |
US10175864B2 (en) | 2012-05-09 | 2019-01-08 | Apple Inc. | Device, method, and graphical user interface for selecting object within a group of objects in accordance with contact intensity |
US10200598B2 (en) | 2015-06-07 | 2019-02-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US10248308B2 (en) | 2015-08-10 | 2019-04-02 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures |
US10275087B1 (en) | 2011-08-05 | 2019-04-30 | P4tents1, LLC | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10346030B2 (en) | 2015-06-07 | 2019-07-09 | Apple Inc. | Devices and methods for navigating between user interfaces |
US10387029B2 (en) | 2015-03-08 | 2019-08-20 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US10416800B2 (en) | 2015-08-10 | 2019-09-17 | Apple Inc. | Devices, methods, and graphical user interfaces for adjusting user interface objects |
US10437333B2 (en) | 2012-12-29 | 2019-10-08 | Apple Inc. | Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture |
US10496260B2 (en) | 2012-05-09 | 2019-12-03 | Apple Inc. | Device, method, and graphical user interface for pressure-based alteration of controls in a user interface |
US10599331B2 (en) | 2015-03-19 | 2020-03-24 | Apple Inc. | Touch input cursor manipulation |
US10620781B2 (en) | 2012-12-29 | 2020-04-14 | Apple Inc. | Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics |
-
2003
- 2003-07-08 JP JP2003193511A patent/JP2005031786A/en active Pending
Cited By (132)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7656314B2 (en) | 2005-09-02 | 2010-02-02 | Alps Electric Co., Ltd. | Input device |
JP2007145106A (en) * | 2005-11-25 | 2007-06-14 | Xanavi Informatics Corp | On-vehicle information terminal |
JP2008233483A (en) * | 2007-03-20 | 2008-10-02 | Kyocera Mita Corp | Display device and image forming apparatus equipped with the same |
JP2008269456A (en) * | 2007-04-24 | 2008-11-06 | Matsushita Electric Ind Co Ltd | Character input device and program for inputting character |
JP2013051738A (en) * | 2008-03-24 | 2013-03-14 | Toshiba Lighting & Technology Corp | Monitor station for remote control and remote monitoring control system |
JP2010009335A (en) * | 2008-06-27 | 2010-01-14 | Kyocera Corp | Portable terminal and portable terminal control program |
KR101140772B1 (en) | 2008-06-27 | 2012-05-03 | 교세라 가부시키가이샤 | Portable terminal and memory medium for storing a portable terminal control program |
JP2010127925A (en) * | 2008-11-25 | 2010-06-10 | Elan Microelectronics Corp | Navigation system |
JP2011253252A (en) * | 2010-05-31 | 2011-12-15 | Toshiba Corp | Electronic device and input control method of the same |
US8723821B2 (en) | 2010-05-31 | 2014-05-13 | Kabushiki Kaisha Toshiba | Electronic apparatus and input control method |
US10365758B1 (en) | 2011-08-05 | 2019-07-30 | P4tents1, LLC | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10345961B1 (en) | 2011-08-05 | 2019-07-09 | P4tents1, LLC | Devices and methods for navigating between user interfaces |
US10664097B1 (en) | 2011-08-05 | 2020-05-26 | P4tents1, LLC | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10649571B1 (en) | 2011-08-05 | 2020-05-12 | P4tents1, LLC | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10275087B1 (en) | 2011-08-05 | 2019-04-30 | P4tents1, LLC | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10540039B1 (en) | 2011-08-05 | 2020-01-21 | P4tents1, LLC | Devices and methods for navigating between user interface |
US10338736B1 (en) | 2011-08-05 | 2019-07-02 | P4tents1, LLC | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10386960B1 (en) | 2011-08-05 | 2019-08-20 | P4tents1, LLC | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10656752B1 (en) | 2011-08-05 | 2020-05-19 | P4tents1, LLC | Gesture-equipped touch screen system, method, and computer program product |
JP2013117925A (en) * | 2011-12-05 | 2013-06-13 | Denso Corp | Input device |
JP2012048765A (en) * | 2011-12-09 | 2012-03-08 | Panasonic Corp | Input apparatus, input method and program for input |
JP2013134783A (en) * | 2011-12-23 | 2013-07-08 | Eturbotouch Technology Inc | Touch key module and mode switching method |
JP2012113755A (en) * | 2012-03-08 | 2012-06-14 | Kyocera Corp | Character input device |
JP2012108963A (en) * | 2012-03-09 | 2012-06-07 | Toshiba Corp | Electronic equipment, and input control method |
US12045451B2 (en) | 2012-05-09 | 2024-07-23 | Apple Inc. | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
US10908808B2 (en) | 2012-05-09 | 2021-02-02 | Apple Inc. | Device, method, and graphical user interface for displaying additional information in response to a user contact |
US10782871B2 (en) | 2012-05-09 | 2020-09-22 | Apple Inc. | Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object |
US10175757B2 (en) | 2012-05-09 | 2019-01-08 | Apple Inc. | Device, method, and graphical user interface for providing tactile feedback for touch-based operations performed and reversed in a user interface |
US9823839B2 (en) | 2012-05-09 | 2017-11-21 | Apple Inc. | Device, method, and graphical user interface for displaying additional information in response to a user contact |
US10175864B2 (en) | 2012-05-09 | 2019-01-08 | Apple Inc. | Device, method, and graphical user interface for selecting object within a group of objects in accordance with contact intensity |
US10592041B2 (en) | 2012-05-09 | 2020-03-17 | Apple Inc. | Device, method, and graphical user interface for transitioning between display states in response to a gesture |
US12067229B2 (en) | 2012-05-09 | 2024-08-20 | Apple Inc. | Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object |
US10168826B2 (en) | 2012-05-09 | 2019-01-01 | Apple Inc. | Device, method, and graphical user interface for transitioning between display states in response to a gesture |
US11947724B2 (en) | 2012-05-09 | 2024-04-02 | Apple Inc. | Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface |
US9886184B2 (en) | 2012-05-09 | 2018-02-06 | Apple Inc. | Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object |
US10496260B2 (en) | 2012-05-09 | 2019-12-03 | Apple Inc. | Device, method, and graphical user interface for pressure-based alteration of controls in a user interface |
US11354033B2 (en) | 2012-05-09 | 2022-06-07 | Apple Inc. | Device, method, and graphical user interface for managing icons in a user interface region |
US10481690B2 (en) | 2012-05-09 | 2019-11-19 | Apple Inc. | Device, method, and graphical user interface for providing tactile feedback for media adjustment operations performed in a user interface |
US10942570B2 (en) | 2012-05-09 | 2021-03-09 | Apple Inc. | Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface |
US9971499B2 (en) | 2012-05-09 | 2018-05-15 | Apple Inc. | Device, method, and graphical user interface for displaying content associated with a corresponding affordance |
US9990121B2 (en) | 2012-05-09 | 2018-06-05 | Apple Inc. | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
US11314407B2 (en) | 2012-05-09 | 2022-04-26 | Apple Inc. | Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object |
US9996231B2 (en) | 2012-05-09 | 2018-06-12 | Apple Inc. | Device, method, and graphical user interface for manipulating framed graphical objects |
US9753639B2 (en) | 2012-05-09 | 2017-09-05 | Apple Inc. | Device, method, and graphical user interface for displaying content associated with a corresponding affordance |
US10996788B2 (en) | 2012-05-09 | 2021-05-04 | Apple Inc. | Device, method, and graphical user interface for transitioning between display states in response to a gesture |
US10042542B2 (en) | 2012-05-09 | 2018-08-07 | Apple Inc. | Device, method, and graphical user interface for moving and dropping a user interface object |
US10884591B2 (en) | 2012-05-09 | 2021-01-05 | Apple Inc. | Device, method, and graphical user interface for selecting object within a group of objects |
US10775994B2 (en) | 2012-05-09 | 2020-09-15 | Apple Inc. | Device, method, and graphical user interface for moving and dropping a user interface object |
US11010027B2 (en) | 2012-05-09 | 2021-05-18 | Apple Inc. | Device, method, and graphical user interface for manipulating framed graphical objects |
US10775999B2 (en) | 2012-05-09 | 2020-09-15 | Apple Inc. | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
US10073615B2 (en) | 2012-05-09 | 2018-09-11 | Apple Inc. | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
US11023116B2 (en) | 2012-05-09 | 2021-06-01 | Apple Inc. | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
US10095391B2 (en) | 2012-05-09 | 2018-10-09 | Apple Inc. | Device, method, and graphical user interface for selecting user interface objects |
US11068153B2 (en) | 2012-05-09 | 2021-07-20 | Apple Inc. | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
US11221675B2 (en) | 2012-05-09 | 2022-01-11 | Apple Inc. | Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface |
US10114546B2 (en) | 2012-05-09 | 2018-10-30 | Apple Inc. | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
US10126930B2 (en) | 2012-05-09 | 2018-11-13 | Apple Inc. | Device, method, and graphical user interface for scrolling nested regions |
US10191627B2 (en) | 2012-05-09 | 2019-01-29 | Apple Inc. | Device, method, and graphical user interface for manipulating framed graphical objects |
JP2015522883A (en) * | 2012-07-13 | 2015-08-06 | サムスン エレクトロニクス カンパニー リミテッド | Application control method and apparatus using handwritten image recognition |
JP2015528167A (en) * | 2012-07-13 | 2015-09-24 | シャンハイ・シュール・(クーテック)・インフォメーション・テクノロジー・カンパニー・リミテッドShanghai Chule (Cootek) Information Technology Co, Ltd. | System and method for input assist control by sliding operation in portable terminal equipment |
JP2016505908A (en) * | 2012-08-01 | 2016-02-25 | アップル インコーポレイテッド | Device, method and graphical user interface for entering characters |
US9778771B2 (en) | 2012-12-29 | 2017-10-03 | Apple Inc. | Device, method, and graphical user interface for transitioning between touch input to display output relationships |
US10078442B2 (en) | 2012-12-29 | 2018-09-18 | Apple Inc. | Device, method, and graphical user interface for determining whether to scroll or select content based on an intensity theshold |
US9996233B2 (en) | 2012-12-29 | 2018-06-12 | Apple Inc. | Device, method, and graphical user interface for navigating user interface hierarchies |
US10185491B2 (en) | 2012-12-29 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for determining whether to scroll or enlarge content |
US10037138B2 (en) | 2012-12-29 | 2018-07-31 | Apple Inc. | Device, method, and graphical user interface for switching between user interfaces |
US10101887B2 (en) | 2012-12-29 | 2018-10-16 | Apple Inc. | Device, method, and graphical user interface for navigating user interface hierarchies |
US9965074B2 (en) | 2012-12-29 | 2018-05-08 | Apple Inc. | Device, method, and graphical user interface for transitioning between touch input to display output relationships |
US10437333B2 (en) | 2012-12-29 | 2019-10-08 | Apple Inc. | Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture |
US12050761B2 (en) | 2012-12-29 | 2024-07-30 | Apple Inc. | Device, method, and graphical user interface for transitioning from low power mode |
US10175879B2 (en) | 2012-12-29 | 2019-01-08 | Apple Inc. | Device, method, and graphical user interface for zooming a user interface while performing a drag operation |
US10620781B2 (en) | 2012-12-29 | 2020-04-14 | Apple Inc. | Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics |
US9857897B2 (en) | 2012-12-29 | 2018-01-02 | Apple Inc. | Device and method for assigning respective portions of an aggregate intensity to a plurality of contacts |
US9959025B2 (en) | 2012-12-29 | 2018-05-01 | Apple Inc. | Device, method, and graphical user interface for navigating user interface hierarchies |
US10915243B2 (en) | 2012-12-29 | 2021-02-09 | Apple Inc. | Device, method, and graphical user interface for adjusting content selection |
JP2014186688A (en) * | 2013-03-25 | 2014-10-02 | Kyocera Corp | Portable electronic device, control method and control program |
JP2013175204A (en) * | 2013-04-03 | 2013-09-05 | Kyocera Corp | Portable terminal and portable terminal control method |
US10063730B2 (en) | 2013-06-17 | 2018-08-28 | Konica Minolta, Inc. | Image forming system, image forming apparatus, remote control apparatus, and recording medium |
JP2015001865A (en) * | 2013-06-17 | 2015-01-05 | コニカミノルタ株式会社 | Image forming system, image forming apparatus, remote operation device and program |
JP2015057728A (en) * | 2014-11-12 | 2015-03-26 | 株式会社ユピテル | Information display device for vehicle |
US10387029B2 (en) | 2015-03-08 | 2019-08-20 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US10402073B2 (en) | 2015-03-08 | 2019-09-03 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US10048757B2 (en) | 2015-03-08 | 2018-08-14 | Apple Inc. | Devices and methods for controlling media presentation |
US10338772B2 (en) | 2015-03-08 | 2019-07-02 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10067645B2 (en) | 2015-03-08 | 2018-09-04 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10180772B2 (en) | 2015-03-08 | 2019-01-15 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10860177B2 (en) | 2015-03-08 | 2020-12-08 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10268341B2 (en) | 2015-03-08 | 2019-04-23 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US11977726B2 (en) | 2015-03-08 | 2024-05-07 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US11112957B2 (en) | 2015-03-08 | 2021-09-07 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US10613634B2 (en) | 2015-03-08 | 2020-04-07 | Apple Inc. | Devices and methods for controlling media presentation |
US10268342B2 (en) | 2015-03-08 | 2019-04-23 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US9990107B2 (en) | 2015-03-08 | 2018-06-05 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
JP2017519263A (en) * | 2015-03-19 | 2017-07-13 | アップル インコーポレイテッド | Touch input cursor operation |
US11054990B2 (en) | 2015-03-19 | 2021-07-06 | Apple Inc. | Touch input cursor manipulation |
US9785305B2 (en) | 2015-03-19 | 2017-10-10 | Apple Inc. | Touch input cursor manipulation |
US10599331B2 (en) | 2015-03-19 | 2020-03-24 | Apple Inc. | Touch input cursor manipulation |
US11550471B2 (en) | 2015-03-19 | 2023-01-10 | Apple Inc. | Touch input cursor manipulation |
US10152208B2 (en) | 2015-04-01 | 2018-12-11 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US10067653B2 (en) | 2015-04-01 | 2018-09-04 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US9860451B2 (en) | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US11835985B2 (en) | 2015-06-07 | 2023-12-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US11231831B2 (en) | 2015-06-07 | 2022-01-25 | Apple Inc. | Devices and methods for content preview based on touch input intensity |
US10705718B2 (en) | 2015-06-07 | 2020-07-07 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9706127B2 (en) | 2015-06-07 | 2017-07-11 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9830048B2 (en) | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US10455146B2 (en) | 2015-06-07 | 2019-10-22 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10200598B2 (en) | 2015-06-07 | 2019-02-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10841484B2 (en) | 2015-06-07 | 2020-11-17 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10346030B2 (en) | 2015-06-07 | 2019-07-09 | Apple Inc. | Devices and methods for navigating between user interfaces |
US10303354B2 (en) | 2015-06-07 | 2019-05-28 | Apple Inc. | Devices and methods for navigating between user interfaces |
US11681429B2 (en) | 2015-06-07 | 2023-06-20 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9891811B2 (en) | 2015-06-07 | 2018-02-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9916080B2 (en) | 2015-06-07 | 2018-03-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
US11240424B2 (en) | 2015-06-07 | 2022-02-01 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
JP2015207304A (en) * | 2015-06-26 | 2015-11-19 | 京セラ株式会社 | Portable terminal and portable terminal control method |
US10963158B2 (en) | 2015-08-10 | 2021-03-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10248308B2 (en) | 2015-08-10 | 2019-04-02 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures |
US10203868B2 (en) | 2015-08-10 | 2019-02-12 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10162452B2 (en) | 2015-08-10 | 2018-12-25 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US11327648B2 (en) | 2015-08-10 | 2022-05-10 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10209884B2 (en) | 2015-08-10 | 2019-02-19 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for Manipulating User Interface Objects with Visual and/or Haptic Feedback |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US11182017B2 (en) | 2015-08-10 | 2021-11-23 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US11740785B2 (en) | 2015-08-10 | 2023-08-29 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10416800B2 (en) | 2015-08-10 | 2019-09-17 | Apple Inc. | Devices, methods, and graphical user interfaces for adjusting user interface objects |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10698598B2 (en) | 2015-08-10 | 2020-06-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10754542B2 (en) | 2015-08-10 | 2020-08-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10884608B2 (en) | 2015-08-10 | 2021-01-05 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
JP2017208111A (en) * | 2017-06-28 | 2017-11-24 | カシオ計算機株式会社 | Electronic apparatus comprising dictionary function and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005031786A (en) | Character input device | |
US10135967B2 (en) | Invalid area specifying method for touch panel of mobile terminal | |
JP5658113B2 (en) | Portable information terminal | |
WO2009090704A1 (en) | Portable terminal | |
US20060084482A1 (en) | Electronic hand-held device with a back cover keypad and a related method | |
CN101414229A (en) | Method and apparatus for controlling switch of handhold electronic device touch control screen | |
EP2413232A2 (en) | Character Input Device | |
JP2013095289A (en) | Input device | |
JP2008065519A (en) | On-vehicle device | |
JP2007156991A (en) | Onboard display apparatus | |
JP2002111813A (en) | Portable communication unit of radio communication system | |
JP2005071246A (en) | Operation input device and operation input method | |
JP2007147723A (en) | Map display device | |
GB2438477A (en) | Portable electronic device having plural touchpad modes and keypad press mode of operation | |
JP2013011573A (en) | Operation device, operation method and program | |
JP2005115801A (en) | Input device | |
JP5151589B2 (en) | Key input error prevention device | |
JP2007011862A (en) | Electronic equipment and control method of electronic equipment | |
JP4908986B2 (en) | Electronic device having touch panel display function and touch panel control method | |
JP2000347784A (en) | Display controller and buttonless telephone set | |
JP2005308411A (en) | In-vehicle information terminal, and road map display method | |
JP2005128791A (en) | Display unit | |
JP6018855B2 (en) | Steering switch, steering wheel | |
JP5776525B2 (en) | Input device | |
KR20090046189A (en) | Method and apparatus for controlling operations using progress bar |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060707 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060707 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090413 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090825 |