[go: nahoru, domu]

JP2005031786A - Character input device - Google Patents

Character input device Download PDF

Info

Publication number
JP2005031786A
JP2005031786A JP2003193511A JP2003193511A JP2005031786A JP 2005031786 A JP2005031786 A JP 2005031786A JP 2003193511 A JP2003193511 A JP 2003193511A JP 2003193511 A JP2003193511 A JP 2003193511A JP 2005031786 A JP2005031786 A JP 2005031786A
Authority
JP
Japan
Prior art keywords
character
input
contact
mode
input mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003193511A
Other languages
Japanese (ja)
Other versions
JP2005031786A5 (en
Inventor
Katsunori Kasamatsu
勝徳 笠松
Akinari Mochizuki
昭成 望月
Minoru Maehata
実 前畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2003193511A priority Critical patent/JP2005031786A/en
Publication of JP2005031786A publication Critical patent/JP2005031786A/en
Publication of JP2005031786A5 publication Critical patent/JP2005031786A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a character input device which can perform an input operation of a character, a symbol, etc. more easily. <P>SOLUTION: In the character input device which performs character input by a contact operation to a touch panel 4, character recognition is performed on the basis of a character position contact input means for displaying an operation area of each character in the touch panel 4, and performing a character position contact input mode which makes characters corresponding to a contact operation position as an input character, and of a contact operation locus in the touch panel 4. The character input device is further provided with; a locus character input means for performing a locus character input mode which makes a recognized character an input character; and a mode switching means which switches a character position contact input mode and a locus character input mode in input processing of a word which consists of a plurality of characters and enables mixed input of the character position contact input and the locus character input. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、タッチパネルに対する接触操作により文字(記号を含む)入力を行うことができる文字入力装置に関する。
【0002】
【従来の技術】
最近では電子機器の多機能化が進み、利用者による操作もより一層複雑化してきている。例えば、目的地までの経路案内を行うナビゲーション装置においては、目的地設定のために、地名や施設名を入力したり、電話番号を入力する操作が頻繁に行われる。
【0003】
これら文字入力装置の代表的なものとしてはパーソナルコンピュータ等で用いられるキーボードがあるが、車載用ナビゲーション装置等の電子機器では設置スペースが限られているため、パーソナルコンピュータ用のキーボードをそのまま設置することはとてもできず、タッチパネルが装備された表示装置の画面にキーボードを表示し、該当する文字の部分に接触させることにより文字入力を行わせる方式(以下、文字位置接触入力モードと称する)がよく採用されている。
【0004】
また、別の入力モードとしては、タッチパネルに対する接触操作軌跡に基づいて文字認識を行い、認識された文字を入力文字とする方式(以下、軌跡文字入力モードと称する)(特許文献1参照)がある。
【0005】
【特許文献1】
特開平10−91727号公報
【0006】
【発明が解決しようとする課題】
上記した入力モードにはそれぞれ一長一短があり、一般的にはキーボードになれた人には文字位置接触入力モードの方が入力し易いが、キーボードになれていない人には軌跡文字入力モードが入力し易く、またキーボードになれた人でも読みが分からない場合や、画面を見ることが困難な場合には軌跡文字入力モードが入力し易くなる。
【0007】
本発明は、上記課題に鑑みなされたものであって、文字や記号等の入力操作をより容易に行うことができる文字入力装置を提供することを目的としている。
【0008】
【課題を解決するための手段及びその効果】
上記課題を解決するために、本発明に係る文字入力装置(1)は、タッチパネルに対する接触操作により文字入力を行う文字入力装置において、前記タッチパネルにおける各文字の操作領域を表示し、接触操作位置に対応する文字を入力文字とする文字位置接触入力モードを実行するための文字位置接触入力手段と、前記タッチパネルにおける接触操作軌跡に基づいて文字認識を行い、認識した文字を入力文字とする軌跡文字入力モードを実行するための軌跡文字入力手段と、複数の文字から構成される単語入力処理中に、前記文字位置接触入力モードと軌跡文字入力モードとを切り換え、文字位置接触入力と軌跡文字入力の混合入力を可能とするモード切換手段とを備えていることを特徴としている。
上記文字入力装置(1)によれば、文字位置接触入力モードと軌跡文字入力モードとを文字入力中に自在に切り換えて文字の入力を行うことができるので、文字入力をスムーズに行うことが可能となる。
【0009】
また、本発明に係る文字入力装置(2)は、上記文字入力装置(1)において、入力モードが、初期状態においては文字位置接触入力モードに設定されていることを特徴としている。
上記文字入力装置(2)によれば、文字入力開始時には何時でもより一般的な文字位置接触入力モードとなっているので、入力モードがその時その時で変わることが無く、利用者の戸惑いを無くすことができる。
【0010】
また、本発明に係る文字入力装置(3)は、上記文字入力装置(1)において、入力モードが、初期状態においては前回入力時のモードに設定されるようになっていることを特徴としている。
上記文字入力装置(3)によれば、文字入力開始時には前回の文字入力時に利用された入力モードとなるので、その利用者が良く利用する入力モードに設定される可能性が高くなり、入力モードを切り換える手間を省くことができる。
【0011】
また、本発明に係る文字入力装置(4)は、上記文字入力装置(1)〜(3)のいずれかにおいて、入力モードが、次文字入力時においては文字位置接触入力モードに設定されるようになっていることを特徴としている。
上記文字入力装置(4)によれば、次文字入力時には何時でもより一般的な文字位置接触入力モードとなるので、一時的に軌跡文字入力モードに切り換えた場合においても次文字入力時には文字位置接触入力モードへの切り換え操作をする必要がなく、操作性を向上させることができる。
【0012】
また、本発明に係る文字入力装置(5)は、上記文字入力装置(1)〜(3)のいずれかにおいて、入力モードが、次文字入力時においては前回入力時の入力モードと同じになるように、文字位置接触入力モードと軌跡文字入力モードとが選択設定されるように構成されていることを特徴としている。
上記文字入力装置(5)によれば、一連の文字を入力する際には、前記モード切換手段を介した何らかの切り換え操作が無い限り、同じ文字入力モードが維持されるので、使用者の意図しない文字入力モードへの切り換えがなされることがなく、利用者が文字入力モードの切り換わりに戸惑うことを防止できる。
【0013】
また、本発明に係る文字入力装置(6)は、上記文字入力装置(1)〜(5)のいずれかにおいて、文字位置接触入力モード時におけるタッチパネルの接触操作時間を検出する文字位置接触入力操作時間検出手段を備え、該文字位置接触入力操作時間検出手段の検出した操作時間が所定時間以上の場合に、前記モード切換手段が入力モードを前記軌跡文字入力モードに切り換えることを特徴としている。
上記文字入力装置(6)によれば、タッチパネルの接触操作時間を長くするといった接触操作位置を気にせずに行える簡単な操作により、文字入力モードが前記軌跡文字入力モードに切り換わり、文字入力をよりスムーズに行うことが可能となる。
【0014】
また、本発明に係る文字入力装置(7)は、上記文字入力装置(6)において、接触操作時間が所定時間以上となって文字入力モードが軌跡文字入力モードに切り換えられた場合に、前記文字位置接触入力手段が、当該接触操作の操作位置に対応する文字を入力文字として有効とするものであることを特徴としている。上記文字入力装置(7)によれば、接触操作時間が所定時間以上になり、文字入力モードが軌跡文字入力モードに切り換えられた場合に、その時の接触操作位置に応じた文字入力が有効となるので、文字入力と文字入力モードの切り換え操作を区別して別に行う必要が無く、操作を簡素化できる。
【0015】
また、本発明に係る文字入力装置(8)は、上記文字入力装置(6)において、接触操作時間が所定時間以上となって文字入力モードが軌跡文字入力モードに切り換えられた場合に、前記文字位置接触入力手段が、当該接触操作の操作位置に対応する文字を入力文字として無効とするものであることを特徴としている。上記文字入力装置(8)によれば、接触操作時間が所定時間以上となって文字入力モードが軌跡文字入力モードに切り換えられた場合に、文字入力モードの切り換え操作が、文字入力操作と独立したものとなるので、文字入力モードの切り換え操作が分かりやすくなる。
【0016】
また、本発明に係る文字入力装置(9)は、上記文字入力装置(6)において、操作時間が所定時間以上となって文字入力モードが軌跡文字入力モードに切り換えられた場合に、当該接触操作の操作開始位置に対応する文字を入力文字として有効とするか、あるいは無効とするかを、前記文字位置接触入力手段が、利用者による設定に従い決定するものであることを特徴としている。
上記文字入力装置(9)によれば、操作時間が所定時間以上となって文字入力モードが軌跡文字入力モードに切り換えられた場合に、接触操作の操作開始位置に対応する文字を入力文字として有効とするか、あるいは無効とするかを利用者が選択設定できるので、各利用者にとって使いやすいものとすることができる。
【0017】
また、本発明に係る文字入力装置(10)は、上記文字入力装置(1)〜(9)のいずれかにおいて、文字位置接触入力モード時におけるタッチパネルの接触操作位置に対応する入力文字を表示する対応文字表示手段を備え、前記文字位置接触入力手段が、前記タッチパネルへの接触状態が非接触状態時となった時の位置に対応する文字を確定入力文字とするものであることを特徴としている。
上記文字入力装置(10)によれば、接触開始位置ではなく、接触終了位置に応じた文字が入力されるので、接触操作位置の微小修正が可能となり、文字入力操作がよりスムーズになる。
【0018】
また、本発明に係る文字入力装置(11)は、上記文字入力装置(1)〜(10)のいずれかにおいて、軌跡文字入力モード時におけるタッチパネルの接触操作位置が変化しない停止時間を検出する接触操作位置停止時間検出手段を備え、前記モード切換手段が、前記接触操作位置停止時間検出手段により検出された停止時間が所定時間以上の場合に前記軌跡文字入力モードを前記文字位置接触入力モードに切り換えるものであることを特徴としている。
上記文字入力装置(11)によれば、前記タッチパネルに対する接触位置が変化しない時間が長くなるといった、軌跡文字入力の意志がない(あるいは入力終了)と判断できる状態になった場合に、文字入力モードを前記軌跡文字入力モードから前記文字位置接触入力モードに切り換えることができ、文字入力をスムーズに行うことが可能となる。
【0019】
また、本発明に係る文字入力装置(12)は、上記文字入力装置(1)〜(11)のいずれかにおいて、文字位置接触入力モード時におけるタッチパネルへの接触状態を維持して接触位置を変化させるスライド接触操作のスライド距離を検出するスライド距離検出手段を備え、該スライド距離検出手段により検出されたスライド距離が所定距離以上である場合に、前記モード切換手段が前記文字位置接触入力モードを前記軌跡文字入力モードに切り換えるものであることを特徴としている。
上記文字入力装置(12)によれば、利用者によるスライド接触操作を軌跡文字入力モードへの切り換えの意志とみなすことにより、前記文字位置接触入力モードから前記軌跡文字入力モードへの切り換えが行われ、文字入力をスムーズに行うことが可能となる。
【0020】
また、本発明に係る文字入力装置(13)は、上記文字入力装置(12)において、前記スライド距離が所定距離以上となって前記文字位置接触入力モードから前記軌跡文字入力モードに切り換えられた場合に、前記文字位置接触入力手段が、前記接触操作の開始位置に対応する文字を入力文字として有効とするものであることを特徴としている。
上記文字入力装置(13)によれば、スライド接触操作による文字入力モードの切り換え時に、その時の接触操作開始位置に対応した文字入力が有効となるので、文字入力と文字入力モードの切り換え操作を区別して別に行う必要が無く、操作を簡素化できる。
【0021】
また、本発明に係る文字入力装置(14)は、上記文字入力装置(12)において、前記スライド距離が所定距離以上となって前記文字位置接触入力モードから前記軌跡文字入力モードに切り換えられた場合に、前記文字位置接触入力手段が、前記接触操作の開始位置に対応する文字を入力文字として無効とするものであることを特徴としている。
上記文字入力装置(14)によれば、スライド接触操作による文字入力モードの切り換え操作が、文字入力操作と独立したものとなるので、文字入力モードの切り換え操作が分かりやすくなる。
【0022】
また、本発明に係る文字入力装置(15)は、上記文字入力装置(12)において、前記スライド距離が所定距離以上となって前記文字位置接触入力モードから前記軌跡文字入力モードに切り換えられた場合に、当該接触操作の操作開始位置に対応する文字を入力文字として有効とするか、あるいは無効とするかを、前記文字位置接触入力手段が、利用者による設定に従い決定するものであることを特徴としている。
上記文字入力装置(15)によれば、前記スライド距離が所定距離以上となって前記文字位置接触入力モードから前記軌跡文字入力モードに切り換えられた場合に、接触操作の操作開始位置に対応する文字を入力文字として有効とするか、あるいは無効とするかを利用者が選択設定できるので、各利用者にとって使いやすいものとすることができる。
【0023】
また、本発明に係る文字入力装置(16)は、上記文字入力装置(12)〜(15)のいずれかにおいて、前記軌跡文字入力手段が、前記文字位置接触入力モードから前記軌跡文字入力モードに切り換わる前のスライド接触操作も文字入力モードに含めて文字認識を行うものであることを特徴としている。
上記文字入力装置(16)によれば、前記文字位置接触入力モードから前記軌跡文字入力モードへの切り換えを意識せずに、文字の軌跡を示すスライド接触操作を行えば軌跡文字入力が行われるので、操作性を良くすることができる。
【0024】
また、本発明に係る文字入力装置(17)は、上記文字入力装置(12)〜(15)のいずれかにおいて、前記軌跡文字入力手段が、前記文字位置接触入力モードから前記軌跡文字入力モードに切り換わる前のスライド接触操作は軌跡に含めずに文字認識を行うものであることを特徴としている。
上記文字入力装置(17)によれば、前記文字位置接触入力モードから前記軌跡文字入力モードに変わったことを確認して軌跡文字入力を開始すればよいので、入力操作に慣れていない人にとっては入力操作を確実に行えるものとなる。
【0025】
また、本発明に係る文字入力装置(18)は、上記文字入力装置(1)〜(17)のいずれかにおいて、軌跡文字入力モード時における軌跡文字入力用の入力領域を備え、さらに接触操作軌跡を表示する軌跡文字表示手段を備えていることを特徴としている。
上記文字入力装置(18)によれば、軌跡文字の入力状態を確認しながら入力操作を行えるので、入力に戸惑うことを無くすことができる。
【0026】
また、本発明に係る文字入力装置(19)は、上記文字入力装置(16)又は(18)において、軌跡文字入力モード時における軌跡文字入力用の入力領域を備え、さらに接触操作軌跡を表示する軌跡文字表示手段と、前記軌跡文字入力モードへ切り換わる前のスライド接触操作に基づく接触軌跡を、軌跡文字入力用の前記入力領域に対応させて変換し、前記軌跡文字表示手段に接触操作軌跡として表示できるようにする軌跡変換手段とを備えていることを特徴としている。
上記文字入力装置(19)によれば、軌跡文字入力状態を入力有効操作分も含めて、前記軌跡文字表示手段で確認しながら入力操作が行えるので、入力に戸惑うことを無くすことができる。
【0027】
【発明の実施の形態】
以下、本発明の実施の形態に係る文字入力装置を図面に基づいて説明する。図1は実施の形態(1)に係る文字入力装置を装備したナビゲーションシステムの構成を示すブロック図である。
【0028】
GPSセンサ3は、GPS衛星からの信号を受信し、その信号から位置を算出して、ナビゲーションシステム制御用のマイクロコンピュータ(マイコン)2に出力する。DVD−ROM再生部5は、地図データが記憶されたDVD−ROM(光ディスク)6から、マイコン2の制御信号に応じて必要なデータを読み込んで、マイコン2に出力する。DVD−ROM再生部5のDVD−ROM6は交換可能となっており、地図の更新(地図DVD−ROMのバージョンアップ)に対応可能になっている。また、別の実施の形態では、DVD−ROM再生部5と、地図データが記憶されたDVD−ROM(光ディスク)6とに代わり、ハードディスク(HDD)が装備されていてもよい。
【0029】
タッチパネル4は、ナビゲーションシステム操作用のスイッチを構成しており、ディスプレイ1の前面に装備された押圧圧力の変化あるいは静電容量の変化により操作位置を検出する透明のシートスイッチや、格子状に張りめぐらされた赤外線網の遮断状態により操作位置を検出する赤外線センサを含んで構成され、ディスプレイ1に対応した座標入力、例えばディスプレイ1に表示された地図上における位置指定や、ディスプレイ1に表示された押しボタンスイッチ等の選択操作が可能となっている。操作スイッチとしてはタッチパネル4以外に、ナビゲーションシステム本体に設置された押しボタンスイッチや、赤外線リモコン装置に搭載されたON−OFFスイッチやジョイスティック(いずれも図示せず)等の方向指定用スイッチ等も装備されている。
【0030】
マイコン2は、GPSセンサ3により検出された自車位置、操作スイッチの操作状態に応じて、DVD−ROM再生部5を制御して必要な地図データ等をDVD−ROM6から読み込んだり、目的地までの経路を演算する処理等を行い、液晶表示装置で構成されたディスプレイ1に、対応する地図、経路、各種案内、そして操作案内表示等を行うようになっている。マイコン2には、各種データ、プログラムの記憶、また演算処理のために用いられるRAM及びROM(いずれも図示せず)が内蔵されている。
【0031】
そして、マイコン2は目的地の設定時や施設情報の表示時等、様々なな場面で施設情報、ニュース、交通情報、天気予報、娯楽情報等の必要な情報や、各種操作画面をディスプレイ7に表示させる制御を行う。
【0032】
次に文字入力装置について説明する。先ず文字入力装置における基本的な機能・表示について説明する。図2(A)〜(D)は文字入力装置における機能および表示状態を示す画面図である。図2にはナビゲーション装置における目的地設定を住所に基づいて行う操作において、画面に表示される種別として50音を例にあげているが、他に電話番号入力操作時における数字入力やアルファベット入力に関しても同様に適用することができる。
【0033】
先ず第1の文字入力形態について説明する。文字入力装置における表示状態は、図2(A)に示したように、50音順に各文字の押釦12が入力画面11に表示される(文字位置接触入力モード)。この入力画面11は目的地等の入力操作時に表示される。また、入力画面11の入力表示部15には既入力分の文字「こう」が表示された状態を示している(本例は、「こうべ」を入力する場合を示しており、「べ」を入力する時の状態を示している)。また、入力画面11には、その他に前後の文字にカーソルを移動させるための移動キー→、←や1文字消去キーDL等の操作キー群13や、入力表示部15に表示された文字を入力文字として確定するための確定キー14が表示され、さらに、入力モードを切り換える(文字位置接触入力モードから軌跡文字入力モードへの切り換えの)ためのモード切換釦16が表示される。ここで矢印20は指等による押圧操作を示している。
【0034】
図2(A)に示したようにモード切換釦16が押圧操作されると、文字位置接触入力モードから軌跡文字入力モードに変わり、入力画面11は図2(B)に示した手書入力画面18に切り換わる。軌跡文字入力モードの手書入力画面18には、接触移動操作の軌跡を表示する軌跡表示部19に操作軌跡が表示され、同時に操作釦表示領域17には各種押釦が表示される。そして、接触操作の後、所定時間接触操作が行われなかった場合には、既入力分の操作軌跡により文字を認識し、入力表示部15に認識文字が表示される。
操作釦表示領域17に表示される押釦としては、入力軌跡を消去するためのクリア釦17a、現入力文字(認識文字)を確定して次の文字入力(軌跡文字入力モードを維持)に移らすための次入力釦17b、認識文字を取り消すためのNG釦17c、現入力文字を確定する(文字位置接触入力モードに切り換える)ためのOK釦17d等がある。
【0035】
本例ではOK釦17d操作時に軌跡文字入力モードから文字位置接触入力モードに切り換わるようになっているが、別の実施の形態では、利用者の設定により文字位置接触入力モードに切り換わるか、軌跡文字入力モードが維持されるかを選択できるようになっており、この場合には次入力釦は不要になる。また、本例では、文字入力状態となった場合には、先ずより一般的な文字位置接触入力モードとなるように設定されているが、別の実施の形態では、この文字入力状態の初期入力モードも、利用者の設定により文字位置接触入力モードになるか、軌跡文字入力モードになるかを選択できるようになっていてもよい。
【0036】
次に第2の文字入力形態について説明する。第2の文字入力形態は、基本的には第1の文字入力形態と変わらないが、この第2の文字入力形態では、接触操作が所定時間継続した場合に、自動的に文字位置接触入力モードから軌跡文字入力モードに切り換わり、入力画面11は図2(A)に示した状態から図2(B)に示した手書入力画面18に切り換わる。この第2の文字入力形態では、原理的には切換釦16は不要であるが、切換釦16を表示しておき、接触操作時間による自動モード切換と、切換釦16によるモード切換を併用しても良い。
【0037】
また、この第2の文字入力形態では、接触操作位置20の文字釦12操作を有効にし、既入力文字として扱うことにより入力効率を上げている。接触操作位置20は、接触操作を止めた位置としている。これは、利用者が接触操作を実行する場合、目的の文字位置にすぐに接触できることは稀で、接触開始位置から目的の文字位置に微調整する場合が多いことを考慮した結果である。また、別の実施の形態では利用者の設定により、接触操作位置20の文字釦12操作を有効にするか、無効とするかを選択できるようにしても良い。
【0038】
次に第3の文字入力形態について説明する。第3の文字入力形態は、基本的には第1の文字入力形態と変わらないが、この第3の文字入力形態では、接触状態が維持されたまま接触操作位置が所定距離移動した場合(スライド接触操作された場合)に、文字位置接触入力モードから軌跡文字入力モードに自動的に切り換わり、入力画面11は図2(C)に示した状態から図2(B)に示した手書入力画面18に切り換わる。この第3の文字入力形態では、切換釦16は不要であるが、切換釦16を表示し、スライド接触操作距離によるモード切換と、切換釦16によるモード切換を併用しても良い。さらに、別の実施の形態では、スライド接触操作距離によるモード切換と、接触操作時間によるモード切換との併用、さらにスライド接触操作距離によるモード切換と、接触操作時間によるモード切換と、切換釦16によるモード切換とを併用してもよい。
【0039】
また、この第3の文字入力形態では、第2の文字入力形態の場合と同様に、接触操作位置20の文字釦12操作を有効にし、既入力文字として扱うことにより入力効率を上げている。接触操作位置20は、接触操作を止めた位置としている。これは、利用者が接触操作を実行する場合、目的の文字位置にすぐに接触できることは稀で、接触開始位置から目的の文字位置に微調整する場合が多いことを考慮した結果である。また、別の実施の形態では利用者の設定により、接触操作位置20の文字釦12操作を有効にするか、無効とするかを選択できるようにしても良い。
【0040】
さらに、手書入力画面18表示前(文字位置接触入力モード時)の、スライド接触操作軌跡も文字認識として有効としており、手書入力画面18の大きさや位置に合わせて既スライド接触操作軌跡を軌跡変換して手書入力画面18に表示するようになっている。この軌跡変換は、予め設計値として入力画面11の大きさ、位置、手書入力画面18の大きさ、位置が分かっているので、その値を用いて演算を行う。
【0041】
図3は文字入力装置におけるマイコン2が行うモード設定処理を示すフローチャートで、上述した動作を実現するためのものである。この処理はナビゲーションシステムが入力状態となった時に実行される。
【0042】
まずステップS1では、初期入力モードが、軌跡文字入力モードあるいは文字位置接触入力モード(設定無しも含む)のいずれに設定されているかを判断し、文字位置接触入力モードであると判断すればステップS2に移り、軌跡文字入力モードであると判断すればステップS6に移る。ステップS2では、入力モードを文字位置接触入力モードに確定し、その後ステップS3に移る。ステップS6では、入力モードを軌跡文字入力モードに確定し、その後ステップS3に移る。ステップS3では、入力モードの変更状態となったか否かを判断(スライド接触操作距離、接触操作時間、切換釦16操作、あるいは文字入力の完了に伴う初期入力モード等により判断)し、変更状態でないと判断すればステップS4に移る。他方、軌跡文字入力モードへの変更と判断すればステップS6に移り、また、文字位置接触入力方モードへの変更と判断すればステップS2に戻る。
【0043】
ステップS4では、文字入力が完了したか否かを判断(操作釦種別により判断)し、入力完了でないと判断すればステップS3に戻り、入力完了・次入力有りと判断すればステップS7に移り、また入力完了・次入力無しと判断すればステップS5に進む。ステップS5では、一連の文字入力、例えば地名入力が完了したとして、入力文字(単語)に応じた、例えば目的地設定等の処理を行い、その後処理を終える。
他方、ステップS7では次文字入力モードの判別を、新規(次)文字入力モードの設定状態により行い、前モード維持の場合にはステップS3に移り、軌跡文字入力モードの場合にはステップS6に移り、また文字位置接触入力モードあるいは設定無しの場合にはステップS2に戻る。
【0044】
図4は、マイコン2が行う文字位置接触入力モード(接触操作時間切換)処理を示すフローチャートで、文字位置接触入力モード時において接触操作があった時に行われる。
まずステップS11では、タッチパネル4への接触状態が非接触状態に変わったか否かの判断を行い、非接触状態に変わったと判断すればステップS12に進む。ステップS12では非接触状態に変わった接触位置をメモリに記憶保持し、その後ステップS13に移る。ステップS13ではタッチパネル4への接触継続時間長さを判別し、所定時間以上であると判断すればステップS15に移り、他方、所定時間未満であると判断すればステップS14に進む。ステップS14では、メモリに記憶保持された接触位置(文字釦)に応じた文字を入力文字として確定し、処理を終える。
【0045】
ステップS15では、入力モードを軌跡文字入力モードとしてステップS16に移る。ステップS16では、タッチパネル4への接触継続時間が長い場合の接触位置に応じた文字入力を有効とするか否かのモードを利用者による設定状態により判断し、有効モードであると判断すればステップS14に移り、無効モードであると判断すれば処理を終える。
【0046】
図5は、マイコン2が行う軌跡文字入力モード処理を示すフローチャートであり、軌跡文字入力モード時において接触操作があった時に行われる。
【0047】
まずステップS21では、既接触入力分が有ったか否かを、メモリへのスライド接触操作軌跡データに基づいて判断し、既接触入力分が有ると判断すればステップS22に進み、無いと判断すればステップS23に移る。ステップS22では既接触入力分の取り込み処理をし、その後ステップS23に進む。
【0048】
ステップS23では軌跡文字入力画面を表示する処理を行い、その後ステップS24に移る。この表示処理の際には既スライド接触操作軌跡データについても軌跡文字入力画面用に変換されたデータに基づいて表示する。ステップS24ではタッチパネル4への接触状態が非接触状態に変わったか否かを判断し、非接触状態に変わるまでは接触軌跡を記憶する処理を実行し、非接触状態になったと判断すればステップS25に進む。ステップS25では、接触軌跡に基づいて文字認識を行い、入力文字を確定し、その後処理を終える。
【0049】
図6は、マイコン2が行う文字位置接触入力モード(スライド接触操作距離切換)処理を示すフローチャートで、この処理は文字位置接触入力モード時において接触操作があった時に行われる。
まずステップS41では、タッチパネル4への接触状態が非接触状態に変わったか否かの判断を行い、非接触状態に変わったと判断すればステップS42に進む。ステップS42では非接触状態に変わった接触位置をメモリに記憶保持し、その後ステップS43に進む。ステップS43ではタッチパネル4へのスライド接触操作距離を判断し、所定距離以上であると判断すればステップS45に移り、所定距離未満であると判断すればステップS44に進む。ステップS44では、メモリに記憶保持された接触位置(文字釦)に応じた文字を入力文字として確定処理し、その後処理を終える。
【0050】
他方、ステップS45では、入力モードを軌跡文字入力モードに切り換えると共に、既スライド接触操作分について、有効とする場合には既スライド接触操作軌跡に変換処理を施して記憶することにより継続入力可能とし、また無効とする場合には既スライド接触操作軌跡のデータは破棄してステップS46に進む。ステップS46では、タッチパネル4へのスライド接触操作距離が長い場合の接触位置に応じた文字入力を有効とするか否かのモードを利用者による設定状態により判断し、有効モードであると判断すればステップS44に移り、無効モードであると判断すれば処理を終える。
【0051】
上記処理により、文字入力の際の操作性を格段に向上させることができる。尚、上述の処理では、各種の文字入力形態を併用した場合を例に挙げて説明しているが、すべての文字入力形態を併用する必要はなく、上記文字入力形態の一部を省略した形態での実施でも充分な効果をあげることができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る文字入力装置が装備されたナビゲーションシステムの概略構成を示すブロック図である。
【図2】(A)〜(D)は実施の形態に係る文字入力装置における入力画面の表示状態を示す画面図である。
【図3】マイコンが行うモード設定処理を示すフローチャートである。
【図4】マイコンが行う文字位置接触入力モード(接触操作時間切換)処理を示すフローチャートである。
【図5】マイコンが行う軌跡文字入力モード処理を示すフローチャートである。
【図6】マイコンが行う文字位置接触入力モード(スライド接触操作距離切換)処理を示すフローチャートである。
【符号の説明】
1 ディスプレイ
2 マイクロコンピュータ(マイコン)
3 GPSセンサ
4 タッチパネル
5 DVD−ROM再生部
6 DVD−ROMディスク
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a character input device capable of inputting characters (including symbols) by a touch operation on a touch panel.
[0002]
[Prior art]
Recently, electronic devices have become more multifunctional, and operations by users have become more complex. For example, in a navigation apparatus that provides route guidance to a destination, an operation of inputting a place name or facility name or inputting a telephone number is frequently performed for setting a destination.
[0003]
A typical example of these character input devices is a keyboard used in a personal computer or the like. However, since an installation space is limited in an electronic device such as an in-vehicle navigation device, a keyboard for a personal computer should be installed as it is. Is not possible, and a method of displaying characters on the screen of a display device equipped with a touch panel and inputting characters by touching the corresponding characters (hereinafter referred to as character position contact input mode) is often used. Has been.
[0004]
As another input mode, there is a method of performing character recognition based on a touch operation locus on the touch panel and using the recognized character as an input character (hereinafter referred to as locus character input mode) (see Patent Document 1). .
[0005]
[Patent Document 1]
JP-A-10-91727
[0006]
[Problems to be solved by the invention]
Each of the above input modes has their merits and demerits. Generally, the character position contact input mode is easier to input for those who are familiar with the keyboard, but the trajectory character input mode is input for those who are not the keyboard. It is easy to input the trajectory character input mode when a person who is familiar with the keyboard does not understand reading or when it is difficult to see the screen.
[0007]
The present invention has been made in view of the above problems, and an object of the present invention is to provide a character input device that can more easily input characters and symbols.
[0008]
[Means for solving the problems and effects thereof]
In order to solve the above problems, a character input device (1) according to the present invention is a character input device that performs character input by a touch operation on a touch panel, displays an operation area of each character on the touch panel, and is at a touch operation position. Character position contact input means for executing a character position contact input mode using a corresponding character as an input character, and character recognition based on a touch operation locus on the touch panel, and a trajectory character input using the recognized character as an input character Trajectory character input means for executing the mode, and switching between the character position contact input mode and the trajectory character input mode during a word input process composed of a plurality of characters, mixing character position contact input and trajectory character input And a mode switching means that enables input.
According to the character input device (1), since character input can be performed by freely switching between the character position contact input mode and the trajectory character input mode during character input, character input can be performed smoothly. It becomes.
[0009]
The character input device (2) according to the present invention is characterized in that, in the character input device (1), the input mode is set to the character position contact input mode in the initial state.
According to the character input device (2), since the character position contact input mode is more general at any time when the character input starts, the input mode does not change at that time, and the user is not confused. Can do.
[0010]
The character input device (3) according to the present invention is characterized in that, in the character input device (1), the input mode is set to the mode at the time of previous input in the initial state. .
According to the character input device (3), when the character input starts, the input mode used at the time of the previous character input is set, so that the user is likely to be set to the input mode frequently used. It is possible to save the trouble of switching.
[0011]
In the character input device (4) according to the present invention, in any one of the character input devices (1) to (3), the input mode is set to the character position contact input mode when the next character is input. It is characterized by becoming.
According to the character input device (4), when the next character is input, the character position contact input mode is more general at any time. Therefore, even when the character input is temporarily switched to the trajectory character input mode, the character position contact is performed when the next character is input. There is no need to switch to the input mode, and operability can be improved.
[0012]
In the character input device (5) according to the present invention, in any one of the character input devices (1) to (3), the input mode is the same as the input mode at the time of the previous input when the next character is input. As described above, the character position contact input mode and the trajectory character input mode are selected and set.
According to the character input device (5), when inputting a series of characters, the same character input mode is maintained unless there is any switching operation via the mode switching means, which is not intended by the user. Switching to the character input mode is not performed, and the user can be prevented from being confused about switching to the character input mode.
[0013]
The character input device (6) according to the present invention includes a character position contact input operation for detecting a touch operation time of the touch panel in the character position contact input mode in any of the character input devices (1) to (5). Time detection means is provided, and when the operation time detected by the character position contact input operation time detection means is a predetermined time or more, the mode switching means switches the input mode to the locus character input mode.
According to the character input device (6), the character input mode is switched to the trajectory character input mode by a simple operation that can be performed without worrying about the contact operation position such as extending the touch operation time of the touch panel, and character input can be performed. It becomes possible to carry out more smoothly.
[0014]
In the character input device (7) according to the present invention, the character input device (6) is configured such that when the contact operation time is longer than a predetermined time and the character input mode is switched to the trajectory character input mode. The position contact input means is characterized in that a character corresponding to the operation position of the contact operation is validated as an input character. According to the character input device (7), when the contact operation time is longer than a predetermined time and the character input mode is switched to the trajectory character input mode, the character input corresponding to the contact operation position at that time becomes valid. Therefore, it is not necessary to separately perform the switching operation between the character input and the character input mode, and the operation can be simplified.
[0015]
In the character input device (8) according to the present invention, when the character input mode is switched to the locus character input mode in the character input device (6) when the contact operation time is longer than a predetermined time and the character input mode is switched to the trajectory character input mode. The position contact input means invalidates a character corresponding to the operation position of the contact operation as an input character. According to the character input device (8), when the contact operation time is longer than a predetermined time and the character input mode is switched to the locus character input mode, the character input mode switching operation is independent of the character input operation. Therefore, the operation for switching the character input mode is easy to understand.
[0016]
Further, the character input device (9) according to the present invention is configured so that, in the character input device (6), when the operation time is longer than a predetermined time and the character input mode is switched to the locus character input mode, the touch operation is performed. The character position contact input means determines whether the character corresponding to the operation start position is valid or invalid as the input character according to the setting by the user.
According to the character input device (9), when the operation time is longer than a predetermined time and the character input mode is switched to the trajectory character input mode, the character corresponding to the operation start position of the touch operation is effective as the input character. Since it is possible for the user to select and set whether to make it invalid or invalid, it is easy for each user to use.
[0017]
The character input device (10) according to the present invention displays an input character corresponding to the touch operation position of the touch panel in the character position contact input mode in any of the character input devices (1) to (9). The character position contact input means includes a corresponding character display means, and the character corresponding to the position when the touch state of the touch panel is in a non-contact state is used as a confirmed input character. .
According to the character input device (10), since the character corresponding to the contact end position is input instead of the contact start position, the touch operation position can be finely corrected, and the character input operation becomes smoother.
[0018]
Moreover, the character input device (11) according to the present invention is a contact that detects a stop time during which the touch operation position of the touch panel does not change in the locus character input mode in any of the character input devices (1) to (10). An operation position stop time detecting means is provided, and the mode character switching means switches the locus character input mode to the character position contact input mode when the stop time detected by the contact operation position stop time detecting means is a predetermined time or more. It is characterized by being.
According to the character input device (11), when it becomes possible to determine that there is no willingness to input the trajectory character (or the input is completed) such that the time during which the touch position on the touch panel does not change is long, the character input mode Can be switched from the locus character input mode to the character position contact input mode, and the character input can be performed smoothly.
[0019]
The character input device (12) according to the present invention changes the contact position while maintaining the contact state with the touch panel in the character position contact input mode in any of the character input devices (1) to (11). Slide distance detection means for detecting the slide distance of the slide contact operation to be performed, and when the slide distance detected by the slide distance detection means is a predetermined distance or more, the mode switching means sets the character position contact input mode to It is characterized by switching to the locus character input mode.
According to the character input device (12), switching from the character position contact input mode to the locus character input mode is performed by regarding the user's intention to switch to the locus character input mode. Thus, it is possible to smoothly input characters.
[0020]
In the character input device (13) according to the present invention, in the character input device (12), when the slide distance becomes a predetermined distance or more and the character position contact input mode is switched to the trajectory character input mode. In addition, the character position contact input means is characterized in that a character corresponding to the start position of the contact operation is validated as an input character.
According to the character input device (13), when the character input mode is switched by the slide contact operation, the character input corresponding to the contact operation start position at that time becomes valid. There is no need to perform it separately, and the operation can be simplified.
[0021]
In the character input device (14) according to the present invention, the character input device (12) is switched from the character position contact input mode to the trajectory character input mode when the slide distance is equal to or greater than a predetermined distance. In addition, the character position contact input means invalidates a character corresponding to the start position of the contact operation as an input character.
According to the character input device (14), the character input mode switching operation by the slide contact operation is independent of the character input operation, so that the character input mode switching operation is easy to understand.
[0022]
In the character input device (15) according to the present invention, in the character input device (12), when the slide distance becomes a predetermined distance or more and the character position contact input mode is switched to the trajectory character input mode. The character position contact input means determines whether the character corresponding to the operation start position of the contact operation is valid or invalid as the input character according to the setting by the user. It is said.
According to the character input device (15), when the slide distance is equal to or greater than a predetermined distance and the character position contact input mode is switched to the locus character input mode, the character corresponding to the operation start position of the contact operation Since the user can select and set whether to be valid as an input character or invalid, it is easy to use for each user.
[0023]
In the character input device (16) according to the present invention, in any one of the character input devices (12) to (15), the trajectory character input means changes from the character position contact input mode to the trajectory character input mode. The slide contact operation before switching is also included in the character input mode to perform character recognition.
According to the character input device (16), the trajectory character is input by performing a slide contact operation indicating the trajectory of the character without being conscious of switching from the character position contact input mode to the trajectory character input mode. The operability can be improved.
[0024]
In the character input device (17) according to the present invention, in any one of the character input devices (12) to (15), the trajectory character input means changes from the character position contact input mode to the trajectory character input mode. The slide contact operation before switching is characterized by character recognition without being included in the trajectory.
According to the character input device (17), since it is only necessary to confirm the change from the character position contact input mode to the locus character input mode and start locus character input, for those who are not familiar with the input operation. The input operation can be performed reliably.
[0025]
A character input device (18) according to the present invention includes an input area for locus character input in the locus character input mode in any one of the character input devices (1) to (17), and further includes a touch operation locus. It is characterized by having a trajectory character display means for displaying.
According to the character input device (18), since the input operation can be performed while confirming the input state of the locus character, it is possible to avoid being confused by the input.
[0026]
A character input device (19) according to the present invention includes an input area for locus character input in the locus character input mode in the character input device (16) or (18), and further displays a contact operation locus. A trajectory character display means and a contact trajectory based on the slide contact operation before switching to the trajectory character input mode are converted corresponding to the input area for trajectory character input, and the trajectory character display means is used as a touch operation trajectory. It is characterized by having a trajectory conversion means for enabling display.
According to the character input device (19), since the input operation can be performed while confirming the locus character input state including the input valid operation by the locus character display means, it is possible to avoid being confused by the input.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a character input device according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a navigation system equipped with a character input device according to the embodiment (1).
[0028]
The GPS sensor 3 receives a signal from a GPS satellite, calculates a position from the signal, and outputs it to a microcomputer 2 for navigation system control. The DVD-ROM playback unit 5 reads necessary data from a DVD-ROM (optical disk) 6 in which map data is stored in accordance with a control signal of the microcomputer 2 and outputs the data to the microcomputer 2. The DVD-ROM 6 of the DVD-ROM playback unit 5 can be exchanged, and can be adapted to map update (map DVD-ROM version upgrade). In another embodiment, a hard disk (HDD) may be provided in place of the DVD-ROM reproducing unit 5 and the DVD-ROM (optical disk) 6 in which map data is stored.
[0029]
The touch panel 4 constitutes a switch for operating the navigation system. The touch panel 4 is a transparent sheet switch mounted on the front surface of the display 1 for detecting an operation position by a change in pressing pressure or a change in capacitance, or a grid-like switch. An infrared sensor that detects the operation position according to the interrupted state of the turned infrared network is included, and coordinate input corresponding to the display 1, for example, position designation on the map displayed on the display 1, and display on the display 1 Selection operation such as a push button switch is possible. In addition to the touch panel 4 as operation switches, push button switches installed in the navigation system main body, ON-OFF switches and joysticks (both not shown) mounted on the infrared remote control device are also equipped. Has been.
[0030]
The microcomputer 2 reads the necessary map data from the DVD-ROM 6 by controlling the DVD-ROM reproduction unit 5 according to the own vehicle position detected by the GPS sensor 3 and the operation state of the operation switch, or to the destination. And the like, and a corresponding map, route, various types of guidance, operation guidance display, and the like are performed on the display 1 constituted by a liquid crystal display device. The microcomputer 2 stores various data, programs, and a RAM and a ROM (both not shown) used for arithmetic processing.
[0031]
Then, the microcomputer 2 displays necessary information such as facility information, news, traffic information, weather forecast, entertainment information, and various operation screens on the display 7 in various scenes such as when setting a destination and displaying facility information. Control the display.
[0032]
Next, the character input device will be described. First, basic functions and display in the character input device will be described. 2A to 2D are screen views showing functions and display states in the character input device. FIG. 2 shows 50 sounds as an example of the type displayed on the screen in the operation for setting the destination in the navigation device based on the address. Can be applied similarly.
[0033]
First, the first character input form will be described. In the display state of the character input device, as shown in FIG. 2A, pushbuttons 12 for each character are displayed on the input screen 11 in the order of 50 notes (character position contact input mode). This input screen 11 is displayed at the time of input operation such as a destination. In addition, the input display section 15 of the input screen 11 shows a state in which the character “Kou” for the already input is displayed (this example shows the case where “Koube” is input. Shows the state when entering). In addition, on the input screen 11, other keys such as a movement key for moving the cursor to the previous and next characters →, an operation key group 13 such as ← and 1 character deletion key DL, and characters displayed on the input display unit 15 are input. A confirmation key 14 for confirming as a character is displayed, and a mode switching button 16 for switching the input mode (switching from the character position contact input mode to the locus character input mode) is displayed. Here, an arrow 20 indicates a pressing operation with a finger or the like.
[0034]
When the mode switching button 16 is pressed as shown in FIG. 2A, the character position contact input mode is changed to the locus character input mode, and the input screen 11 is the handwriting input screen shown in FIG. Switch to 18. On the handwriting input screen 18 in the locus character input mode, the operation locus is displayed on the locus display unit 19 for displaying the locus of the contact movement operation, and at the same time, various push buttons are displayed on the operation button display area 17. If the contact operation is not performed for a predetermined time after the contact operation, the character is recognized by the operation locus for the input, and the recognized character is displayed on the input display unit 15.
The push button displayed in the operation button display area 17 includes a clear button 17a for erasing the input locus, confirming the current input character (recognized character), and moving to the next character input (maintaining the locus character input mode). A next input button 17b for canceling the recognized character, an NG button 17c for canceling the recognized character, an OK button 17d for confirming the current input character (switching to the character position contact input mode), and the like.
[0035]
In this example, when the OK button 17d is operated, the locus character input mode is switched to the character position contact input mode. However, in another embodiment, the character position contact input mode is switched according to the user setting. Whether the locus character input mode is maintained can be selected. In this case, the next input button is not necessary. Further, in this example, when the character input state is entered, first, a more general character position contact input mode is set. However, in another embodiment, this character input state initial input is set. As for the mode, it may be possible to select whether to enter the character position contact input mode or the trajectory character input mode according to the setting of the user.
[0036]
Next, the second character input form will be described. The second character input form is basically the same as the first character input form. However, in the second character input form, when the contact operation continues for a predetermined time, the character position contact input mode is automatically set. From the state shown in FIG. 2 (A) to the handwriting input screen 18 shown in FIG. 2 (B). In the second character input mode, the switching button 16 is not necessary in principle, but the switching button 16 is displayed and the automatic mode switching based on the contact operation time and the mode switching by the switching button 16 are used in combination. Also good.
[0037]
Further, in this second character input form, the input efficiency is increased by enabling the character button 12 operation at the contact operation position 20 and treating it as an already input character. The contact operation position 20 is a position where the contact operation is stopped. This is a result of considering that when the user performs a contact operation, it is rare that the user can immediately touch the target character position, and fine adjustment is often performed from the contact start position to the target character position. In another embodiment, it may be possible to select whether to enable or disable the operation of the character button 12 at the contact operation position 20 according to a user setting.
[0038]
Next, a third character input form will be described. The third character input form is basically the same as the first character input form. However, in the third character input form, the contact operation position is moved by a predetermined distance while the contact state is maintained (slide). When the touch operation is performed), the character position contact input mode is automatically switched to the trajectory character input mode, and the input screen 11 is changed from the state shown in FIG. 2C to the handwriting input shown in FIG. 2B. The screen is switched to the screen 18. In the third character input mode, the switching button 16 is not required, but the switching button 16 may be displayed, and mode switching based on the slide contact operation distance and mode switching based on the switching button 16 may be used in combination. Furthermore, in another embodiment, the mode switching based on the slide contact operation distance and the mode switching based on the contact operation time are combined, the mode switching based on the slide contact operation distance, the mode switching based on the contact operation time, and the switching button 16. You may use mode switching together.
[0039]
Further, in the third character input form, as in the case of the second character input form, the character button 12 operation at the contact operation position 20 is validated and handled as an already input character, thereby increasing the input efficiency. The contact operation position 20 is a position where the contact operation is stopped. This is a result of considering that when the user performs a contact operation, it is rare that the user can immediately touch the target character position, and fine adjustment is often performed from the contact start position to the target character position. In another embodiment, it may be possible to select whether to enable or disable the operation of the character button 12 at the contact operation position 20 according to a user setting.
[0040]
Furthermore, the slide contact operation locus before the handwriting input screen 18 is displayed (in the character position contact input mode) is also effective as character recognition, and the existing slide contact operation locus is locusd according to the size and position of the handwriting input screen 18. It is converted and displayed on the handwriting input screen 18. In this trajectory conversion, since the size and position of the input screen 11 and the size and position of the handwriting input screen 18 are known in advance as design values, calculation is performed using those values.
[0041]
FIG. 3 is a flowchart showing a mode setting process performed by the microcomputer 2 in the character input device, for realizing the above-described operation. This process is executed when the navigation system enters the input state.
[0042]
First, in step S1, it is determined whether the initial input mode is set to the locus character input mode or the character position contact input mode (including no setting), and if it is determined to be the character position contact input mode, step S2 is performed. If it is determined that the trajectory character input mode is selected, the process proceeds to step S6. In step S2, the input mode is fixed to the character position contact input mode, and then the process proceeds to step S3. In step S6, the input mode is fixed to the locus character input mode, and then the process proceeds to step S3. In step S3, it is determined whether or not the input mode has been changed (determined based on the slide contact operation distance, contact operation time, switch button 16 operation, initial input mode associated with completion of character input, etc.), and is not changed. If it judges, it will move to step S4. On the other hand, if it is determined to change to the locus character input mode, the process proceeds to step S6. If it is determined to change to the character position contact input mode, the process returns to step S2.
[0043]
In step S4, it is determined whether or not the character input is completed (determined based on the type of operation button). If it is determined that the input is not completed, the process returns to step S3. If it is determined that the input is completed and there is no next input, the process proceeds to step S5. In step S5, assuming that a series of character input, for example, place name input, has been completed, processing such as destination setting is performed according to the input character (word), and the processing is thereafter terminated.
On the other hand, in step S7, the next character input mode is determined based on the setting state of the new (next) character input mode. If the previous mode is maintained, the process proceeds to step S3. If the trajectory character input mode is selected, the process proceeds to step S6. If the character position contact input mode or no setting is made, the process returns to step S2.
[0044]
FIG. 4 is a flowchart showing a character position contact input mode (contact operation time switching) process performed by the microcomputer 2, and is performed when a contact operation is performed in the character position contact input mode.
First, in step S11, it is determined whether or not the touch state on the touch panel 4 has changed to the non-contact state. If it is determined that the touch state has changed to the non-contact state, the process proceeds to step S12. In step S12, the contact position changed to the non-contact state is stored in the memory, and then the process proceeds to step S13. In step S13, the duration of contact with the touch panel 4 is determined. If it is determined that the time is longer than the predetermined time, the process proceeds to step S15. If it is determined that the time is less than the predetermined time, the process proceeds to step S14. In step S14, the character corresponding to the contact position (character button) stored and held in the memory is determined as the input character, and the process ends.
[0045]
In step S15, the input mode is set as the locus character input mode, and the process proceeds to step S16. In step S16, the mode for determining whether or not to enable the character input according to the contact position when the contact duration time on the touch panel 4 is long is determined based on the setting state by the user. The process proceeds to S14, and if it is determined that the mode is invalid, the process is terminated.
[0046]
FIG. 5 is a flowchart showing the locus character input mode processing performed by the microcomputer 2, and is performed when a touch operation is performed in the locus character input mode.
[0047]
First, in step S21, it is determined whether or not there is an existing contact input based on the slide contact operation trajectory data to the memory. If it is determined that there is an existing contact input, the process proceeds to step S22, and it is determined that there is not. If yes, the process proceeds to step S23. In step S22, the input process for the already touched input is performed, and then the process proceeds to step S23.
[0048]
In step S23, a process of displaying a trajectory character input screen is performed, and then the process proceeds to step S24. In this display process, the already-sliding touch operation trajectory data is also displayed based on the data converted for the trajectory character input screen. In step S24, it is determined whether or not the touch state on the touch panel 4 has changed to a non-contact state, and processing for storing the contact locus is executed until the touch state is changed to a non-contact state. Proceed to In step S25, character recognition is performed based on the contact trajectory, the input character is confirmed, and then the process ends.
[0049]
FIG. 6 is a flowchart showing a character position contact input mode (slide contact operation distance switching) process performed by the microcomputer 2, and this process is performed when a contact operation is performed in the character position contact input mode.
First, in step S41, it is determined whether or not the touch state on the touch panel 4 has changed to a non-contact state. If it is determined that the touch state has changed to a non-contact state, the process proceeds to step S42. In step S42, the contact position changed to the non-contact state is stored and held in the memory, and then the process proceeds to step S43. In step S43, the slide contact operation distance to the touch panel 4 is determined. If it is determined that the distance is greater than the predetermined distance, the process proceeds to step S45, and if it is determined that the distance is less than the predetermined distance, the process proceeds to step S44. In step S44, the character corresponding to the contact position (character button) stored and held in the memory is determined as an input character, and the processing is thereafter terminated.
[0050]
On the other hand, in step S45, the input mode is switched to the trajectory character input mode, and if it is validated for the already-sliding touch operation, it can be continuously input by performing conversion processing on the already-sliding touch operation trajectory and storing it. On the other hand, if invalid, the data of the already-sliding touch operation locus is discarded and the process proceeds to step S46. In step S46, the mode for determining whether or not to enable the character input according to the contact position when the slide contact operation distance to the touch panel 4 is long is determined based on the setting state by the user, and if the mode is determined to be the effective mode. The process proceeds to step S44, and if it is determined that the mode is invalid, the process is terminated.
[0051]
By the above process, the operability when inputting characters can be remarkably improved. In the above-described processing, the case where various character input forms are used together is described as an example, but it is not necessary to use all the character input forms together, and a form in which a part of the character input forms is omitted. Even in the implementation, sufficient effects can be achieved.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a navigation system equipped with a character input device according to an embodiment of the present invention.
FIGS. 2A to 2D are screen diagrams showing display states of an input screen in the character input device according to the embodiment.
FIG. 3 is a flowchart showing a mode setting process performed by a microcomputer.
FIG. 4 is a flowchart showing a character position contact input mode (contact operation time switching) process performed by a microcomputer;
FIG. 5 is a flowchart showing locus character input mode processing performed by a microcomputer.
FIG. 6 is a flowchart showing a character position contact input mode (slide contact operation distance switching) process performed by the microcomputer;
[Explanation of symbols]
1 Display
2 Microcomputer
3 GPS sensor
4 Touch panel
5 DVD-ROM playback unit
6 DVD-ROM disc

Claims (19)

タッチパネルに対する接触操作により文字入力を行う文字入力装置において、
前記タッチパネルにおける各文字の操作領域を表示し、接触操作位置に対応する文字を入力文字とする文字位置接触入力モードを実行するための文字位置接触入力手段と、
前記タッチパネルにおける接触操作軌跡に基づいて文字認識を行い、認識した文字を入力文字とする軌跡文字入力モードを実行するための軌跡文字入力手段と、
複数の文字から構成される単語入力処理中に、前記文字位置接触入力モードと軌跡文字入力モードとを切り換え、文字位置接触入力と軌跡文字入力の混合入力を可能とするモード切換手段とを備えていることを特徴とする文字入力装置。
In a character input device that inputs characters by touching the touch panel,
Character position contact input means for displaying an operation area of each character on the touch panel and executing a character position contact input mode using a character corresponding to the contact operation position as an input character;
Trajectory character input means for performing character recognition based on a touch operation trajectory on the touch panel and executing a trajectory character input mode using the recognized character as an input character;
Mode switching means for switching between the character position contact input mode and the locus character input mode during a word input process composed of a plurality of characters and enabling mixed input of the character position contact input and the locus character input. A character input device.
入力モードが、初期状態においては文字位置接触入力モードに設定されていることを特徴とする請求項1記載の文字入力装置。The character input device according to claim 1, wherein the input mode is set to a character position contact input mode in an initial state. 入力モードが、初期状態においては前回入力時のモードに設定されるようになっていることを特徴とする請求項1記載の文字入力装置。2. The character input device according to claim 1, wherein the input mode is set to the previous input mode in the initial state. 入力モードが、次文字入力時においては文字位置接触入力モードに設定されるようになっていることを特徴とする請求項1〜3のいずれかの項に記載の文字入力装置。The character input device according to any one of claims 1 to 3, wherein the input mode is set to a character position contact input mode when the next character is input. 入力モードが、次文字入力時においては前回入力時の入力モードと同じになるように、文字位置接触入力モードと軌跡文字入力モードとが選択設定されるように構成されていることを特徴とする請求項1〜3のいずれかの項に記載の文字入力装置。The character position contact input mode and the trajectory character input mode are configured to be selected and set so that the input mode is the same as the input mode at the previous input when the next character is input. The character input device according to claim 1. 文字位置接触入力モード時におけるタッチパネルの接触操作時間を検出する文字位置接触入力操作時間検出手段を備え、
該文字位置接触入力操作時間検出手段の検出した操作時間が所定時間以上の場合に、前記モード切換手段が入力モードを前記軌跡文字入力モードに切り換えることを特徴とする請求項1〜5のいずれかの項に記載の文字入力装置。
Character position contact input operation time detection means for detecting the touch operation time of the touch panel in the character position contact input mode,
6. The mode switching means switches the input mode to the locus character input mode when the operation time detected by the character position contact input operation time detection means is a predetermined time or more. The character input device described in the section.
接触操作時間が所定時間以上となって入力モードが軌跡文字入力モードに切り換えられた場合に、
前記文字位置接触入力手段が、当該接触操作の操作位置に対応する文字を入力文字として有効とするものであることを特徴とする請求項6記載の文字入力装置。
When the contact operation time exceeds the specified time and the input mode is switched to the locus character input mode,
The character input device according to claim 6, wherein the character position contact input unit validates a character corresponding to the operation position of the contact operation as an input character.
接触操作時間が所定時間以上となって入力モードが軌跡文字入力モードに切り換えられた場合に、
前記文字位置接触入力手段が、当該接触操作の操作位置に対応する文字を入力文字として無効とするものであることを特徴とする請求項6記載の文字入力装置。
When the contact operation time exceeds the specified time and the input mode is switched to the locus character input mode,
The character input device according to claim 6, wherein the character position contact input unit invalidates a character corresponding to the operation position of the contact operation as an input character.
操作時間が所定時間以上となって文字入力モードが軌跡文字入力モードに切り換えられた場合に、
当該接触操作の操作開始位置に対応する文字を入力文字として有効とするか、あるいは無効とするかを、前記文字位置接触入力手段が、利用者による設定に従い決定するものであることを特徴とする請求項6記載の文字入力装置。
When the operation time exceeds the specified time and the character input mode is switched to the locus character input mode,
The character position contact input means determines whether a character corresponding to the operation start position of the contact operation is valid or invalid as an input character according to a setting by a user. The character input device according to claim 6.
文字位置接触入力モード時におけるタッチパネルの接触操作位置に対応する入力文字を表示する対応文字表示手段を備え、前記文字位置接触入力手段が、前記タッチパネルへの接触状態が非接触状態時となった時の位置に対応する文字を確定入力文字とするものであることを特徴とする請求項1〜9のいずれかの項に記載の文字入力装置。When the character position contact input means includes a corresponding character display means for displaying an input character corresponding to the touch operation position of the touch panel in the character position contact input mode, and the character position contact input means is in a non-contact state when in contact with the touch panel. The character input device according to claim 1, wherein the character corresponding to the position of the character is a confirmed input character. 軌跡文字入力モード時におけるタッチパネルの接触操作位置が変化しない停止時間を検出する接触操作位置停止時間検出手段を備え、
前記モード切換手段が、前記接触操作位置停止時間検出手段により検出された停止時間が所定時間以上の場合に前記軌跡文字入力モードを前記文字位置接触入力モードに切り換えるものであることを特徴とする請求項1〜10のいずれかの項に記載の文字入力装置。
Contact operation position stop time detection means for detecting a stop time during which the touch operation position of the touch panel does not change in the locus character input mode,
The mode switching means switches the trajectory character input mode to the character position contact input mode when the stop time detected by the contact operation position stop time detection means is a predetermined time or more. Item 11. The character input device according to any one of Items 1 to 10.
文字位置接触入力モード時におけるタッチパネルへの接触状態を維持して接触位置を変化させるスライド接触操作のスライド距離を検出するスライド距離検出手段を備え、
該スライド距離検出手段により検出されたスライド距離が所定距離以上である場合に、前記モード切換手段が、前記文字位置接触入力モードを前記軌跡文字入力モードに切り換えるものであることを特徴とする請求項1〜11のいずれかの項に記載の文字入力装置。
A slide distance detecting means for detecting a slide distance of a slide contact operation for changing the contact position while maintaining a contact state with the touch panel in the character position contact input mode;
The mode switching means switches the character position contact input mode to the trajectory character input mode when the slide distance detected by the slide distance detection means is a predetermined distance or more. The character input device according to any one of 1 to 11.
前記スライド距離が所定距離以上となって前記文字位置接触入力モードから前記軌跡文字入力モードに切り換えられた場合に、
前記文字位置接触入力手段が、前記接触操作の開始位置に対応する文字を入力文字として有効とするものであることを特徴とする請求項12記載の文字入力装置。
When the slide distance is a predetermined distance or more and the character position contact input mode is switched to the locus character input mode,
13. The character input device according to claim 12, wherein the character position contact input means validates a character corresponding to the start position of the contact operation as an input character.
前記スライド距離が所定距離以上となって前記文字位置接触入力モードから前記軌跡文字入力モードに切り換えられた場合に、
前記文字位置接触入力手段が、前記接触操作の開始位置に対応する文字を入力文字として無効とするものであることを特徴とする請求項12記載の文字入力装置。
When the slide distance is a predetermined distance or more and the character position contact input mode is switched to the locus character input mode,
The character input device according to claim 12, wherein the character position contact input unit invalidates a character corresponding to a start position of the contact operation as an input character.
前記スライド距離が所定距離以上となって前記文字位置接触入力モードから前記軌跡文字入力モードに切り換えられた場合に、
当該接触操作の操作開始位置に対応する文字を入力文字として有効とするか、あるいは無効とするかを、前記文字位置接触入力手段が、利用者による設定に従い決定するものであることを特徴とする請求項12記載の文字入力装置。
When the slide distance is a predetermined distance or more and the character position contact input mode is switched to the locus character input mode,
The character position contact input means determines whether a character corresponding to the operation start position of the contact operation is valid or invalid as an input character according to a setting by a user. The character input device according to claim 12.
前記軌跡文字入力手段が、前記文字位置接触入力モードから前記軌跡文字入力モードに切り換わる前のスライド接触操作も文字入力モードに含めて文字認識を行うものであることを特徴とする請求項12〜15のいずれかの項に記載の文字入力装置。13. The trajectory character input means performs character recognition including a slide touch operation before switching from the character position contact input mode to the trajectory character input mode in the character input mode. The character input device according to any one of 15 items. 前記軌跡文字入力手段が、前記文字位置接触入力モードから前記軌跡文字入力モードに切り換わる前のスライド接触操作は軌跡に含めずに文字認識を行うものであることを特徴とする請求項12〜15のいずれかの項に記載の文字入力装置。16. The trajectory character input means performs character recognition without including a slide touch operation before switching from the character position contact input mode to the trajectory character input mode in the trajectory. The character input device according to any one of the above. 軌跡文字入力モード時における軌跡文字入力用の入力領域を備え、さらに接触操作軌跡を表示する軌跡文字表示手段を備えていることを特徴とする請求項1〜17のいずれかの項に記載の文字入力装置。The character according to any one of claims 1 to 17, further comprising an input area for inputting a trajectory character in the trajectory character input mode, and further comprising a trajectory character display means for displaying a touch operation trajectory. Input device. 軌跡文字入力モード時における軌跡文字入力用の入力領域を備え、
さらに接触操作軌跡を表示する軌跡文字表示手段と、
前記軌跡文字入力モードへ切り換わる前のスライド接触操作に基づく接触軌跡を、軌跡文字入力用の前記入力領域に対応させて変換し、前記軌跡文字表示手段に接触操作軌跡として表示できるようにする軌跡変換手段とを備えていることを特徴とする請求項16又は請求項18記載の文字入力装置。
Provided with an input area for trajectory character input in the trajectory character input mode,
Furthermore, trajectory character display means for displaying the contact operation trajectory,
A trajectory that converts a contact trajectory based on a slide contact operation before switching to the trajectory character input mode in correspondence with the input area for trajectory character input and allows the trajectory character display means to display the trajectory as a contact operation trajectory. 19. The character input device according to claim 16, further comprising a conversion unit.
JP2003193511A 2003-07-08 2003-07-08 Character input device Pending JP2005031786A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003193511A JP2005031786A (en) 2003-07-08 2003-07-08 Character input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003193511A JP2005031786A (en) 2003-07-08 2003-07-08 Character input device

Publications (2)

Publication Number Publication Date
JP2005031786A true JP2005031786A (en) 2005-02-03
JP2005031786A5 JP2005031786A5 (en) 2006-08-24

Family

ID=34204959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003193511A Pending JP2005031786A (en) 2003-07-08 2003-07-08 Character input device

Country Status (1)

Country Link
JP (1) JP2005031786A (en)

Cited By (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007145106A (en) * 2005-11-25 2007-06-14 Xanavi Informatics Corp On-vehicle information terminal
JP2008233483A (en) * 2007-03-20 2008-10-02 Kyocera Mita Corp Display device and image forming apparatus equipped with the same
JP2008269456A (en) * 2007-04-24 2008-11-06 Matsushita Electric Ind Co Ltd Character input device and program for inputting character
JP2010009335A (en) * 2008-06-27 2010-01-14 Kyocera Corp Portable terminal and portable terminal control program
US7656314B2 (en) 2005-09-02 2010-02-02 Alps Electric Co., Ltd. Input device
JP2010127925A (en) * 2008-11-25 2010-06-10 Elan Microelectronics Corp Navigation system
JP2011253252A (en) * 2010-05-31 2011-12-15 Toshiba Corp Electronic device and input control method of the same
JP2012048765A (en) * 2011-12-09 2012-03-08 Panasonic Corp Input apparatus, input method and program for input
JP2012108963A (en) * 2012-03-09 2012-06-07 Toshiba Corp Electronic equipment, and input control method
JP2012113755A (en) * 2012-03-08 2012-06-14 Kyocera Corp Character input device
JP2013051738A (en) * 2008-03-24 2013-03-14 Toshiba Lighting & Technology Corp Monitor station for remote control and remote monitoring control system
JP2013117925A (en) * 2011-12-05 2013-06-13 Denso Corp Input device
JP2013134783A (en) * 2011-12-23 2013-07-08 Eturbotouch Technology Inc Touch key module and mode switching method
JP2013175204A (en) * 2013-04-03 2013-09-05 Kyocera Corp Portable terminal and portable terminal control method
JP2014186688A (en) * 2013-03-25 2014-10-02 Kyocera Corp Portable electronic device, control method and control program
JP2015001865A (en) * 2013-06-17 2015-01-05 コニカミノルタ株式会社 Image forming system, image forming apparatus, remote operation device and program
JP2015057728A (en) * 2014-11-12 2015-03-26 株式会社ユピテル Information display device for vehicle
JP2015522883A (en) * 2012-07-13 2015-08-06 サムスン エレクトロニクス カンパニー リミテッド Application control method and apparatus using handwritten image recognition
JP2015528167A (en) * 2012-07-13 2015-09-24 シャンハイ・シュール・(クーテック)・インフォメーション・テクノロジー・カンパニー・リミテッドShanghai Chule (Cootek) Information Technology Co, Ltd. System and method for input assist control by sliding operation in portable terminal equipment
JP2015207304A (en) * 2015-06-26 2015-11-19 京セラ株式会社 Portable terminal and portable terminal control method
JP2016505908A (en) * 2012-08-01 2016-02-25 アップル インコーポレイテッド Device, method and graphical user interface for entering characters
US9706127B2 (en) 2015-06-07 2017-07-11 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
JP2017519263A (en) * 2015-03-19 2017-07-13 アップル インコーポレイテッド Touch input cursor operation
US9753639B2 (en) 2012-05-09 2017-09-05 Apple Inc. Device, method, and graphical user interface for displaying content associated with a corresponding affordance
US9778771B2 (en) 2012-12-29 2017-10-03 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
US9823839B2 (en) 2012-05-09 2017-11-21 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
JP2017208111A (en) * 2017-06-28 2017-11-24 カシオ計算機株式会社 Electronic apparatus comprising dictionary function and program
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9886184B2 (en) 2012-05-09 2018-02-06 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9959025B2 (en) 2012-12-29 2018-05-01 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US9990121B2 (en) 2012-05-09 2018-06-05 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9996231B2 (en) 2012-05-09 2018-06-12 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10037138B2 (en) 2012-12-29 2018-07-31 Apple Inc. Device, method, and graphical user interface for switching between user interfaces
US10042542B2 (en) 2012-05-09 2018-08-07 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US10067645B2 (en) 2015-03-08 2018-09-04 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10073615B2 (en) 2012-05-09 2018-09-11 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10078442B2 (en) 2012-12-29 2018-09-18 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or select content based on an intensity theshold
US10095391B2 (en) 2012-05-09 2018-10-09 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10126930B2 (en) 2012-05-09 2018-11-13 Apple Inc. Device, method, and graphical user interface for scrolling nested regions
US10162452B2 (en) 2015-08-10 2018-12-25 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10168826B2 (en) 2012-05-09 2019-01-01 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10175757B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for touch-based operations performed and reversed in a user interface
US10175864B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects in accordance with contact intensity
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10275087B1 (en) 2011-08-05 2019-04-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10387029B2 (en) 2015-03-08 2019-08-20 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10437333B2 (en) 2012-12-29 2019-10-08 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US10599331B2 (en) 2015-03-19 2020-03-24 Apple Inc. Touch input cursor manipulation
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics

Cited By (132)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7656314B2 (en) 2005-09-02 2010-02-02 Alps Electric Co., Ltd. Input device
JP2007145106A (en) * 2005-11-25 2007-06-14 Xanavi Informatics Corp On-vehicle information terminal
JP2008233483A (en) * 2007-03-20 2008-10-02 Kyocera Mita Corp Display device and image forming apparatus equipped with the same
JP2008269456A (en) * 2007-04-24 2008-11-06 Matsushita Electric Ind Co Ltd Character input device and program for inputting character
JP2013051738A (en) * 2008-03-24 2013-03-14 Toshiba Lighting & Technology Corp Monitor station for remote control and remote monitoring control system
JP2010009335A (en) * 2008-06-27 2010-01-14 Kyocera Corp Portable terminal and portable terminal control program
KR101140772B1 (en) 2008-06-27 2012-05-03 교세라 가부시키가이샤 Portable terminal and memory medium for storing a portable terminal control program
JP2010127925A (en) * 2008-11-25 2010-06-10 Elan Microelectronics Corp Navigation system
JP2011253252A (en) * 2010-05-31 2011-12-15 Toshiba Corp Electronic device and input control method of the same
US8723821B2 (en) 2010-05-31 2014-05-13 Kabushiki Kaisha Toshiba Electronic apparatus and input control method
US10365758B1 (en) 2011-08-05 2019-07-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10345961B1 (en) 2011-08-05 2019-07-09 P4tents1, LLC Devices and methods for navigating between user interfaces
US10664097B1 (en) 2011-08-05 2020-05-26 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10649571B1 (en) 2011-08-05 2020-05-12 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10275087B1 (en) 2011-08-05 2019-04-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10540039B1 (en) 2011-08-05 2020-01-21 P4tents1, LLC Devices and methods for navigating between user interface
US10338736B1 (en) 2011-08-05 2019-07-02 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10386960B1 (en) 2011-08-05 2019-08-20 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10656752B1 (en) 2011-08-05 2020-05-19 P4tents1, LLC Gesture-equipped touch screen system, method, and computer program product
JP2013117925A (en) * 2011-12-05 2013-06-13 Denso Corp Input device
JP2012048765A (en) * 2011-12-09 2012-03-08 Panasonic Corp Input apparatus, input method and program for input
JP2013134783A (en) * 2011-12-23 2013-07-08 Eturbotouch Technology Inc Touch key module and mode switching method
JP2012113755A (en) * 2012-03-08 2012-06-14 Kyocera Corp Character input device
JP2012108963A (en) * 2012-03-09 2012-06-07 Toshiba Corp Electronic equipment, and input control method
US12045451B2 (en) 2012-05-09 2024-07-23 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US10908808B2 (en) 2012-05-09 2021-02-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US10782871B2 (en) 2012-05-09 2020-09-22 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10175757B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for touch-based operations performed and reversed in a user interface
US9823839B2 (en) 2012-05-09 2017-11-21 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US10175864B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects in accordance with contact intensity
US10592041B2 (en) 2012-05-09 2020-03-17 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US12067229B2 (en) 2012-05-09 2024-08-20 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10168826B2 (en) 2012-05-09 2019-01-01 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US11947724B2 (en) 2012-05-09 2024-04-02 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US9886184B2 (en) 2012-05-09 2018-02-06 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US11354033B2 (en) 2012-05-09 2022-06-07 Apple Inc. Device, method, and graphical user interface for managing icons in a user interface region
US10481690B2 (en) 2012-05-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for media adjustment operations performed in a user interface
US10942570B2 (en) 2012-05-09 2021-03-09 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US9971499B2 (en) 2012-05-09 2018-05-15 Apple Inc. Device, method, and graphical user interface for displaying content associated with a corresponding affordance
US9990121B2 (en) 2012-05-09 2018-06-05 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US11314407B2 (en) 2012-05-09 2022-04-26 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US9996231B2 (en) 2012-05-09 2018-06-12 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US9753639B2 (en) 2012-05-09 2017-09-05 Apple Inc. Device, method, and graphical user interface for displaying content associated with a corresponding affordance
US10996788B2 (en) 2012-05-09 2021-05-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10042542B2 (en) 2012-05-09 2018-08-07 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US10884591B2 (en) 2012-05-09 2021-01-05 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects
US10775994B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10775999B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10073615B2 (en) 2012-05-09 2018-09-11 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US10095391B2 (en) 2012-05-09 2018-10-09 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US11068153B2 (en) 2012-05-09 2021-07-20 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US11221675B2 (en) 2012-05-09 2022-01-11 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10114546B2 (en) 2012-05-09 2018-10-30 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10126930B2 (en) 2012-05-09 2018-11-13 Apple Inc. Device, method, and graphical user interface for scrolling nested regions
US10191627B2 (en) 2012-05-09 2019-01-29 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
JP2015522883A (en) * 2012-07-13 2015-08-06 サムスン エレクトロニクス カンパニー リミテッド Application control method and apparatus using handwritten image recognition
JP2015528167A (en) * 2012-07-13 2015-09-24 シャンハイ・シュール・(クーテック)・インフォメーション・テクノロジー・カンパニー・リミテッドShanghai Chule (Cootek) Information Technology Co, Ltd. System and method for input assist control by sliding operation in portable terminal equipment
JP2016505908A (en) * 2012-08-01 2016-02-25 アップル インコーポレイテッド Device, method and graphical user interface for entering characters
US9778771B2 (en) 2012-12-29 2017-10-03 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
US10078442B2 (en) 2012-12-29 2018-09-18 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or select content based on an intensity theshold
US9996233B2 (en) 2012-12-29 2018-06-12 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US10185491B2 (en) 2012-12-29 2019-01-22 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or enlarge content
US10037138B2 (en) 2012-12-29 2018-07-31 Apple Inc. Device, method, and graphical user interface for switching between user interfaces
US10101887B2 (en) 2012-12-29 2018-10-16 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US9965074B2 (en) 2012-12-29 2018-05-08 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
US10437333B2 (en) 2012-12-29 2019-10-08 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US12050761B2 (en) 2012-12-29 2024-07-30 Apple Inc. Device, method, and graphical user interface for transitioning from low power mode
US10175879B2 (en) 2012-12-29 2019-01-08 Apple Inc. Device, method, and graphical user interface for zooming a user interface while performing a drag operation
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
US9857897B2 (en) 2012-12-29 2018-01-02 Apple Inc. Device and method for assigning respective portions of an aggregate intensity to a plurality of contacts
US9959025B2 (en) 2012-12-29 2018-05-01 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US10915243B2 (en) 2012-12-29 2021-02-09 Apple Inc. Device, method, and graphical user interface for adjusting content selection
JP2014186688A (en) * 2013-03-25 2014-10-02 Kyocera Corp Portable electronic device, control method and control program
JP2013175204A (en) * 2013-04-03 2013-09-05 Kyocera Corp Portable terminal and portable terminal control method
US10063730B2 (en) 2013-06-17 2018-08-28 Konica Minolta, Inc. Image forming system, image forming apparatus, remote control apparatus, and recording medium
JP2015001865A (en) * 2013-06-17 2015-01-05 コニカミノルタ株式会社 Image forming system, image forming apparatus, remote operation device and program
JP2015057728A (en) * 2014-11-12 2015-03-26 株式会社ユピテル Information display device for vehicle
US10387029B2 (en) 2015-03-08 2019-08-20 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10402073B2 (en) 2015-03-08 2019-09-03 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US10338772B2 (en) 2015-03-08 2019-07-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10067645B2 (en) 2015-03-08 2018-09-04 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10180772B2 (en) 2015-03-08 2019-01-15 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10860177B2 (en) 2015-03-08 2020-12-08 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10268341B2 (en) 2015-03-08 2019-04-23 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11977726B2 (en) 2015-03-08 2024-05-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US11112957B2 (en) 2015-03-08 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10613634B2 (en) 2015-03-08 2020-04-07 Apple Inc. Devices and methods for controlling media presentation
US10268342B2 (en) 2015-03-08 2019-04-23 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
JP2017519263A (en) * 2015-03-19 2017-07-13 アップル インコーポレイテッド Touch input cursor operation
US11054990B2 (en) 2015-03-19 2021-07-06 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US10599331B2 (en) 2015-03-19 2020-03-24 Apple Inc. Touch input cursor manipulation
US11550471B2 (en) 2015-03-19 2023-01-10 Apple Inc. Touch input cursor manipulation
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11835985B2 (en) 2015-06-07 2023-12-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US10705718B2 (en) 2015-06-07 2020-07-07 Apple Inc. Devices and methods for navigating between user interfaces
US9706127B2 (en) 2015-06-07 2017-07-11 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10455146B2 (en) 2015-06-07 2019-10-22 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10841484B2 (en) 2015-06-07 2020-11-17 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10303354B2 (en) 2015-06-07 2019-05-28 Apple Inc. Devices and methods for navigating between user interfaces
US11681429B2 (en) 2015-06-07 2023-06-20 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9916080B2 (en) 2015-06-07 2018-03-13 Apple Inc. Devices and methods for navigating between user interfaces
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
JP2015207304A (en) * 2015-06-26 2015-11-19 京セラ株式会社 Portable terminal and portable terminal control method
US10963158B2 (en) 2015-08-10 2021-03-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10203868B2 (en) 2015-08-10 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10162452B2 (en) 2015-08-10 2018-12-25 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US11327648B2 (en) 2015-08-10 2022-05-10 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10209884B2 (en) 2015-08-10 2019-02-19 Apple Inc. Devices, Methods, and Graphical User Interfaces for Manipulating User Interface Objects with Visual and/or Haptic Feedback
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US11182017B2 (en) 2015-08-10 2021-11-23 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US11740785B2 (en) 2015-08-10 2023-08-29 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10698598B2 (en) 2015-08-10 2020-06-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10754542B2 (en) 2015-08-10 2020-08-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10884608B2 (en) 2015-08-10 2021-01-05 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
JP2017208111A (en) * 2017-06-28 2017-11-24 カシオ計算機株式会社 Electronic apparatus comprising dictionary function and program

Similar Documents

Publication Publication Date Title
JP2005031786A (en) Character input device
US10135967B2 (en) Invalid area specifying method for touch panel of mobile terminal
JP5658113B2 (en) Portable information terminal
WO2009090704A1 (en) Portable terminal
US20060084482A1 (en) Electronic hand-held device with a back cover keypad and a related method
CN101414229A (en) Method and apparatus for controlling switch of handhold electronic device touch control screen
EP2413232A2 (en) Character Input Device
JP2013095289A (en) Input device
JP2008065519A (en) On-vehicle device
JP2007156991A (en) Onboard display apparatus
JP2002111813A (en) Portable communication unit of radio communication system
JP2005071246A (en) Operation input device and operation input method
JP2007147723A (en) Map display device
GB2438477A (en) Portable electronic device having plural touchpad modes and keypad press mode of operation
JP2013011573A (en) Operation device, operation method and program
JP2005115801A (en) Input device
JP5151589B2 (en) Key input error prevention device
JP2007011862A (en) Electronic equipment and control method of electronic equipment
JP4908986B2 (en) Electronic device having touch panel display function and touch panel control method
JP2000347784A (en) Display controller and buttonless telephone set
JP2005308411A (en) In-vehicle information terminal, and road map display method
JP2005128791A (en) Display unit
JP6018855B2 (en) Steering switch, steering wheel
JP5776525B2 (en) Input device
KR20090046189A (en) Method and apparatus for controlling operations using progress bar

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060707

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090825