[go: nahoru, domu]

JP2004318501A - Figure authentication system - Google Patents

Figure authentication system Download PDF

Info

Publication number
JP2004318501A
JP2004318501A JP2003111641A JP2003111641A JP2004318501A JP 2004318501 A JP2004318501 A JP 2004318501A JP 2003111641 A JP2003111641 A JP 2003111641A JP 2003111641 A JP2003111641 A JP 2003111641A JP 2004318501 A JP2004318501 A JP 2004318501A
Authority
JP
Japan
Prior art keywords
person
feature amount
face
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003111641A
Other languages
Japanese (ja)
Inventor
Naoyuki Nakagawa
直之 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2003111641A priority Critical patent/JP2004318501A/en
Publication of JP2004318501A publication Critical patent/JP2004318501A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To limit the use of a desired system according to human authentication results in an environment where the desired system is shared by a number of people. <P>SOLUTION: A person image P of the person who is to operate a personal computer or the like is picked up by an image pickup means and taken in to an image data input part 2. A face area extracting part 3 extracts only the face area from the person image and a feature quantity detecting part 4 samples a plurality of predetermined points within the face area to detect feature quantities. The feature quantities are computed by a feature quantity computing imaging part 5 into feature quantity data showing the positions and sizes of the eyebrows, eyes, nose, mouth and the like. Feature quantity reference value data obtained by averaging the feature quantities of a number of people are stored in a feature quantity recording part 6 in advance. An authenticating part 7 compares the feature quantity data to the feature quantity reference value data to authenticate the person, with the authentication result reported to an authentication result part 8. An instruction to limit the use of the personal computer or the like is given according to the person authenticated. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、所望の装置の操作を実行しようとする人物の認証を行う人物認証装置に関するものであり、より詳細には、人物の顔の画像から特徴を抽出して人物の認証を行い、その認証結果に応じて適切にコンピュータ装置など所望の装置への操作対応を指示する人物認証装置に関する。
【0002】
【従来の技術】
従来より、パーソナルコンピュータ(以下、パソコンという)の使用者(ユーザ)を特定する際には、パスワード登録などによる人物認証が行われている。そのためには、パソコンを使用するユーザごとにパスワード登録の設定を行う必要がある。また、下記の特許文献1には、ユーザの顔の画像に基づいて人物認証を行うことができるコンピュータシステムの技術が開示されている。この技術によれば、ユーザがパソコンを操作するときにパソコン又はその近傍に設けられたカメラによりユーザの顔を撮影し、撮影によって取得された顔の画像をあらかじめ登録された顔の画像と照合して人物認証を行う。そして、特定の人物を認証したときに、あらかじめ設定された処理を実行するというコンピュータシステムの人物認証を実現したものである。これにより、人物認証結果に応じて、ユーザごとに設定されたアプリケーションの起動など、任意の処理をバッチ処理的に自動継続して実行することができる。
【0003】
【特許文献1】
特開2001−14052号公報(段落番号0020〜段落番号0058、図1〜図13)
【0004】
【発明が解決しようとする課題】
しかしながら、上記の特許文献1の技術を含めて、コンピュータシステムに利用される従来の人物認証装置では、あらかじめ顔データが登録されていない人物に対しては、新たに顔の画像をデータとして登録しなければ、いかなる人物認証も行うことができない。さらに、不特定多数の人が使用することを前提とした環境で使用されるパソコンに対しては、年齢や性別などに応じたアプリケーションを実行しようとする場合、そのアプリケーションの実行を個人ごとの属性に応じて操作を制限するような認証を行うようには対応していない。また、パソコンの起動時に所定の人物の認証を行った後、途中で別の人物に入れ替わったときの使用制限対応もとられていない。なお、パソコンに限らず、所望の装置を操作しようとするときに人物認証を行う場合についても、従来の人物認証装置では上記と同様な不具合を生じる。
【0005】
本発明は、このような事情に鑑みてなされたものであり、特定の人物が所望の装置を共有したり、不特定多数の人物が所望の装置を使用する環境において、人物の認証結果あるいはユーザの判別結果に応じて所望の装置の使用制限の対応をとることができる人物認証装置を提供することを目的とする。より具体的には、特定の人物がパソコンを共有したり、不特定多数の人物がパソコンを使用するコンピュータシステムの環境において、人物の認証結果あるいはユーザの判別結果に応じてパソコンの使用制限の対応をとることができる人物認証装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記の目的を達成するため、本発明における人物認証装置は、パソコンなど所望の装置の使用を開始する前に操作を実行しようとする人物を撮像手段によって撮像する。そして、撮像された人物の画像より顔の画像領域を抽出し、顔の画像領域の中の眉・目・口・鼻など所定部分ごとの位置や大きさや色などのサンプリングデータを特徴量として検出し、この特徴量を演算して認証しようとする人物の特徴量データとして保有する。一方、あらかじめ多数の人物の特徴量データを平均化した特徴量基準値データを保有しておき、認証しようとする人物の特徴量データと特徴量基準値データとを比較解析し、この解析結果に基づいて例えばパソコンの操作を実行しようとする人物の属性を特定する。人物の属性とは、男性と女性というような性別の特徴的区分である場合もあるし、子供と大人や老人以外の成人といった年齢の特徴的区分である場合もある。そして、特定された人物の属性に応じてパソコンなどの所望の装置の対応可能範囲を決定する指示を与える。これによって、人物認証装置による認証結果に応じてパソコンなど所望の装置を使用制限したり、より使用しやすいようにしたりして、それぞれの人物が最適な環境でパソコンなどを使用できるように対応可能範囲を変化させることができる。なお、ここで「対応可能範囲」とは、当該機器の使用の可否をも含めて、その機器の様々な使用形態や、使用態様(モードや再生・記録の種類や回数など)を含む概念である。
【0007】
すなわち、本発明によれば、所望の装置の操作を実行しようとする人物を撮像して得た人物の画像から前記人物の顔の画像を抽出して、前記人物の認証と前記装置に対して対応可能範囲の指示とを行う人物認証装置であって、
前記人物の前記画像を取り込んで前記顔の画像領域を抽出する顔領域抽出手段と、
前記顔領域抽出手段が抽出した前記顔の画像領域の所定部分ごとのサンプリングデータを特徴量として検出する特徴量検出手段と、
前記特徴量検出手段が検出した前記特徴量を演算して特徴量データを作成する特徴量演算画像処理手段と、
複数の人物の特徴量データからあらかじめ求めた特徴量基準値データを記録する特徴量記録手段と、
前記特徴量演算画像処理手段から取得した前記特徴量データと前記特徴量記録手段から取得した前記特徴量基準値データとを比較解析し、
この解析結果に基づいて前記人物の属性を特定し、
特定した前記属性に応じて前記所望の装置の対応可能範囲を設定し、
前記対応可能範囲を前記装置に対して指示する認証手段とを、
備える人物認証装置が提供される。
【0008】
また、前記顔領域抽出手段は、所定の時間ごと又は前記人物の属性に所定の変化が生じるごとに前記人物の前記画像を取り込んで顔の画像領域を抽出し、
前記認証手段は、前記顔領域検出手段が顔の画像領域を抽出するごとに前記特徴量データと前記特徴量基準値データとを比較解析することは本発明における人物認証装置の好ましい態様である。すなわち、本発明の人物認証装置によれば、パソコンなど所望の装置が操作されているとき、例えば、10分ごと、30分ごとなど所定の時間ごとに、操作している人物を撮像して特徴量データを抽出している。あるいは、パソコンなど所望の装置を操作している人物が替わるなど、操作する人物の属性に所定の変化が生じたときにその人物を撮像して特徴量データを抽出している。そして、特徴量データを抽出した都度、あらかじめ登録・蓄積されている特徴量基準値データと特徴量データとを照合して一致しているか否かを判定してその都度認証を行っている。これによって、パソコンなど所望の装置を起動したときと異なる属性の人物に入れ替わって不正な操作が行われることを防止することができる。
【0009】
【発明の実施の形態】
本発明は、人物の顔の画像の特徴に基づいて人物の判定を行い、判定された人物ごとに所望の装置の操作を実行できるような指示を与える人物認証装置を提供するものである。なお、以下の実施の形態では、説明を容易にするために所望の装置をパソコンとし、人物認証装置によって判定された人物ごとに適切なコンピュータシステムの環境に対応することができるような人物認証装置を実現する形態で説明する。すなわち、撮像手段によって撮影し、画像入力手段によって取り込んだ人物の顔の画像を解析して老・若・男・女などの人物の属性からその人物を判定し、それぞれの人物に応じて最適なパソコンの操作環境が整うように、適切な指令を人物認証装置からパソコン側へ送信する。これによって、人物認証装置で認証された人物のパソコンを扱う上での操作性や利便性を一段と向上させることができる。
【0010】
本発明の人物認証装置は、パソコンに人物の顔を撮像するCCDなどの撮像手段と、パソコンの使用開始時に人物の顔を撮像手段により取り込んで画像データ(顔データ)として登録・蓄積し、人物認証を行おうとする人物の顔データを登録・蓄積された画像データと照合して、一致しているかどうかを判定する判定手段とを備えている。さらに、顔データが登録・蓄積されていない場合、あるいは顔データの登録が必要でないコンピュータシステムにおいては、撮像手段により取り込んだ画像データ(顔データ)を独自に解析して、老・若・男・女などのように大まかな人物認証を行い、パソコンがそれに応じた対応をとるようにする。
【0011】
ここで、顔データの解析は次のようにして行う。まず、多数の成人男性の顔データから特徴量の平均値を求める。なお、特徴量とは、顔の画像の中の眉・目・鼻・口など所定の部分ごとの位置や大きさや色などのサンプリングデータである。例えば、1000人分の成人男性の登録データ中の顔データを用いて特徴量の平均値を求める。なお、成人男性の顔データの特徴量の平均値を成人男性の特徴量基準値とする。同様にして、多数の成人女性についても顔データから特徴量基準値を求めておく。そして、人物認証を行うために新たに取り込んだ顔データの特徴量と特徴量基準値とを比較し、老・若・男・女などの属性の判定を行いながら人物を特定して人物認証を行う。
【0012】
以下、老人男性・老人女性・成人男性・成人女性・思春期男性(少年)・思春期女性(少女)・男児・女児を判定する際の基本的な判断基準を列記する。なお「成人」は「老人」を除くものとする。成人女性ならば、外出の際には、大体において化粧をしていると考えられ、特に、唇には口紅を塗ることが多い。そのため、顔データから唇の色をサンプリングして色成分の分布を求めるとき、赤の成分が多いなど特定の色成分に偏りが生じて本来の唇の色とは異なる場合には、成人女性と判断する。逆に、顔データから唇の色をサンプリングした結果が、人間本来の唇の色成分の分布と顕著な差がない場合には、男性あるいは子供と判断する。さらに、喉仏や髭がある場合には成人男性と判断するが、喉仏や髭が確認できない場合でも、必ずしも成人男性ではないと判断することはできないので、顔データの他の要素(例えば、上記の唇の色など)と組み合わせて総合的に判断する。
【0013】
また、髪型が著しい短髪(例えば、坊主頭、角刈り、スポーツ刈り、又はスキンヘッド)の場合は男性とみなしてよい。さらに、ピアスより大きめの耳飾りとしてイヤリングを着けている場合は女性と判断してよい。また、額、目尻、頬、口元のしわなどをサンプリングして、これらのサンプリングデータの特徴量が特徴量基準値より大きい場合には老人と判断する。また、大人の顔と子供の顔を比較すれば、当然顔の大きさは子供の顔のほうが小さく、かつ目や口などの構成要素も小さいし、目や口などの構成要素間の距離も子供の顔のほうが短いので、これらの構成要素が特徴量基準値より小さかったり距離が短い場合は、男児や女児などの子供と判断する。さらに、子供の骨格は大人に比べて未熟なことから、顔の輪郭や顎の骨の発達具合に重みづけを行って判定を行えば、大人と子供の判断をより正確に行うことができる。
【0014】
また、男女間で骨格の違いが生じるのは思春期以降であるが、男児、女児での骨格の差はないので、顔の輪郭などによって男児と女児の判別を行うことは避ける。さらに、成人女性、思春期男性(少年)、及び思春期女性(少女)の骨格の差は少ないので、顔の輪郭などによってこれらを判別することは避ける。また、男性の顔に比べて女性の顔の特徴は顔の輪郭が丸みを帯びており、顔の大きさに対する目の間隔の比率は、女性の顔の方が男性の顔より大きい。すなわち、顔の大きさに対する目の間隔の比率が小さいと男性の顔のようにきつい顔立ちになる。したがって、顔の輪郭の丸みや顔の大きさに対する目の間隔の比率の特徴量によって成人男性と成人女性を判断することは可能である。なお、髪の毛の濃薄、長さ、及び白黒は例外が多いので、老人や成人や男女の別を判断する基準には用いない。
【0015】
以下、図面を用いて、本発明における人物認証装置の実施の形態の幾つかを詳細に説明する。図1は、画像データ入力部により人物の顔の画像を取り込み、登録された顔の画像と比較して人物の認証を行う本発明の人物認証装置のブロック図である。図1において、人物認証装置1は、人物の画像のデータを取り込む画像データ入力部2と、画像データ入力部2が取り込んだ人物の画像のデータから必要な顔の画像領域のみを抽出する顔領域抽出部(顔領域抽出手段)3と、顔領域抽出部3によって抽出された顔領域の中から人物の特徴を引き出すために顔の所定部分ごとにサンプリングを行う特徴量検出部(特徴量検出手段)4と、特徴量検出部4によってサンプリングされたポイントの位置やポイント間の相対距離を演算して特徴量データを作成する特徴量演算画像処理部(特徴量演算画像処理手段)5と、あらかじめ登録されている人物の顔の画像に関する特徴量基準値データを記録する特徴量記録部(特徴量記録手段)6と、特徴量演算画像処理部5で作成された特徴量データと特徴量記録部6にあらかじめ記録されている特徴量基準値データとを比較して人物の認証を行う認証部(認証手段)7と、認証部7で認証された結果を取得してパソコンに通知する認証結果部8と、人物認証装置1全体の制御を行う制御部9とによって構成されている。
【0016】
<第1の実施の形態>
まず、本発明の第1の実施の形態における人物認証装置について説明する。第1の実施の形態の人物認証装置は、CCDなどの撮像素子を備えたパソコンを起動すると、CCDなどの撮像素子によってパソコンの前に座った人物の顔の画像が撮影され、パソコンにあらかじめ登録されている顔の画像のデータと照合され、一致しているか否かを判定するシステム構成となっている。このとき、顔の画像を抽出して認証するアルゴリズムは、従来から一般に行われているような比較認証技術でもよいし、例えば特開平6−259534号公報に記載されているような、検出した顔領域の特徴量と認証用特徴量とを比較して認証を行うというアルゴリズムでもよい。
【0017】
図1に基づいて人物認証装置の動作を説明する。ある人物がパソコン(図示省略)を操作しようとするとき、認証を受けようとする人物の画像(人物画像P)が撮像素子(図示省略)によって撮影される。すると、撮像素子によって撮影された人物画像Pは画像データ入力部2に入力される。このとき、入力された人物画像Pが全身・上半身像など顔領域以外の情報を含む場合は、顔領域抽出部3によって顔領域の画像(顔の画像)のみが抽出される。図2は、図1の顔領域抽出部3によって抽出された顔の画像のイメージ図である。すなわち、図2に示すような顔の画像が顔領域抽出部3で抽出される。
【0018】
次に、図2に示すような顔の画像の中から人物の特徴を引き出すため、特徴量検出部4によって顔の部分ごとにサンプリングを行う。図3は、図2に示す顔の画像から顔データの特徴量を抽出するイメージ図である。図3の例では、眉10については、眉頭、眉尻、及びその中間の部分をサンプリングし、目11については、目頭、目尻、その中間、上瞼、及び下瞼の部分をサンプリングし、頬12については、その領域内の数箇所をサンプリングする。また、顔の輪郭・顎13についてもその輪郭に沿って数箇所をサンプリングする。さらに、口14については、口角、上唇、下唇、及び開口などをサンプリングする。これ以外の顔部分についても、あらかじめ設定しておけば所定の部分のサンプリングを行うことができる。このようにして得られた部分ごとのサンプリングデータを特徴量と定義する。
【0019】
上記のようにして得られた各特徴量は、特徴量演算画像処理部5によって画像処理が施される。すなわち、特徴量演算画像処理部5によって明るさの調整やノイズ除去やエッジ強調などの各種の処理が行われた後、サンプリングポイントの座標を取得し、その後サンプリングポイント間の距離(相対距離)などの演算が行われて特徴量データが作成される。次に、このようにして特徴量演算画像処理部5によって作成された特徴量データと、特徴量記録部6にあらかじめ登録されている顔の画像の特徴量基準値データとが認証部7で比較判定される。
【0020】
特徴量データと特徴量基準値データとの比較に際しては、両者の相関関係に任意のしきい値s(%)を設定する。そして、認証部7が比較判定した結果、特徴量データがしきい値s(%)以上ならば認証結果部8へ「一致」の情報を伝える。これによって、認証結果部8は、認証を受けようとする人物の認証を行い、図示しないパソコンに対して操作を許可する旨を通知する。
【0021】
また、認証部7で特徴量データと特徴量基準値データとの比較を行った結果、特徴量データがしきい値s(%)未満の場合は、制御部9を介して人物の撮影条件などを変え、再度、人物画像Pを画像データ入力部2へ再入力する。このようにして人物画像Pの再入力動作を一定の回数繰り返し、それでも認証部7において特徴量データと特徴量基準値データとの比較が一致しない場合は、認証結果部8へ「不一致」の情報を伝える。このように、いま取り込んだ人物の特徴量データが、あらかじめ登録されている特徴量基準値データとあまりにもかけ離れている場合には、この判定段階で認証を受けようとする人物は、パソコンの操作権が与えられている人物ではないという最終判定を下し、認証結果部8はパソコンに対して操作を不許可とする旨の通知を行う。このような一連の認証動作の流れにより、あらかじめ登録されている人物がパソコン操作の許可を求める人物であるとほぼ特定される。なお、必要があれば、認証部7で認証比較を行っている時点で、特徴量記録部6に登録されている特徴量データの更新を行ってもよい。
【0022】
<第2の実施の形態>
次に、本発明の第2の実施の形態における人物認証装置について説明する。第2の実施の形態の人物認証装置は、家庭内で1台のパソコンを家族全員で共有する場合に人物認証を行って各人物に操作権を与えるものである。パスワード登録による人物認証手段を用いた従来のパソコンでは、例えば、子供が父親のパスワードを使ってログインすることが可能である。この場合、パソコンには現在の使用者は父親(大人)と認識されるので、子供自身がインターネットに接続すれば、子供にはふさわしくないサイト(性・暴力など)を何の規制もなく見ることができてしまう。この場合、一応は「18才以上ですか?」と尋ねてくるが、パソコンを操作しようとする子供が「はい」とクリックすれば、子供にはふさわしくないサイトに無制限に接続されてしまうので、実質的には規制がないのも同然である。
【0023】
そこで、前述の第1の実施の形態と同様なアルゴリズムを用いて、図1に示す人物認証装置1の画像データ入力部2によって取り込んだ人物画像Pの顔データから、眉・目・鼻・口の形状や位置などを抽出する。子供の骨格は大人に比べて未熟なことから顔の輪郭や顎骨の発達具合に違いが現われる。また、当然、顔の大きさは子供のほうが小さいので目・口などの構成要素も小さく、構成要素間の距離も短い。
【0024】
図4は、図1に示す人物認証装置1において、大人の人物の画像から取り込まれた顔の画像より顔データの特徴量を抽出するイメージ図である。また、図5は、図1に示す人物認証装置1において、子供の人物の画像から取り込まれた顔の画像より顔データの特徴量を抽出するイメージ図である。図4と図5とを比較して分かるように、図4の大人の顔の画像と図5の子供の顔の画像で同じ顔データ個所の特徴量を抽出しても、眉10、目11、顔の輪郭・顎13、口14、の輪郭などのサンプリングポイントのポイント間の相対距離やポイントの位置が異なるので、認証部7では大人と子供の相違を容易に判定することができる。
【0025】
大人の顔データと子供の顔データにおいてポイント間の相対距離やポイントの位置を検出する具体的な例をさらに詳しく説明する。図6(a)と図6(b)はそれぞれ、図1に示す人物認証装置1において顔データの特徴量を抽出する場合の概念図であり、図6(a)は顔データの一部の特徴量の抽出を示し、図6(b)は顔データの他の部分の特徴量の抽出を示している。図6(a)に示すように、眉の長さ(眉頭〜眉尻)aと眉の高さb、目の横幅(目頭〜目尻)cと目の縦幅d、口の横幅eと口の高さf、鼻の長さgなどについて、成人男性の特徴量基準値と子供の特徴量との比較を行う。また、図6(b)に示すように、両目の間隔(左目頭〜右目頭)h、両眉の間隔(左眉頭〜右眉頭)i、鼻と目の距離(鼻頭〜目頭)j、鼻と口の距離(鼻頭〜口角)k、鼻と眉の距離(鼻頭〜眉頭)m、鼻と顎の距離(鼻頭〜顎先)n、顔の幅p、顎先と顎元(エラ)の角度α、顔輪郭の角度βについても、成人男性の特徴量基準値と子供の特徴量との比較を行う。
【0026】
認証される子供によっては、これらの特徴量のうちの一部が、成人男性の特徴量基準値とあまり変わらないという結果になる場合もあり得る。そこで、次のような2つの判断方法のうちいずれかの比較判定を行う。
(方法A)認証される子供の特徴量について成人男性の特徴量基準値との差が顕著なものがどのくらいあるかを判定する方法。例えば、上記のa〜k、m、n、p及びα、βの16項目の中から抽出した9項目のうち7項目で子供の特徴量が成人男性の特徴量基準値より小さいとすれば、特徴量基準値との一致比率は、(9−7)/9×100=22.2(%)である。ここで、あらかじめ任意のしきい値t1(%)を設定しておき、上記の一致比率22.2(%)がこのしきい値t1(%)以上ならば、認証部7は、その顔データは大人であると判断してその旨を認証結果部8へ伝える。また、上記の一致比率22.2(%)がしきい値t1(%)未満ならば子供であると判断してその旨を認証結果部8へ伝える。
【0027】
(方法B)子供の特徴量と成人男性の特徴量基準値との絶対値差がどのくらいあるかを判定する方法。例えば、成人男性の特徴量基準値にある程度の標準偏差を持たせれば、ほとんどすべての成人男性がこの集団に含まれる。一方、年齢が低いほど、特徴量の値はこの集団から離れたところ、すなわち、子供の特徴量分布と言うべき集団に位置するようになる。そこで、得られた子供の特徴量が成人男性の特徴量基準値(もしくは分布)と、どの程度かけ離れているかを各々の項目について検証し、方法Aの場合の特徴量基準値との一致比率の場合と同様にあらかじめ任意のしきい値s1(mm)を設けておき、特徴量がこのしきい値s1(mm)以上離れているならば認証部7は子供と判断してその旨を認証結果部8へ伝える。また、しきい値s1(mm)未満しか離れていないならば大人と判断してその旨を認証結果部8へ伝える。
【0028】
図7は、本発明の第2の実施の形態において、人物認証装置による顔の画像の入力から大人と子供の判定までの認証経過を示すフローチャートである。すなわち、図7は、前述の顔データの特徴量a〜k、m、n、p及びα、βの情報を基に、認証対象の人物の画像が大人であるか子供であるかを判定する手順を示すフローチャートである。
【0029】
図7において、まず、特徴量データを特徴量演算画像処理部5のデータテーブルから呼び出す(ステップS1)。次に、呼び出した特徴量データに髭があるか否かを判断する(ステップS2)。ここで、髭がなければ(ステップS2でNoの場合)、呼び出した特徴量データに喉仏があるか否かを判断する(ステップS3)。ここで、喉仏がなければ(ステップS3でNoの場合)、図6に示すように、顔輪郭の角度β、目の大きさc、d、鼻の長さg、口の大きさe、fなどの特徴量データを測定する(ステップS4)。そして、測定した特徴量データを特徴量記録部6に格納されている特徴量基準値と比較し(ステップS5)、測定した特徴量データが特徴量基準値未満であれば、眉、目、鼻、口の位置や距離を測定する(ステップS6)。さらに、このとき測定した部分の位置や距離の特徴量データを特徴量基準値と比較し(ステップS7)、これらの特徴量データが特徴量基準値未満であれば、認証部7は、測定した人物の画像の顔データは子供であると認証(判断)してその旨の情報を認証結果部8へ通知する(ステップS8)。また、上述した方法A及び方法Bの判定方法は、上記のステップS7に含まれるものである。
【0030】
一方、ステップS2で髭があったり(ステップS2でYesの場合)、ステップS3で喉仏があったり(ステップS3でYesの場合)、ステップS5で顔輪郭の角度、目、鼻、口の大きさが特徴量基準値以上である場合、ステップS7で眉、目、鼻、口の位置や距離の特徴量データが特徴量基準値以上である場合は、認証部7は、測定した人物の画像の顔データは大人であると認証(判断)してその旨の情報を認証結果部8へ通知する(ステップS9)。このようにして、測定した人物の画像の顔データが子供であると判定された場合には、子供にふさわしくないサイトなどの進入に規制がかかるようにパソコンへ指令を送る。ここで、15〜17才くらいになると大人と子供の骨格の差が少なくなり判別が難しくなるが、上記しきい値t(%)あるいはしきい値s(mm)の値を適宜変えることによって認証精度を向上させることができる。
【0031】
<第3の実施の形態>
次に、本発明の第3の実施の形態における人物認証装置について説明する。第3の実施の形態の人物認証装置は、不特定多数の人が共有して使う環境にあるパソコンを多数の人物が使う場合の人物認証を行うものである。インターネットカフェなど不特定多数の人が共有して使う環境にあるパソコンは、通常、使用者の操作に対する慣れ・不慣れがあるにもかかわらずパソコンの操作レベルを顧客ごとにカスタマイズすることはできない。一般的に機械に弱いとされる女性と機械に詳しいとされる男性とではパソコンの操作レベルに差があると考えられる。したがって、使用者ごとにパソコン操作のカスタマイズを行うことができれば極めて便利である。
【0032】
この場合も、前述の第1の実施の形態と同様なアルゴリズムを用いて、図1に示す人物認証装置1の画像データ入力部2によって取り込んだ人物画像Pの顔データから、眉・目・鼻・口などの形状や位置などを抽出する。ここで、一般的には成人女性の骨格は成人男性に比べてやや小さめであるから、成人女性と成人男性では顔の輪郭や顎骨の発達具合に違いが現われる。また、当然のことながら顔の大きさは女性のほうが小さめであるので目・鼻などの構成要素も小さく、かつ目・鼻などの構成要素間の距離も短い。
【0033】
具体的には、図6に示した目の大きさc、d、口の大きさe、f、鼻の長さgなどの成人女性の特徴量データについて成人男性の特徴量基準値と比較する。また、両目の間隔h、両眉の間隔i、鼻と目の距離j、鼻と口の距離k、鼻と顎の距離n、顔の幅p、顎の角度α、顔輪郭の角度βなどについても同様の比較を行う。成人女性の中には、これらの特徴量のうちの一部が成人男性の特徴量基準値とあまり変わらないという結果になる場合もあり得る。
【0034】
そこで、次のような3つの判断方法のうちいずれかの比較判定を行う。もちろん、これらの方法を組み合わせて判定してもよい。
(方法C)化粧の有無の判定を行う方法。一般的に、成人女性ならば外出の際には、大体において化粧をしていると考えられる。したがって成人女性の肌の色をサンプリングした場合、通常、化粧をしない成人男性の肌の色の特徴量とは異なっている。サンプリング箇所は、例えば、図3における目11の周り、頬12の数箇所の部分、口14の各部などとし、これらのサンプリング箇所の色データに色の偏りや特定の色の増加などが存在した場合は成人女性と判断する。
【0035】
例えば、目11の周りについては、成人女性がアイシャドーやアイラインをしている場合は、青、茶、黒などの特定の色が増加する。また、成人女性の頬12には頬紅をしている場合は赤やピンクなど色に偏りがある。さらに、成人女性の口14については口紅を塗っていることが多いので赤など特定の色が増加する。特に、青成分の色は人間本来の肌にはない色成分(色素)であるので、これらの色成分を抽出することにより化粧をしているか否か、すなわち、成人女性であるか成人男性であるかを判別することができる。
【0036】
(方法D)成人女性の特徴量と成人男性の特徴量基準値との差が顕著なものがどれくらいの数あるかを判定する方法。例えば、上記のa〜k、m、n、p及びα、βの16項目の中から抽出した11項目のうち7項目で、成人女性の特徴量が成人男性の特徴量基準値より小さいとすれば、特徴量基準値との一致比率は、(11−7)/11×100=36・4(%)である。あらかじめ任意のしきい値t2(%)を設定しておき、一致比率36・4(%)がこのしきい値t2(%)以上ならば、認証部7は成人男性と判断してその旨を認証結果部8へ伝える。また、一致比率36・4(%)がしきい値t2(%)未満ならば成人女性と判断してその旨を認証結果部8へ伝える。
【0037】
(方法E)成人女性の特徴量と成人男性の特徴量基準値との絶対値差がどのくらいあるかの判定を行う方法。例えば、成人男性の特徴量基準値にある程度の標準偏差を持たせれば、ほとんどすべての成人男性がこの集団に含まれる。一方、成人女性では、特徴量の値はこの集団から離れたところ、すなわち、成人女性の特徴量分布と言うべき集団に位置するようになる。そこで、成人女性から得られた特徴量が成人男性の特徴量基準値(もしくは分布)と、どの程度かけ離れているかを各々の項目について検証する。すなわち、第2の実施の形態の大人と子供の比較判定のときと同様に、あらかじめ任意のしきい値s2(mm)を設けておき、特徴量がこのしきい値s2(mm)以上離れているならば成人女性と判断してその旨を認証結果部8へ伝える。また、特徴量がしきい値s2(mm)未満しか離れていないならば成人男性と判断してその旨を認証結果部8へ伝える。
【0038】
その他の判断基準で成人女性と判断してよい場合もある。例えば、ピアスより大きめの耳飾りとしてイヤリングをつけている場合は成人女性と判断してもよい。一方、喉仏や髭がある場合とか、髪型が著しい短髪(例えば、坊主頭、角刈り、スポーツ刈り、スキンヘッドなど)の場合は成人男性と判断してよい。
【0039】
図8は、本発明の第3の実施の形態において、人物認証装置による顔の画像の入力から女性と男性の判定までの認証経過を示すフローチャートである。すなわち、図8は、前述の顔データの特徴量a〜k、m、n、p及びα、βの情報を基に、認証対象の人物の画像が女性であるか男性であるかを判定する手順を示すフローチャートである。
【0040】
図8において、まず、特徴量データを特徴量演算画像処理部5のデータテーブルから呼び出す(ステップS11)。次に、呼び出した特徴量データに髭があるか否かを判断する(ステップS12)。ここで、髭がなければ(ステップS12でNoの場合)、呼び出した特徴量データに喉仏があるか否かを判断する(ステップS13)。ここで、喉仏がなければ(ステップS13でNoの場合)、図6に示すように、顔輪郭の角度β、目の大きさc、d、鼻の長さg、口の大きさe、fなどを測定する(ステップS14)。そして、測定した特徴量データを特徴量基準値と比較し(ステップS15)、測定した特徴量データが特徴量基準値未満であれば、眉、目、鼻、口の位置や距離を測定する(ステップS16)。さらに、このとき測定した部分の位置や距離の特徴量データを特徴量基準値と比較し(ステップS17)、これらの特徴量データが特徴量基準値未満であれば、認証部7は、測定した人物の画像の顔データは女性であると認証してその旨の情報を認証結果部8へ通知する(ステップS18)。また、上述した方法Cから方法Eの判定方法は、上記のステップS17に含まれるものである。
【0041】
一方、ステップS12で髭があったり(ステップS12でYesの場合)、ステップS13で喉仏があったり(ステップS13でYesの場合)、ステップS15で顔輪郭の角度、目、鼻、口の大きさが特徴量基準値以上である場合、ステップS17で眉、目、鼻、口の位置や距離の特徴量データが特徴量基準値以上である場合は、認証部7は、測定した人物の画像の顔データは男性であると認証してその旨の情報を認証結果部8へ通知する(ステップS19)。このようにして女性と判定された場合には、パソコンのヘルプ機能を通常よりも丁寧かつ分かりやすく表示したり、音声による操作ガイドなどを行うようにパソコンへ指令を送る。
【0042】
<第4の実施の形態>
次に、本発明の第4の実施の形態における人物認証装置について説明する。第4の実施の形態の人物認証装置は、老人がパソコンを使用する場合に人物認証を行うものである。すなわち、使用者ごとにパソコン操作のカスタマイズを行うことができれば便利な場合として、特に老人が操作対象である場合が挙げられる。第4の実施の形態の場合も、前述の第1の実施の形態と同様なアルゴリズムを用いて、図1に示す人物認証装置1の画像データ入力部2によって取り込んだ人物画像Pの顔データから、眉・目・鼻・口などの形状や位置などを抽出する。加えて、頬のたるみ具合や皮膚の色艶・しみ・しわなどを老人の顔と判定するための要素として抽出する。
【0043】
このとき、頬のたるみ具合やしみなどを数値化して比較するのは難しいので、顔の画像のサンプリング結果から、額・目尻・頬・口元のすじ(しわ)を検出する。そして、すじ(しわ)はv(mm)以上の連続した点の集合と定義し、その数を成人男性の特徴量基準値と比較する。ここで、あらかじめしきい値w(本)を設定しておき、顔の画像のサンプリング結果のすじ(しわ)がそのしきい値w(本)以上ならば、認証部7は人物の画像が老人であると判断してその旨を認証結果部8へ伝える。また、すじ(しわ)がしきい値w(本)未満ならば人物の画像は老人ではないと判断してその旨を認証結果部8へ伝える。なお、v、wは任意の有理数である。
【0044】
図9は、本発明の第4の実施の形態において、人物認証装置による顔の画像の入力から老人の判定までの認証経過を示すフローチャートである。図9において、まず、特徴量データを特徴量演算画像処理部5のデータテーブルから呼び出す(ステップS21)。そして、特徴量データから目尻、小鼻、口角まわりや頬のしわを測定する(ステップS22)。次に、測定した特徴量データと特徴量基準値との比較を行い(ステップS23)、測定した特徴量データ(目尻、小鼻、口角まわりや頬のしわなど)が特徴量基準値以上であれば、額や頬の色や艶を測定する(ステップS24)。さらに、このとき測定した額や頬の色や艶の特徴量データを特徴量基準値と比較し(ステップS25)、これらの特徴量データが特徴量基準値未満であれば(例えば、額や頬の色や艶が自然色から離れていれば)、認証部7は、測定した人物の画像の顔データは老人であると認証してその旨の情報を認証結果部8へ通知する(ステップS26)。
【0045】
一方、ステップS23で目尻、小鼻、口角まわりや頬のしわの特徴量データが特徴量基準値未満であったり、ステップS25で、ステップ24で測定した額や頬の色や艶の特徴量データが特徴量基準値以上の(すなわち、額や頬が自然の色や艶に近い)ときは、認証部7は、測定した人物の画像は非老人であると認証してその旨の情報を認証結果部8へ通知する(ステップS27)。このようにして老人と判定された場合には、パソコンのヘルプ機能を通常よりも丁寧に、かつわかりやすく表示したり、表示の文字を通常より大きく見やすくしたり、音声による操作ガイドのボリュームを上げたりするようにパソコンへ指令を送る。
【0046】
<第5の実施の形態>
次に、本発明の第5の実施の形態における人物認証装置について説明する。第5の実施の形態の人物認証装置は、パソコンを使用する人物について一定時間ごとに人物認証を行うものである。例えば、家庭内で1台のパソコンを家族全員で共有する場合、パソコンの使用開始時にいったん父親と認証されると、例えば、途中で父親から子供に代わってその後ずっと子供が使用していたとしても、パソコンには現在の使用者は父親(大人)であると認識されてしまう。これを解決するために、人物の顔データの照合を一定時間ごとに繰り返し、その都度認証を行うように構成する。これによって、起動時に人物認証を行った人物と別の人物に入れ替わったときに生じる不都合が解消される。
【0047】
<第6の実施の形態>
次に、本発明の第6の実施の形態における人物認証装置について説明する。第6の実施の形態の人物認証装置は、不特定多数の人が利用するパソコンが犯罪に利用されないように人物認証を行うものである。例えば、インターネットカフェなど不特定多数の人が共有して使用する環境にあるパソコンは、使用者が不特定であるということを利用して犯罪に利用される危険性をはらんでいる。例えば、操作時の匿名性を利用してストーカー行為に相当する迷惑メールを送りつけたり、証券などのインターネット取引での詐欺行為などが現実に起こっている。
【0048】
そこで、本発明における人物認証装置の機能を応用して、パソコンの使用開始時に画像データ入力部によって取り込んだ顔の画像を画像データ(顔データ)として登録・蓄積しておく。この画像データはプライバシー保護の観点から通常は非公開であるが、法律など一定の手続きを経た上での利用は可能であるものとする。これにより、例えば迷惑メールを受信した場合は、そのIPアドレスなどから発信元のインターネットカフェが特定されれば、内部に登録・蓄積されている顔の画像の画像データから犯人を特定することができる。また、指名手配犯の画像データをパソコンに登録しておけば、パソコンの使用開始時に登録・蓄積された指名手配犯の画像データと照合することができる。ここで、一致していると判定された場合には警察に通報するようにすることもできる。このように、犯罪捜査にも有効なものである。
【0049】
以上述べた実施の形態は本発明を説明するための一例であり、本発明は、上記の実施の形態に限定されるものではなく、発明の要旨の範囲で種々の変形が可能である。例えば、上記の実施の形態では、人物認証装置をパソコンに適用する場合について説明したが、これに限定するものではなく、例えば、金融機関におけるATMの使用時やデパートなどにおけるクレジットの使用時の人物認証にも応用することができる。すなわち、本発明の人物認証装置は、所望の装置を操作する場合、その装置に対して操作権が与えられているか否かを判定したり認証する場合などに広く適用することができる。
【0050】
ところで、上記の各実施の形態で述べた人物認証装置の説明から明らかなように、認証手段は、特徴量演算画像処理手段から取得した特徴量データと特徴量記録手段から取得した特徴量基準値データとを比較解析し、解析結果に基づいて人物を老・若・男・女など大まかな区分で特定し、特定された人物に応じて所望の装置の対応可能範囲を決定することは、本発明の好ましい態様である。これによって、例えば、一般的にパソコンの操作に弱いといわれている老人や女性などがパソコンを使用するときには、ヘルプ機能を通常より丁寧に分かりやすく表示したり、音声による操作ガイドを行うなどして、パソコンを利用しやすい環境に設定することができる。
【0051】
また、所望の装置の操作を実行しようとする人物の画像を撮像手段によって取り込み、人物の画像から顔の画像を抽出して人物の認証を行う人物認証装置であって、所望の装置の使用開始時に人物の顔の画像を画像データ入力手段によって取り込んで顔の画像データとして解析し、その顔の画像データがあらかじめ登録・蓄積された顔の画像データと照合して一致しているかどうかを判定して、一致していれば、所望の装置(例えばパソコン)によるファイルアクセスやインターネット接続などの権利を許可するように構成することは、本発明の好ましい態様である。これによって、パソコンを操作する権限が与えられない人物が不正にファイルアクセスを行ったり、子供が好ましくないサイトへアクセスしたりすることを防止することができる。
【0052】
また、所望の装置の操作を実行しようとする人物の顔の画像データがあらかじめ登録・蓄積された顔の画像データと照合して一致しているかどうかを判定し、一致していなければ所望の装置(例えばパソコン)の対応可能範囲を一部制限するように構成することは、本発明の好ましい態様である。これによって、例えば、同一家族や職場でパソコンを共有するような場合、主たる登録者以外の人物が操作した場合は、機密内容が開示できない範囲で使用することができるようにすることができる。
【0053】
また、所望の装置の操作を実行しようとする人物の顔の画像データがあらかじめ登録・蓄積された顔の画像データと照合して一致しているかどうかを判定し、一致していなければ、所望の装置(例えばパソコン)によるファイルアクセスやインターネット接続などを一部制限するように構成することは、本発明の好ましい態様である。これによって、例えば、同一家族でパソコンを共有するような場合、子供がパソコンを操作するときのみ、好ましくない一部サイトへのアクセスを制限することができる。
【0054】
また、所望の装置の操作を実行しようとする人物の顔の画像データを取り込んで解析し、解析結果が一定の条件を満たさない場合には所望の装置(例えばパソコン)の対応可能範囲を一部制限するように構成することは、本発明の好ましい態様である。これによって、例えば、同一家族でパソコンを共有するような場合、主たる登録者以外の人物、例えば子供などがパソコンを操作した場合は一般的な使用はできるものの、不用意に重要なファイルへアクセスして内容を消されたり書き換えられたりしないようにすることができる。
【0055】
また、所望の装置の操作を実行しようとする人物の顔の画像データを取り込んで解析し、解析結果が一定の条件を満たさない場合には所望の装置(例えばパソコン)によるファイルアクセスやインターネット接続などを一部制限するように構成することは、本発明の好ましい態様である。これによって、例えば、同一職場でパソコンを共有するような場合、主たる登録者以外の人物が操作した場合、所定の職責以上の条件を満たしていない人物が操作しようとするときは、一般的な使用はできるものの、人事記録などの機密内容は開示できないようにすることができる。
【0056】
【発明の効果】
以上説明したように、本発明の人物認証装置によれば、パソコンを操作しようとする人物の顔の画像から特徴を抽出することにより、操作権のない人物によるパソコンの操作を制限することができる。例えば、保安上や機密保持上でアクセスを規制する必要があるファイルやサイトヘアクセスする際に人物認証を行ったり、家庭内でパソコンを共有する環境において、子供が見るのにふさわしくないサイトヘのアクセスを制限するときに人物認証を行ったりする場合などに利用することができる。さらには、このような人物認証装置は、インターネットカフェなどのように、不特定多数の人が共有して使用する環境にあるパソコンなどにも利用される。例えば、不特定多数の人が共有して使う環境にあるパソコンにおいて、人物の年齢や性別などを判別して、それぞれの利用者に適した操作上の補助を行う場合などにも、本発明の人物認証装置を利用した人物認証を行うことによって容易に実現することができる。すなわち、本発明の人物認証装置を用いることによって、パソコンの操作時におけるセキュリティ性、利便性、及び操作性を一段と向上させることができる。
【図面の簡単な説明】
【図1】画像データ入力部により人物の顔の画像を取り込み、登録された顔の画像と比較して人物の認証を行う本発明の人物認証装置のブロック図である。
【図2】図1の顔領域抽出部3によって抽出された顔の画像のイメージ図である。
【図3】図2に示す顔の画像から顔データの特徴量を抽出するイメージ図である。
【図4】図1に示す人物認証装置において、大人の人物の画像から取り込まれた顔の画像より顔データの特徴量を抽出するイメージ図である。
【図5】図1に示す人物認証装置において、子供の人物の画像から取り込まれた顔の画像より顔データの特徴量を抽出するイメージ図である。
【図6】図1に示す人物認証装置において顔データの特徴量を抽出する場合の概念図であり、(a)は顔データの一部の特徴量の抽出を示し、(b)は顔データの他の部分の特徴量の抽出を示す。
【図7】本発明の第2の実施の形態において、人物認証装置による顔の画像の入力から大人と子供の判定までの認証経過を示すフローチャートである。
【図8】本発明の第3の実施の形態において、人物認証装置による顔の画像の入力から女性と男性の判定までの認証経過を示すフローチャートである。
【図9】本発明の第4の実施の形態において、人物認証装置による顔の画像の入力から老人の判定までの認証経過を示すフローチャートである。
【符号の説明】
1 人物認証装置
2 画像データ入力部
3 顔領域抽出部(顔領域抽出手段)
4 特徴量検出部(特徴量検出手段)
5 特徴量演算画像処理部(特徴量演算画像処理手段)
6 特徴量記録部(特徴量記録手段)
7 認証部(認証手段)
8 認証結果部
9 制御部
10 眉
11 目
12 頬
13 顔の輪郭・顎
14 口
P 人物画像
a 眉の長さ(眉頭〜眉尻)
b 眉の高さ
c 目の横幅(目頭〜目尻)
d 目の縦幅
e 口の横幅
f 口の高さ
g 鼻の長さ
h 両目の間隔(左目頭〜右目頭)
i 両眉の間隔(左眉頭〜右眉頭)
j 鼻と目の距離(鼻頭〜目頭)
k 鼻と口の距離(鼻頭〜口角)
m 鼻と眉の距離(鼻頭〜眉頭)
n 鼻と顎の距離
p 顔の幅
α 顎先と顎元(エラ)の角度(顎の角度)
β 顔輪郭の角度
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a person authentication device that performs authentication of a person who intends to perform a desired operation of a device, and more specifically, performs feature authentication by extracting features from an image of a person's face. The present invention relates to a person authentication device that appropriately instructs an operation corresponding to a desired device such as a computer device according to an authentication result.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, when a user of a personal computer (hereinafter, referred to as a personal computer) is specified, personal authentication by password registration or the like has been performed. To do so, it is necessary to set password registration for each user who uses a personal computer. Patent Document 1 below discloses a technology of a computer system capable of performing personal authentication based on an image of a user's face. According to this technique, when the user operates the personal computer, the user's face is photographed by a camera provided at or near the personal computer, and the face image acquired by the photographing is compared with a previously registered face image. To perform person authentication. When a specific person is authenticated, a predetermined process is executed, thereby realizing person authentication of the computer system. Accordingly, it is possible to automatically and continuously execute arbitrary processing such as activation of an application set for each user in a batch process in accordance with the result of person authentication.
[0003]
[Patent Document 1]
JP 2001-14052 A (paragraph numbers 0020 to 0058, FIGS. 1 to 13)
[0004]
[Problems to be solved by the invention]
However, in the conventional person authentication device used for the computer system including the technique of the above-mentioned Patent Document 1, a face image is newly registered as data for a person whose face data is not registered in advance. Without it, no person authentication can be performed. Furthermore, if you try to run an application according to age, gender, etc. on a personal computer used in an environment that is supposed to be used by an unspecified number of people, the execution of that application must be attributed to each individual. It does not support performing authentication that restricts the operation according to. In addition, after authenticating a predetermined person at the time of starting up a personal computer, there is no use restriction when a different person is replaced halfway. Not only personal computers, but also when performing personal authentication when trying to operate a desired device, the same problem as described above occurs in a conventional personal authentication device.
[0005]
The present invention has been made in view of such circumstances, and in an environment where a specific person shares a desired device or an unspecified number of people use the desired device, the authentication result of the person or the user is used. It is an object of the present invention to provide a person authentication device capable of coping with a use restriction of a desired device according to a result of the determination. More specifically, in a computer system environment where a specific person shares a personal computer or an unspecified number of persons use a personal computer, the use of personal computers is restricted according to the result of personal authentication or the result of user identification. It is an object of the present invention to provide a person authentication device that can take the following.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, the person authentication device according to the present invention captures an image of a person who is to perform an operation before starting use of a desired device such as a personal computer by an imaging unit. Then, a face image region is extracted from the captured image of the person, and sampling data such as the position, size, and color of each predetermined portion such as eyebrows, eyes, mouth, and nose in the face image region is detected as a feature amount. Then, this feature amount is calculated and held as feature amount data of a person to be authenticated. On the other hand, feature amount reference value data obtained by averaging feature amount data of many persons is held in advance, and the feature amount data of the person to be authenticated and the feature amount reference value data are compared and analyzed. For example, the attribute of a person who intends to execute a personal computer operation is specified based on the attribute. The attribute of a person may be a characteristic division of gender such as a man and a woman, or may be a characteristic division of age such as a child and an adult or an adult other than the elderly. Then, an instruction is given to determine a range in which a desired device such as a personal computer can be handled according to the attribute of the specified person. In this way, it is possible to restrict the use of a desired device such as a personal computer according to the result of authentication by the person authentication device or make it easier to use, so that each person can use a personal computer etc. in the optimal environment The range can be changed. Here, the “corresponding range” is a concept including various usage patterns and usage modes (modes, types of reproduction / recording, number of times, etc.), including whether or not the device can be used. is there.
[0007]
That is, according to the present invention, the image of the face of the person is extracted from the image of the person obtained by imaging the person who intends to perform the operation of the desired device, and the authentication of the person and the A person authentication device for performing an instruction of a responsive range,
Face area extraction means for capturing the image of the person and extracting an image area of the face,
A feature amount detecting unit that detects, as a feature amount, sampling data for each predetermined portion of the face image region extracted by the face region extracting unit;
A feature amount calculation image processing unit that calculates the feature amount detected by the feature amount detection unit to create feature amount data;
Feature amount recording means for recording feature amount reference value data previously obtained from feature amount data of a plurality of persons;
Comparing and analyzing the feature amount data obtained from the feature amount calculation image processing unit and the feature amount reference value data obtained from the feature amount recording unit,
Identifying the attribute of the person based on the analysis result,
Setting a possible range of the desired device according to the specified attribute,
An authentication unit that instructs the device to indicate the applicable range,
A personal authentication device is provided.
[0008]
In addition, the face region extracting means extracts the image of the face by capturing the image of the person every predetermined time or every time a predetermined change occurs in the attribute of the person,
It is a preferable aspect of the person authentication apparatus according to the present invention that the authentication unit compares and analyzes the feature amount data and the feature amount reference value data each time the face area detection unit extracts a face image area. That is, according to the person authentication device of the present invention, when a desired device such as a personal computer is operated, the operating person is imaged at predetermined time intervals, for example, every 10 minutes or every 30 minutes. Quantitative data is extracted. Alternatively, when a predetermined change occurs in the attribute of the person who operates, such as when a person operating a desired device such as a personal computer changes, the person is imaged to extract feature amount data. Then, each time the feature amount data is extracted, the feature amount reference value data registered / stored in advance is compared with the feature amount data to determine whether or not they match, and authentication is performed each time. As a result, it is possible to prevent an unauthorized operation from being performed by a person having a different attribute than when a desired device such as a personal computer is started.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
The present invention provides a person authentication device that determines a person based on the features of an image of a person's face and gives an instruction to execute a desired device operation for each determined person. In the following embodiments, for the sake of simplicity, a personal computer is used as a desired device, and a person authentication device capable of coping with an appropriate computer system environment for each person determined by the person authentication device. Will be described. That is, the image of the face of a person taken by the image pickup means and analyzed by the image input means is analyzed to determine the person from the attributes of the person, such as an old person, a young person, a man, and a woman. An appropriate command is transmitted from the person authentication device to the personal computer so that the operation environment of the personal computer is prepared. As a result, the operability and convenience in handling the personal computer of the person who has been authenticated by the person authentication device can be further improved.
[0010]
The person authentication device of the present invention captures a person's face by an image pickup means at the start of use of the personal computer, and registers and accumulates the data as image data (face data). There is provided a judging means for collating face data of a person to be authenticated with registered and accumulated image data to judge whether or not they match. Furthermore, in the case where face data is not registered and stored, or in a computer system that does not require registration of face data, the image data (face data) captured by the imaging means is independently analyzed to identify the old, young, male, Rough person authentication is performed, such as for women, so that personal computers can respond accordingly.
[0011]
Here, the analysis of the face data is performed as follows. First, an average value of feature amounts is obtained from face data of many adult men. The feature amount is sampling data such as the position, size, and color of each predetermined portion such as eyebrows, eyes, nose, and mouth in the face image. For example, an average value of feature amounts is obtained using face data in registration data of 1,000 adult men. The average value of the feature values of the adult male face data is used as the feature value reference value of the adult male. Similarly, feature amount reference values are obtained from face data for many adult women. Then, by comparing the feature amount of the newly acquired face data and the feature amount reference value to perform the person authentication, the person identification is performed by identifying the person while determining attributes such as old / young / man / woman. Do.
[0012]
The basic criteria for judging elderly men, elderly women, adult men, adult women, adolescent men (boys), adolescent women (girls), boys and girls are listed below. "Adult" excludes "elderly". Adult women are most likely to be wearing makeup when they go out, especially when applying lipstick to their lips. Therefore, when sampling the color of the lips from the face data to determine the distribution of the color components, if there is a bias in a specific color component such as a large red component and it differs from the original lip color, to decide. Conversely, if the result of sampling the color of the lips from the face data has no significant difference from the distribution of the color components of the original lips of a human, it is determined to be a man or a child. Furthermore, if there is a throat and a beard, it is determined that the subject is an adult man. However, even if the throat and the beard cannot be confirmed, it is not always possible to determine that the subject is not an adult man. Lip color, etc.).
[0013]
Also, if the hairstyle is remarkably short (for example, shaved head, square cut, sports cut, or skin head), the hair may be regarded as a man. Furthermore, if the earrings are worn as earrings larger than the earrings, the woman may be determined to be a woman. In addition, the forehead, the corners of the eyes, the cheeks, the wrinkles at the mouth, and the like are sampled, and if the feature amount of these sampled data is larger than the feature amount reference value, it is determined that the person is an elderly person. Also, comparing the face of an adult with the face of a child, the size of the face is naturally smaller for the face of the child, the components such as eyes and mouth are smaller, and the distance between the components such as eyes and mouth is also smaller. Since the child's face is shorter, if these components are smaller than the feature amount reference value or the distance is short, it is determined that the child is a boy such as a boy or a girl. Furthermore, since the skeleton of a child is less mature than that of an adult, it is possible to make a more accurate determination between an adult and a child by weighting the contour of the face and the degree of development of the jaw bone.
[0014]
The difference in skeleton between men and women occurs after puberty. However, since there is no difference in skeleton between boys and girls, discrimination between boys and girls based on facial contours is avoided. Furthermore, since there is little difference in the skeleton between adult women, adolescent men (boys), and adolescent women (girls), discrimination between them based on facial contours and the like is avoided. In addition, the features of a female face are more rounded than those of a male face, and the ratio of the distance between eyes to the size of the face is greater in a female face than in a male face. In other words, if the ratio of the distance between the eyes to the size of the face is small, the face looks sharp like a male face. Therefore, it is possible to determine an adult man and an adult woman based on the feature amount of the roundness of the contour of the face and the ratio of the distance between the eyes to the size of the face. There are many exceptions for the density, length, and black and white of the hair, and therefore, they are not used as criteria for judging elderly people, adults, and men and women.
[0015]
Hereinafter, some embodiments of the person authentication device according to the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram of a person authentication apparatus according to the present invention, which fetches an image of a person's face by an image data input unit and compares the image with a registered face image to authenticate a person. In FIG. 1, a person authentication device 1 includes an image data input unit 2 for capturing data of a person image, and a face area for extracting only a necessary face image region from the data of the person image captured by the image data input unit 2. An extraction unit (face area extraction unit) 3; and a feature amount detection unit (feature amount detection unit) that performs sampling for each predetermined portion of the face in order to extract the characteristics of a person from the face region extracted by the face area extraction unit 3. 4) a feature amount calculation image processing unit (feature amount calculation image processing means) 5 for calculating feature position data by calculating the position of the points sampled by the feature amount detection unit 4 and the relative distance between the points; A feature value recording unit (feature value recording means) 6 for recording feature value reference value data relating to an image of a registered person's face; and feature value data created by the feature value calculation image processing unit 5 An authentication unit (authentication means) 7 for comparing the feature amount reference value data recorded in advance in the amount recording unit 6 to authenticate a person; and acquiring the result of authentication by the authentication unit 7 and notifying the personal computer. It comprises an authentication result unit 8 and a control unit 9 for controlling the entire person authentication device 1.
[0016]
<First embodiment>
First, a person authentication device according to the first embodiment of the present invention will be described. When the personal authentication device according to the first embodiment starts up a personal computer having an image sensor such as a CCD, an image of a face of a person sitting in front of the personal computer is photographed by the image sensor such as a CCD and registered in the personal computer in advance. The system has a system configuration in which the data is compared with the data of the face image that has been set, and it is determined whether or not they match. At this time, the algorithm for extracting and authenticating the face image may be a comparative authentication technique generally used in the related art, or may be a method for detecting a detected face as described in, for example, JP-A-6-259534. An algorithm for performing authentication by comparing the feature amount of the area with the feature amount for authentication may be used.
[0017]
The operation of the person authentication device will be described based on FIG. When a person tries to operate a personal computer (not shown), an image of the person to be authenticated (person image P) is captured by an image sensor (not shown). Then, the person image P photographed by the image sensor is input to the image data input unit 2. At this time, when the input person image P includes information other than the face area such as the whole body / upper body image, the face area extracting unit 3 extracts only the image of the face area (face image). FIG. 2 is an image diagram of a face image extracted by the face area extraction unit 3 in FIG. That is, an image of a face as shown in FIG.
[0018]
Next, in order to extract the features of the person from the face image as shown in FIG. 2, the feature amount detection unit 4 performs sampling for each face portion. FIG. 3 is an image diagram for extracting a feature amount of face data from the face image shown in FIG. In the example of FIG. 3, for the eyebrow 10, the tip of the eyebrow, the tail of the eyebrow, and the middle part thereof are sampled. For the eye 11, the part of the inner eye, the corner of the eye, the middle, the upper eyelid, and the lower eyelid are sampled. As for 12, sampling is performed at several points in the area. In addition, the face contour / jaw 13 is sampled at several points along the contour. Further, for the mouth 14, the mouth corner, the upper lip, the lower lip, the opening, and the like are sampled. With respect to other face portions, a predetermined portion can be sampled if it is set in advance. The sampling data for each part obtained in this way is defined as a feature value.
[0019]
Each feature amount obtained as described above is subjected to image processing by the feature amount calculation image processing unit 5. That is, after various processes such as brightness adjustment, noise removal, and edge enhancement are performed by the feature amount calculation image processing unit 5, the coordinates of the sampling points are obtained, and then the distance between the sampling points (relative distance) and the like are obtained. Is performed to create feature amount data. Next, the authentication unit 7 compares the feature amount data created by the feature amount calculation image processing unit 5 with the feature amount reference value data of the face image registered in the feature amount recording unit 6 in advance. Is determined.
[0020]
When comparing the feature amount data with the feature amount reference value data, an arbitrary threshold value s (%) is set for the correlation between the two. If the result of the comparison by the authentication unit 7 is that the feature amount data is equal to or larger than the threshold value s (%), information of “match” is transmitted to the authentication result unit 8. Thus, the authentication result unit 8 authenticates the person who is going to be authenticated, and notifies the personal computer (not shown) that the operation is permitted.
[0021]
If the authentication unit 7 compares the feature amount data with the feature amount reference value data and finds that the feature amount data is smaller than the threshold value s (%), the control unit 9 controls the photographing conditions of the person. Is changed, and the person image P is again input to the image data input unit 2. In this way, the re-input operation of the person image P is repeated a certain number of times, and if the comparison between the feature data and the feature reference value data does not match in the authentication unit 7, the information of "mismatch" is sent to the authentication result unit 8. Tell In this way, if the feature amount data of the person that has just been captured is too far from the feature amount reference value data registered in advance, the person who is going to be authenticated at this determination stage is required to operate the personal computer. After making a final determination that the person is not a person to whom the right has been granted, the authentication result unit 8 notifies the personal computer that the operation is not permitted. By such a flow of the authentication operation, the person registered in advance is almost specified as the person who requests permission to operate the personal computer. If necessary, the feature amount data registered in the feature amount recording unit 6 may be updated when the authentication unit 7 performs the authentication comparison.
[0022]
<Second embodiment>
Next, a person authentication device according to a second embodiment of the present invention will be described. The personal authentication apparatus according to the second embodiment performs personal authentication when a single personal computer is shared by all the family members at home and gives each person an operation right. In a conventional personal computer using a person authentication unit by password registration, for example, a child can log in using a father's password. In this case, the current user is recognized as the father (adult) by the personal computer, so if the child himself connects to the Internet, he / she will see sites that are not suitable for children (sex, violence, etc.) without any restrictions. Can be done. In this case, you will be asked, "Are you 18 years old or older?", But if the child trying to operate the computer clicks "Yes", unlimited connections will be made to sites that are not suitable for children. There is virtually no regulation.
[0023]
Therefore, using the same algorithm as that in the first embodiment, the face data of the person image P captured by the image data input unit 2 of the person authentication device 1 shown in FIG. The shape, position, etc. of are extracted. Since the skeleton of a child is less mature than an adult, a difference appears in the outline of the face and the development of the jawbone. Naturally, since the size of the face is smaller in a child, components such as eyes and mouth are also small, and the distance between the components is short.
[0024]
FIG. 4 is an image diagram in which the person authentication device 1 shown in FIG. 1 extracts a feature amount of face data from an image of a face taken from an image of an adult person. FIG. 5 is an image diagram of extracting a feature amount of face data from a face image taken from a child person image in the person authentication device 1 shown in FIG. As can be seen by comparing FIGS. 4 and 5, even if the feature amount of the same face data portion is extracted from the image of the adult face in FIG. 4 and the image of the child's face in FIG. Since the relative distances and the positions of the sampling points, such as the outline of the face and the outline of the chin 13 and the mouth 14, are different, the authentication unit 7 can easily determine the difference between an adult and a child.
[0025]
A specific example of detecting the relative distance between points and the position of points in the face data of an adult and the face data of a child will be described in further detail. FIGS. 6A and 6B are conceptual diagrams when extracting the feature amount of the face data in the person authentication device 1 shown in FIG. 1, and FIG. 6A shows a part of the face data. FIG. 6B illustrates extraction of a feature amount of another part of the face data. As shown in FIG. 6A, the length of the eyebrows (between the eyebrows to the outside of the eyebrow) a and the height of the eyebrows b, the width of the eyes (between the eyes and the outside of the eyes) c and the vertical width d of the eyes, the width of the mouth e and the width of the mouth For the height f, the length g of the nose, and the like, the feature amount reference value of the adult male and the feature amount of the child are compared. Also, as shown in FIG. 6B, the interval between both eyes (left eye to right eye) h, the interval between both eyebrows (left eye to right eyebrows) i, the distance between the nose and the eye (nose to eye) j, the nose Distance between nose and mouth (nose-to-mouth angle) k, distance between nose and eyebrow (nose-to-eyebrow) m, distance between nose and chin (nose-to-chin) n, face width p, chin-to-chin (ella) As for the angle α and the angle β of the face outline, the feature amount reference value of the adult male and the feature amount of the child are compared.
[0026]
Depending on the child to be authenticated, there may be a case where a part of these features is not much different from the feature amount reference value of the adult male. Therefore, one of the following two determination methods is compared and determined.
(Method A) A method of determining how much a feature amount of a child to be authenticated is significantly different from a feature amount reference value of an adult male. For example, assuming that the child feature amount is smaller than the adult male feature amount reference value in 7 out of 9 items extracted from the above 16 items of a to k, m, n, p and α and β, The matching ratio with the feature amount reference value is (9−7) /9×100=22.2 (%). Here, an arbitrary threshold value t1 (%) is set in advance, and if the above matching ratio 22.2 (%) is equal to or greater than the threshold value t1 (%), the authentication unit 7 sets the face data Is determined to be an adult, and the fact is notified to the authentication result section 8. If the above matching ratio 22.2 (%) is less than the threshold value t1 (%), it is determined that the child is a child, and the fact is notified to the authentication result unit 8.
[0027]
(Method B) A method of determining how much the absolute value difference between the child's characteristic amount and the adult male characteristic amount reference value is. For example, if a certain standard deviation is given to the feature value reference value of adult males, almost all adult males are included in this group. On the other hand, as the age is lower, the value of the feature value is located farther from this group, that is, in a group that should be called a child feature value distribution. Therefore, it is verified for each item how much the obtained child feature amount is different from the adult male feature amount reference value (or distribution) for each item, and the matching ratio of the feature amount reference value in the case of method A is examined. As in the case, an arbitrary threshold value s1 (mm) is provided in advance, and if the feature amount is separated by the threshold value s1 (mm) or more, the authentication unit 7 determines that the child is a child and determines that the child is a child. Tell part 8. If the distance is less than the threshold value s1 (mm), it is determined that the person is an adult, and the fact is notified to the authentication result unit 8.
[0028]
FIG. 7 is a flowchart showing a process of authentication from input of a face image by a person authentication device to determination of an adult or child in the second embodiment of the present invention. That is, FIG. 7 determines whether the image of the person to be authenticated is an adult or a child based on the information on the feature amounts a to k, m, n, p and α and β of the face data described above. It is a flowchart which shows a procedure.
[0029]
In FIG. 7, first, feature amount data is called from the data table of the feature amount calculation image processing unit 5 (step S1). Next, it is determined whether or not the called feature amount data has a beard (step S2). Here, if there is no beard (No in step S2), it is determined whether or not the called feature amount data includes a throat (step S3). Here, if there is no buddha (No in step S3), as shown in FIG. 6, the angle β of the face contour, the eye sizes c and d, the nose length g, and the mouth sizes e and f Then, the characteristic amount data such as is measured (step S4). Then, the measured feature amount data is compared with the feature amount reference value stored in the feature amount recording unit 6 (step S5), and if the measured feature amount data is less than the feature amount reference value, the eyebrows, eyes, and nose Then, the position and distance of the mouth are measured (step S6). Further, the feature amount data of the position and the distance of the part measured at this time are compared with a feature amount reference value (step S7), and if the feature amount data is less than the feature amount reference value, the authentication unit 7 performs the measurement. The face data of the image of the person is authenticated (determined) as a child, and information to that effect is notified to the authentication result unit 8 (step S8). Further, the above-mentioned determination methods of the method A and the method B are included in the step S7.
[0030]
On the other hand, in step S2, there is a beard (in the case of Yes in step S2), in step S3, there is a throat buddha (in the case of Yes in step S3), and in step S5, the angle of the face contour, the size of eyes, nose, and mouth. If is greater than or equal to the feature amount reference value, and if the feature amount data of the positions and distances of the eyebrows, eyes, nose, and mouth is greater than or equal to the feature amount reference value in step S7, the authentication unit 7 The face data is authenticated (determined) as an adult, and information to that effect is notified to the authentication result unit 8 (step S9). In this way, when it is determined that the face data of the image of the measured person is a child, a command is sent to the personal computer so that entry to a site that is not suitable for a child is restricted. Here, when the age is about 15 to 17 years, the difference between the skeleton of the adult and the child becomes small and it becomes difficult to determine. However, the authentication can be performed by appropriately changing the threshold value t (%) or the threshold value s (mm). Accuracy can be improved.
[0031]
<Third embodiment>
Next, a person authentication device according to a third embodiment of the present invention will be described. The person authentication apparatus according to the third embodiment performs person authentication when a large number of persons use a personal computer in an environment shared and used by an unspecified number of persons. PCs in an environment commonly used by an unspecified number of people, such as Internet cafes, cannot usually customize the operation level of PCs for each customer despite the fact that they are used to or unfamiliar with the operation of the user. It is considered that there is a difference in the operation level of a personal computer between a woman generally considered to be vulnerable to a machine and a man considered to be a machine expert. Therefore, it would be very convenient if the personal computer operation could be customized for each user.
[0032]
Also in this case, using the same algorithm as that of the first embodiment, the face data of the person image P captured by the image data input unit 2 of the person authentication device 1 shown in FIG.・ Extract the shape and position of the mouth. Here, in general, the skeleton of an adult female is slightly smaller than that of an adult male, so that a difference appears in the contour of the face and the degree of development of the jawbone between an adult female and an adult male. Naturally, the size of the face is smaller in women, so that components such as eyes and nose are small, and the distance between components such as eyes and nose is also short.
[0033]
Specifically, feature data of adult females such as eye sizes c and d, mouth sizes e and f, and nose length g shown in FIG. 6 are compared with adult male feature value reference values. . Also, the distance h between the eyes, the distance i between the eyebrows i, the distance j between the nose and the eye, the distance k between the nose and the mouth, the distance n between the nose and the chin, the face width p, the chin angle α, the face contour angle β, etc. A similar comparison is made for. For some adult women, the result may be that some of these features are not much different from the reference values of the features of an adult male.
[0034]
Therefore, one of the following three determination methods is compared and determined. Of course, the determination may be made by combining these methods.
(Method C) A method of determining the presence or absence of makeup. In general, it is considered that an adult woman generally wears makeup when going out. Therefore, when sampling the skin color of an adult woman, it is usually different from the feature amount of the skin color of an adult man who does not make up. The sampling points are, for example, around the eyes 11 in FIG. 3, several parts of the cheeks 12, each part of the mouth 14, and the like, and color data of these sampling points has a color bias or a specific color increase. If so, judge it as an adult woman.
[0035]
For example, a specific color such as blue, brown, or black increases around the eye 11 when an adult woman wears an eye shadow or an eye line. In addition, when the cheeks 12 of an adult woman are blusher, the cheeks 12 are biased in color such as red and pink. Further, since the mouth 14 of an adult woman is often painted with lipstick, a specific color such as red increases. In particular, since the color of the blue component is a color component (pigment) not found in human skin, whether or not makeup is applied by extracting these color components, that is, whether it is an adult female or adult male Can be determined.
[0036]
(Method D) A method of determining the number of significant differences between the feature value of an adult woman and the feature value reference value of an adult man. For example, if seven of the eleven items extracted from the 16 items a to k, m, n, p and α and β described above indicate that the feature amount of an adult female is smaller than the feature amount reference value of an adult male. For example, the matching ratio with the feature amount reference value is (11−7) /11×100=36.4 (%). An arbitrary threshold value t2 (%) is set in advance, and if the matching ratio 36.4 (%) is equal to or greater than the threshold value t2 (%), the authentication unit 7 determines that it is an adult male and notifies that fact. Notify the authentication result section 8. If the coincidence ratio 36.4 (%) is less than the threshold value t2 (%), it is determined to be an adult woman, and the fact is notified to the authentication result section 8.
[0037]
(Method E) A method for determining how much the absolute value difference between the feature value of an adult woman and the feature value reference value of an adult man is. For example, if a certain standard deviation is given to the feature value reference value of adult males, almost all adult males are included in this group. On the other hand, in the case of an adult female, the value of the feature value is located at a position distant from this group, that is, in a group that should be called a feature value distribution of the adult female. Therefore, it is verified for each item how much the feature amount obtained from the adult woman is far from the feature amount reference value (or distribution) of the adult man. That is, as in the case of comparing and judging an adult and a child in the second embodiment, an arbitrary threshold value s2 (mm) is provided in advance, and the feature amount is separated from the threshold value s2 (mm) or more. If so, it is determined to be an adult woman and that fact is communicated to the authentication result section 8. If the feature value is less than the threshold value s2 (mm), it is determined to be an adult man and the fact is notified to the authentication result unit 8.
[0038]
In other cases, it may be acceptable to judge an adult woman based on other criteria. For example, when earrings are used as earrings larger than earrings, it may be determined to be an adult woman. On the other hand, when the person has a throat and a beard, or when the hairstyle is short (for example, shaved head, square cut, sports cut, skin head, etc.), it may be determined to be an adult male.
[0039]
FIG. 8 is a flowchart illustrating a process of authentication from input of a face image by the person authentication device to determination of a woman or a man in the third embodiment of the present invention. That is, in FIG. 8, it is determined whether the image of the person to be authenticated is a woman or a man based on the information of the feature amounts a to k, m, n, p and α and β of the face data described above. It is a flowchart which shows a procedure.
[0040]
In FIG. 8, first, feature amount data is called from the data table of the feature amount calculation image processing unit 5 (step S11). Next, it is determined whether or not the called feature amount data has a beard (step S12). Here, if there is no beard (No in step S12), it is determined whether or not the called feature amount data includes a throat (step S13). Here, if there is no throat buddha (No in step S13), as shown in FIG. 6, the angle β of the face contour, the eye sizes c and d, the nose length g, and the mouth sizes e and f Are measured (step S14). Then, the measured feature amount data is compared with a feature amount reference value (step S15). If the measured feature amount data is less than the feature amount reference value, the positions and distances of eyebrows, eyes, nose, and mouth are measured ( Step S16). Further, the characteristic amount data of the position and the distance of the part measured at this time are compared with a characteristic amount reference value (step S17). If the characteristic amount data is less than the characteristic amount reference value, the authentication unit 7 performs the measurement. The face data of the image of the person is authenticated as a woman, and the information to that effect is notified to the authentication result section 8 (step S18). Further, the above-described determination methods from the method C to the method E are included in the above-described step S17.
[0041]
On the other hand, in step S12, there is a beard (in the case of Yes in step S12), in step S13, there is a throat buddha (in the case of Yes in step S13), and in step S15, the angle of the face contour, the size of eyes, nose, and mouth. Is greater than or equal to the feature amount reference value, and if the feature amount data of the positions and distances of the eyebrows, eyes, nose, and mouth is greater than or equal to the feature amount reference value in step S17, the authentication unit 7 The face data is authenticated as a male, and the information to that effect is notified to the authentication result section 8 (step S19). When a woman is thus determined, a command is sent to the personal computer so that the help function of the personal computer is displayed more carefully and easily than usual, and a voice operation guide is provided.
[0042]
<Fourth embodiment>
Next, a person authentication device according to a fourth embodiment of the present invention will be described. The person authentication apparatus according to the fourth embodiment performs person authentication when an elderly person uses a personal computer. That is, if it is convenient to be able to customize the operation of the personal computer for each user, there is a case where an elderly person is an operation target, in particular. Also in the case of the fourth embodiment, using the same algorithm as that of the first embodiment, the face data of the person image P captured by the image data input unit 2 of the person authentication device 1 shown in FIG. , Shapes and positions of eyebrows, eyes, nose, mouth, etc. are extracted. In addition, the degree of sagging of the cheeks and the color and luster / stain / wrinkles of the skin are extracted as elements for determining the face of the elderly.
[0043]
At this time, since it is difficult to numerically compare the degree of sagging of the cheeks and the stains, etc., streaks (wrinkles) of the forehead, the outer corner of the eyes, the cheeks, and the mouth are detected from the sampling result of the face image. Then, the streak (wrinkle) is defined as a set of continuous points equal to or greater than v (mm), and the number is compared with a feature amount reference value of an adult male. Here, a threshold value w (book) is set in advance, and if the streak (wrinkle) of the sampling result of the face image is equal to or greater than the threshold value w (book), the authentication unit 7 determines that the person image is an elderly person. And notifies the authentication result unit 8 of the determination. If the streak (wrinkle) is less than the threshold value w (book), the image of the person is determined not to be an elderly person, and the fact is transmitted to the authentication result unit 8. Note that v and w are arbitrary rational numbers.
[0044]
FIG. 9 is a flowchart showing a process of authentication from input of a face image by a person authentication device to determination of an elderly person in the fourth embodiment of the present invention. In FIG. 9, first, feature amount data is called from the data table of the feature amount calculation image processing unit 5 (step S21). Then, the wrists, the corners of the eyes, the nose, the corners of the mouth and the cheeks are measured from the feature amount data (step S22). Next, the measured feature value data is compared with the feature value reference value (step S23). If the measured feature value data (the outer corner of the eye, the nostrils, the corners of the mouth, the wrinkles of the cheeks, etc.) is equal to or more than the feature value reference value, Then, the color and luster of the forehead and cheek are measured (step S24). Further, the feature amount data of the color and gloss of the forehead and cheek measured at this time is compared with a feature amount reference value (step S25), and if these feature amount data are less than the feature amount reference value (for example, forehead or cheek) If the color or luster of the image is different from the natural color), the authentication unit 7 authenticates that the measured face data of the image of the person is an elderly person and notifies the authentication result unit 8 of the information (step S26). ).
[0045]
On the other hand, in step S23, the feature amount data of the corners of the eyes, the nostrils, the corners of the mouth, and the wrinkles of the cheeks are smaller than the feature amount reference values, or in step S25, the feature amount data of the forehead, cheek color and gloss measured in step S24 are used. When the feature value is equal to or larger than the reference value (that is, the forehead and cheeks are close to the natural color and luster), the authentication unit 7 authenticates the image of the measured person as a non-elderly person, and outputs information indicating that to the effect. The notification is made to the unit 8 (step S27). If the person is judged to be an elderly person in this way, the help function of the personal computer is displayed more carefully and clearly than usual, the displayed characters are larger than usual, and the volume of the operation guide by voice is increased. Or send a command to the personal computer.
[0046]
<Fifth embodiment>
Next, a person authentication device according to a fifth embodiment of the present invention will be described. The person authentication apparatus according to the fifth embodiment performs person authentication at regular intervals for a person who uses a personal computer. For example, when sharing a personal computer at home with the whole family, once the computer is authenticated with the father at the start of use, even if the child has been using the computer on his way, the child has been using it for a long time. However, the current user is recognized by the personal computer as a father (adult). In order to solve this, verification of face data of a person is repeated at regular intervals, and authentication is performed each time. This eliminates the inconvenience that occurs when a person who has performed person authentication at the time of activation is replaced with another person.
[0047]
<Sixth Embodiment>
Next, a person authentication device according to a sixth embodiment of the present invention will be described. The person authentication device according to the sixth embodiment performs person authentication so that a personal computer used by an unspecified number of people is not used for a crime. For example, a personal computer in an environment that is shared and used by an unspecified number of people, such as an Internet cafe, has a risk of being used for a crime by utilizing the fact that the user is unspecified. For example, using anonymity at the time of operation to send unsolicited e-mail equivalent to stalking, or fraudulent activities in Internet transactions such as securities have actually occurred.
[0048]
Therefore, by applying the function of the person authentication device of the present invention, the image of the face captured by the image data input unit at the start of use of the personal computer is registered and stored as image data (face data). This image data is normally closed from the viewpoint of privacy protection, but it is assumed that it can be used after a certain procedure such as the law. Thereby, for example, when a spam mail is received, if the source Internet cafe is specified from the IP address or the like, the criminal can be specified from the image data of the face image registered and stored inside. . In addition, if the image data of the wanted man is registered in the personal computer, the image data of the wanted man registered and accumulated at the start of using the personal computer can be collated. Here, when it is determined that they match, it is also possible to notify the police. Thus, it is also effective in criminal investigations.
[0049]
The embodiment described above is an example for describing the present invention, and the present invention is not limited to the above embodiment, and various modifications are possible within the scope of the invention. For example, in the above-described embodiment, the case where the personal authentication device is applied to the personal computer has been described. However, the present invention is not limited to this. For example, when the personal authentication device is used at a financial institution or when a credit is used at a department store or the like. It can also be applied to authentication. That is, the personal authentication device of the present invention can be widely applied to a case where a desired device is operated, a case where it is determined whether or not an operation right is given to the device, or a case where authentication is performed.
[0050]
By the way, as is clear from the description of the person authentication device described in each of the above embodiments, the authentication unit is configured by the feature amount data acquired from the feature amount calculation image processing unit and the feature amount reference value acquired from the feature amount recording unit. Comparing and analyzing the data and identifying the person in broad categories such as old, young, male, and female based on the analysis result, and determining the applicable range of the desired device according to the identified person This is a preferred embodiment of the present invention. With this, for example, when an elderly person or a woman who is generally said to be vulnerable to the operation of a personal computer uses a personal computer, the help function is displayed more carefully and easily than usual, and a voice operation guide is provided. , It is possible to set the environment in which the PC can be easily used.
[0051]
Also, a person authentication device that captures an image of a person who intends to perform an operation of a desired device by an imaging unit, extracts a face image from the image of the person, and authenticates the person, starts using the desired device. Sometimes a face image of a person is captured by the image data input means and analyzed as face image data, and the face image data is compared with previously registered and stored face image data to determine whether they match. It is a preferred embodiment of the present invention to configure such that if they match, a right such as file access or Internet connection by a desired device (for example, a personal computer) is permitted. As a result, it is possible to prevent a person who is not authorized to operate the personal computer from illegally accessing a file or a child from accessing an undesirable site.
[0052]
Also, it is determined whether the image data of the face of the person who wants to perform the operation of the desired device matches the image data of the face registered and stored in advance to determine whether or not the image data matches. It is a preferable aspect of the present invention to configure so as to partially limit the applicable range of (for example, a personal computer). Thus, for example, when sharing a personal computer in the same family or workplace, or when operated by a person other than the main registrant, it can be used within a range where confidential contents cannot be disclosed.
[0053]
Also, it is determined whether the image data of the face of the person who is to perform the operation of the desired device matches the image data of the face registered and stored in advance to determine whether or not they match. It is a preferred embodiment of the present invention to configure so as to partially restrict file access by a device (for example, a personal computer) and Internet connection. Thus, for example, when sharing a personal computer with the same family, it is possible to restrict access to some undesirable sites only when a child operates the personal computer.
[0054]
Also, image data of a face of a person who intends to perform an operation of a desired device is fetched and analyzed, and if the analysis result does not satisfy a certain condition, a part of a possible range of the desired device (for example, a personal computer) is reduced. Restrictive configuration is a preferred aspect of the present invention. Thus, for example, when sharing a personal computer with the same family, if a person other than the main registrant, such as a child, operates the personal computer, general use is possible, but careless access to important files is inadvertent. Content cannot be erased or rewritten.
[0055]
In addition, image data of a face of a person who intends to perform an operation of a desired device is captured and analyzed. If the analysis result does not satisfy a certain condition, a file access by a desired device (for example, a personal computer) or an Internet connection is performed. Is a preferred embodiment of the present invention. For example, when sharing a personal computer at the same workplace, when a person other than the main registrant operates, or when a person who does not satisfy the conditions above the specified responsibilities tries to operate, general use However, confidential contents such as personnel records cannot be disclosed.
[0056]
【The invention's effect】
As described above, according to the person authentication device of the present invention, by extracting features from a face image of a person who intends to operate a personal computer, it is possible to restrict the operation of the personal computer by a person who does not have the operation right. . For example, when accessing a file or site that needs to be restricted for security or confidentiality, perform personal authentication when accessing a file or site, or access a site that is not suitable for children to watch in an environment where a personal computer is shared at home. This can be used when performing person authentication when restricting. Further, such a person authentication device is also used for a personal computer in an environment where an unspecified number of people share and use it, such as an Internet cafe. For example, in a personal computer in an environment in which an unspecified number of people share and use, the age and gender of the person are determined, and the present invention is also applied to a case where the operation assistance suitable for each user is performed. This can be easily realized by performing person authentication using a person authentication device. That is, by using the person authentication device of the present invention, security, convenience, and operability when operating the personal computer can be further improved.
[Brief description of the drawings]
FIG. 1 is a block diagram of a person authentication apparatus according to the present invention which fetches an image of a person's face by an image data input unit and compares the image with a registered face image to authenticate a person;
FIG. 2 is an image diagram of a face image extracted by a face area extracting unit 3 in FIG. 1;
FIG. 3 is an image diagram for extracting a feature amount of face data from the face image shown in FIG. 2;
FIG. 4 is an image diagram for extracting a feature amount of face data from a face image captured from an image of an adult person in the person authentication device shown in FIG. 1;
FIG. 5 is an image diagram for extracting a feature amount of face data from an image of a face captured from an image of a child person in the person authentication device shown in FIG. 1;
FIGS. 6A and 6B are conceptual diagrams in a case where a feature amount of face data is extracted in the person authentication apparatus shown in FIG. 1, wherein FIG. 6A shows extraction of a part of the face data, and FIG. 5 shows the extraction of the feature amount of another part of FIG.
FIG. 7 is a flowchart illustrating a process of authentication from input of a face image by a person authentication device to determination of an adult or child in the second embodiment of the present invention.
FIG. 8 is a flowchart showing a process of authentication from input of a face image by a person authentication device to determination of a woman or a man in the third embodiment of the present invention.
FIG. 9 is a flowchart illustrating a process of authentication from input of a face image by a person authentication device to determination of an elderly person in a fourth embodiment of the present invention.
[Explanation of symbols]
1 person authentication device
2 Image data input section
3 face area extraction unit (face area extraction means)
4 feature value detection unit (feature value detection means)
5. Feature calculation image processing unit (feature calculation image processing means)
6. Feature recording unit (feature recording means)
7 Authentication section (authentication means)
8 Authentication result section
9 Control unit
10 eyebrows
Eleventh
12 cheeks
13 Facial contours and jaws
14 mouths
P People image
a Length of eyebrows (between eyebrows and eyebrows)
b Eyebrow height
c Width of eyes (from inner to outer corners)
d Eye width
e Width of mouth
f Mouth height
g Nose length
h Spacing between eyes (left eye to right eye)
i Interval between both eyebrows (left eyebrow to right eyebrow)
j Distance between nose and eyes (nose-to-eye)
k Distance between nose and mouth (nose-to-mouth corner)
m Distance between nose and eyebrow (nose to eyebrow)
n Distance between nose and chin
p face width
α Angle between chin and jaw base (jaw angle)
β Face contour angle

Claims (2)

所望の装置の操作を実行しようとする人物を撮像して得た人物の画像から前記人物の顔の画像を抽出して、前記人物の認証と前記装置に対して対応可能範囲の指示とを行う人物認証装置であって、
前記人物の前記画像を取り込んで前記顔の画像領域を抽出する顔領域抽出手段と、
前記顔領域抽出手段が抽出した前記顔の画像領域の所定部分ごとのサンプリングデータを特徴量として検出する特徴量検出手段と、
前記特徴量検出手段が検出した前記特徴量を演算して特徴量データを作成する特徴量演算画像処理手段と、
複数の人物の特徴量データからあらかじめ求めた特徴量基準値データを記録する特徴量記録手段と、
前記特徴量演算画像処理手段から取得した前記特徴量データと前記特徴量記録手段から取得した前記特徴量基準値データとを比較解析し、
この解析結果に基づいて前記人物の属性を特定し、
特定した前記属性に応じて前記所望の装置の対応可能範囲を設定し、
前記対応可能範囲を前記装置に対して指示する認証手段とを、
備える人物認証装置。
The image of the face of the person is extracted from the image of the person obtained by imaging the person who is going to perform the operation of the desired device, and the authentication of the person and the instruction of the applicable range to the device are performed. A person authentication device,
Face area extraction means for capturing the image of the person and extracting an image area of the face,
A feature amount detecting unit that detects, as a feature amount, sampling data for each predetermined portion of the face image region extracted by the face region extracting unit;
A feature amount calculation image processing unit that calculates the feature amount detected by the feature amount detection unit to create feature amount data;
Feature amount recording means for recording feature amount reference value data previously obtained from feature amount data of a plurality of persons;
Comparing and analyzing the feature amount data obtained from the feature amount calculation image processing unit and the feature amount reference value data obtained from the feature amount recording unit,
Identifying the attribute of the person based on the analysis result,
Setting a possible range of the desired device according to the specified attribute,
An authentication unit that instructs the device to indicate the applicable range,
A person authentication device provided.
前記顔領域抽出手段は、所定の時間ごと又は前記人物の属性に所定の変化が生じるごとに前記人物の前記画像を取り込んで顔の画像領域を抽出し、
前記認証手段は、前記顔領域検出手段が顔の画像領域を抽出するごとに前記特徴量データと前記特徴量基準値データとを比較解析することを特徴とする請求項1に記載の人物認証装置。
The face area extracting means extracts the image area of the face by capturing the image of the person every predetermined time or every time a predetermined change occurs in the attribute of the person,
2. The apparatus according to claim 1, wherein the authentication unit compares and analyzes the feature amount data and the feature amount reference value data each time the face area detection unit extracts a face image area. 3. .
JP2003111641A 2003-04-16 2003-04-16 Figure authentication system Withdrawn JP2004318501A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003111641A JP2004318501A (en) 2003-04-16 2003-04-16 Figure authentication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003111641A JP2004318501A (en) 2003-04-16 2003-04-16 Figure authentication system

Publications (1)

Publication Number Publication Date
JP2004318501A true JP2004318501A (en) 2004-11-11

Family

ID=33472133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003111641A Withdrawn JP2004318501A (en) 2003-04-16 2003-04-16 Figure authentication system

Country Status (1)

Country Link
JP (1) JP2004318501A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006163453A (en) * 2004-12-02 2006-06-22 Hitachi Ltd Authentication system using biometrics
JP2006202049A (en) * 2005-01-20 2006-08-03 Omron Corp Face recognition apparatus
JP2006323507A (en) * 2005-05-17 2006-11-30 Yamaha Motor Co Ltd Attribute identifying system and attribute identifying method
JP2007208922A (en) * 2006-02-06 2007-08-16 Fujifilm Corp Imaging apparatus
JP2008021096A (en) * 2006-07-12 2008-01-31 Mitsubishi Electric Building Techno Service Co Ltd Biological information searching system
JP2008140319A (en) * 2006-12-05 2008-06-19 Mitsubishi Electric Corp Personal identification device and personal identification system
JP2012181629A (en) * 2011-02-28 2012-09-20 Sogo Keibi Hosho Co Ltd Face detection method, face detection device, and program
US20210200845A1 (en) * 2019-12-31 2021-07-01 Atlassian Pty Ltd. Illumination-based user authentication

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006163453A (en) * 2004-12-02 2006-06-22 Hitachi Ltd Authentication system using biometrics
JP2006202049A (en) * 2005-01-20 2006-08-03 Omron Corp Face recognition apparatus
JP2006323507A (en) * 2005-05-17 2006-11-30 Yamaha Motor Co Ltd Attribute identifying system and attribute identifying method
JP4668680B2 (en) * 2005-05-17 2011-04-13 ヤマハ発動機株式会社 Attribute identification system and attribute identification dictionary generator
JP2007208922A (en) * 2006-02-06 2007-08-16 Fujifilm Corp Imaging apparatus
JP4554529B2 (en) * 2006-02-06 2010-09-29 富士フイルム株式会社 Imaging device
JP2008021096A (en) * 2006-07-12 2008-01-31 Mitsubishi Electric Building Techno Service Co Ltd Biological information searching system
JP2008140319A (en) * 2006-12-05 2008-06-19 Mitsubishi Electric Corp Personal identification device and personal identification system
JP2012181629A (en) * 2011-02-28 2012-09-20 Sogo Keibi Hosho Co Ltd Face detection method, face detection device, and program
US20210200845A1 (en) * 2019-12-31 2021-07-01 Atlassian Pty Ltd. Illumination-based user authentication
US11983256B2 (en) * 2019-12-31 2024-05-14 Atlassian Pty Ltd. Illumination-based user authentication

Similar Documents

Publication Publication Date Title
Steiner et al. Reliable face anti-spoofing using multispectral SWIR imaging
JP4611575B2 (en) Face image collation device for personal authentication
US6920236B2 (en) Dual band biometric identification system
JP5043097B2 (en) Person identification method by eyelash analysis
JP4156430B2 (en) Face verification method and system using automatic database update method
US20140341440A1 (en) Identity caddy: a tool for real-time determination of identity in the mobile environment
JP5480532B2 (en) Image processing apparatus, image processing method, and program for causing computer to execute the method
JP2004318501A (en) Figure authentication system
Thong et al. Beyond skin tone: A multidimensional measure of apparent skin color
JP2004110813A (en) Personal identification device
Garg et al. Biometric authentication using soft biometric traits
van de Haar et al. The characteristics of a biometric
JP4937639B2 (en) Authentication method, authentication device, authentication program, and recording medium on which the program is recorded
CN114730160B (en) Watch comprising a system for controlling biometric access to confidential data
JP2005084979A (en) Face authentication system, method and program
Phillips et al. A cancellable and privacy-preserving facial biometric authentication scheme
Azimi et al. The effects of gender factor and diabetes mellitus on the iris recognition system’s accuracy and reliability
KR101057718B1 (en) How to determine whether the acquired image can be identified by the user
WO2018116560A1 (en) Comparison device and comparison method
Khan et al. Face recognition techniques (frt) based on face ratio under controlled conditions
KR102439216B1 (en) Method and server for recognizing face wearing mask using artificial intelligence deep learning
WO2022064565A1 (en) Comparison device, comparison method, and program
Bronzin et al. Individualization of Anonymous Identities Using Artificial Intelligence (AI)
Choudhury et al. Cosmetic applied based face recognition for biometric passport
Mirabet-Herranz et al. Facial Biometrics in the Social Media Era: An in-Depth Analysis of the Challenge Posed by Beautification Filters

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060704