JPH08320920A - 手動作認識装置および方法 - Google Patents

手動作認識装置および方法

Info

Publication number
JPH08320920A
JPH08320920A JP7124745A JP12474595A JPH08320920A JP H08320920 A JPH08320920 A JP H08320920A JP 7124745 A JP7124745 A JP 7124745A JP 12474595 A JP12474595 A JP 12474595A JP H08320920 A JPH08320920 A JP H08320920A
Authority
JP
Japan
Prior art keywords
hand
data
model
feature amount
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7124745A
Other languages
English (en)
Inventor
Yuji Takada
雄二 高田
Hideaki Matsuo
英明 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP7124745A priority Critical patent/JPH08320920A/ja
Publication of JPH08320920A publication Critical patent/JPH08320920A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 手動作の認識を行なう際に、1台のみカメラ
で撮影した画像から認識を行なうことを可能にするこ
と。 【構成】 1台の撮影手段と、撮影手段からの画像を入
力する画像入力手段と、入力した画像から、肩、手、肘
の画像面上での位置を検出する身体部位抽出手段と、
肩、手、肘の位置から特徴量を計算する特徴抽出手段
と、解析を行なうための知識を記憶しておく知識記憶手
段と、計算された特徴量を元に手動作を解析する手動作
解析手段と、解析結果を出力信号に変換する翻訳手段か
らなる手動作解析装置であり、画像面上の肩、手、肘の
位置から特徴量を計算し、計算した特徴量と、知識記憶
部に記憶したモデルとを比較することで、手動作の認識
を行なう。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、手動作認識装置に関
し、特に、センサーを用いることなく、1台のみのカメ
ラを用いて人間の身振りや手振りの認識を行なう手動作
認識装置とその認識方法に関する。
【0002】
【従来の技術】人間の身振りや手振りの認識を行なう方
法として、センサ等を体につけて、体の各部位の動きを
捉えて行なう方法と、カメラを用いて行なう方法とがあ
る。
【0003】また、カメラを用いて行なう方法では、複
数台のカメラを用いて人間の奥行きを含めた動きを捉え
て行なう方法などがある。
【0004】
【発明が解決しようとする課題】カメラを使って人間の
身振りや手振りの認識を行なう場合、複数台のカメラを
用いる方法があるが、複数枚の画像を処理しなければな
らないため、処理に時間がかかり、また、装置全体が大
規模なものとなっていた。
【0005】また、手動作モデルを用いて認識を行なう
場合、認識を行なう手動作の数だけモデルが必要とな
り、モデル数が膨大になっていた。
【0006】また、1台のカメラで奥行きを含む動作を
認識することは、困難であった。上記問題点に鑑み、本
発明では、1台の撮影装置のみによって、手動作認識を
可能にすることを目的とする。
【0007】また、手動作モデルを手動作を構成する単
一方向動作毎にモデルを持たせ、認識を行なう動作の種
類が増えても、手動作モデルの数を増やさずに、認識を
行なうことを目的としている。
【0008】また、本発明は、1台の撮影装置のみで、
手動作の奥行き情報を容易に認識することを目的とす
る。
【0009】
【課題を解決するための手段】上記目的を達成するため
に、人物の手動作を撮影する1台の撮影装置と撮影手段
で撮影した画像を入力する画像入力手段と、画像入力手
段で入力された画像から、手の位置、肘の位置、肩の位
置を抽出する身体部位抽出手段と、身体部位抽出手段で
得られた手の位置、肘の位置、肩の位置から、特徴量を
算出する特徴量抽出手段と、特徴量抽出手段で算出され
た特徴量から、動作を解析し、解析した手動作を出力手
段に合わせた出力信号に変換する手動作解析手段と、手
動作を解析するための知識を記憶するための知識記憶手
段と、出力信号を出力する出力手段を備えた手動作認識
装置である。
【0010】また、上記手動作認識装置を用い、知識記
憶部に全ての手動作のモデルから計算された特徴量のモ
デルである手動作モデルを記憶しておき、画像面上にお
ける手の位置と、肘の位置と、肩の位置から特徴量を計
算し、それと手動作のモデルを比較することにより、手
動作の認識を行なう手動作認識方法である。
【0011】また、上記手動作認識装置の構成に加え、
変化検出手段を備えた手動作認識装置である。
【0012】また、画像中の方向を一定角度で分割した
グループ毎に2次元コードを与え、認識を行なう3次元
単一方向動作に対して、3次元単一方向動作モデルから
計算される特徴量モデルを、3次元単一方向動作を2次
元の画像面に投影した軌跡から決定した2次元コードで
あるモデル手方向で分割して用意し、画像面上の手の軌
跡から、画像面上の手の移動方向から2次元コードで表
される手方向を算出し、手動作の画像面上の手の位置、
肘の位置、肩の位置から特徴量を計算し、手方向とモデ
ル手方向が一致する3次元単一方向動作モデルの特徴量
データと、計算した特徴量を比較することにより、3次
元運動方向の解析を行なう手動作解析方法である。
【0013】
【作用】本発明の手動作認識装置及び方法によれば、1
台のカメラで対象を撮影し、撮影した画像から、肩と手
と肘の位置を求め、手動作の特徴量を計算することによ
り、手動作を認識することができる。
【0014】また、変化検出手段によって、手の画像面
上での軌跡の方向の変化点を検出し、検出される変化点
の間の手動作の特徴量を単一方向手動作のモデル動作と
比較して3次元運動方向を解析することによって、手動
作の種類が増えても、手動作モデルの数を増やさずに、
3次元運動方向の組合せから手動作を認識することが可
能となる。
【0015】また、画像面上での軌跡の方向によって与
えられる2次元コードを用いて、手動作モデルを選択す
ることで、マッチングを行なうモデルの数を少なくする
ことが可能になる。
【0016】
【実施例】
(実施例1)本発明の手動作認識装置の第1の実施例に
ついて記述する。図1は、本発明の第1の手動作認識装
置の構成図を示す。1は本発明の第1の手動作認識装置
である。2は、撮影装置である。3は画像入力部であ
る。4は画像記憶部である。5は身体部位抽出部であ
る。6は部位データ記憶部である。7は特徴量抽出部で
ある。8は特徴量記憶部である。9は手動作解析部であ
る。10は、知識記憶部である。11は出力部である。
身体部位抽出部5、特徴量抽出部7、手動作解析部9
は、1台のコンピュータで実現可能である。画像記憶部
4、部位データ記憶部6、特徴量記憶部8、知識記憶部
10は、コンピュータに接続された大容量磁気記憶装置
もしくは光ディスク装置、もしくは、コンピュータ内部
のメモリによって実現される。出力部11は、コンピュ
ータに接続されたディスプレイや、スピーカ等によって
実現される。画像入力部3は、コンピュータに接続され
る既存の画像処理ボード等によって実現される。撮影装
置2は、ビデオカメラ、CCDカメラ等で実現され、画
像入力部3にビデオケーブル等で接続される。画像入力
部3は、撮影装置2からの動画像をフレーム毎に取り込
む。画像入力部3は、取り込んだ動画像の各フレームの
画像を画像記憶部4に記憶する。身体部位抽出部5は、
画像記憶部4に記憶された画像から肘、手、肩の位置を
抽出し、部位データ記憶部6に蓄積する。特徴量抽出部
7は、部位データ記憶部6に蓄積された部位データを元
に手動作を解析するのに必要な特徴量を計算し、特徴量
記憶部8へ送る。手動作解析部9では、知識記憶部10
に記憶している知識を元に、特徴量記憶部8に蓄積され
た特徴量から、手動作の解析を行ない、認識された手動
作を出力信号に変換して、出力部11に出力する。
【0017】次に本実施例の手動作認識装置の具体的な
動作について、図1と、図3、図4、図5に示す流れ図
を用いて説明する。
【0018】手動作認識装置の動作は、画像取り込み過
程、身体部位抽出過程、特徴量抽出過程、手動作解析出
力過程の4つの過程から構成される。画像入力部3で画
像取り込み過程、身体部位抽出部5で身体部位抽出過
程、特徴量抽出部7で特徴量抽出過程、手動作解析部9
で手動作解析出力過程を、それぞれ独立してして行な
う。各々の過程の処理について以下順番に記述してい
く。
【0019】画像取り込み過程について記述する。撮影
装置2によって、手動作を行なう人物を上半身が写るよ
うに撮影し、画像入力部3によって取り込む。画像入力
部3は、標準でNTSC規格の1/30秒のサンプリン
グ間隔でフレーム毎に取り込む。画像入力部3のパラメ
ータを変更することで、例えば、1/5秒のサンプリン
グ間隔で取り込むことが可能である。画像入力部3は、
取り込んだ画像を画像記憶部4の一番最後に記憶する。
画像記憶部4に記憶されている画像を、IMG_1、I
MG_2、...、IMG_Nとすると、取り込んだ画
像をIMG_N+1として、IMG_Nの後ろに記録す
る。
【0020】身体部位抽出過程の処理を図3の流れ図に
沿って記述する。身体部位抽出部5は、画像記憶部4の
画像をチェックする。画像が記憶されていない場合、画
像記憶部4に画像が記憶されるまで待機する。画像記憶
部4に画像が記憶されていた場合、ステップ102に進
む(ステップ101)。
【0021】身体部位抽出部5は、画像記憶部4の1番
先頭の画像IMG_1を読み込む(ステップ102)。
【0022】身体部位抽出部5は、IMG_1から顔領
域FR、左手領域LHR、右手領域RHRを抽出する。
まず、IMG_1から肌色領域を抽出する。肌色領域の
抽出方法は、例えば、IMG_1の各画素のRGB成分
(rf,gf,bf)と、肌色のRGB成分(rs,g
s,bs)の差分をとることによって抽出する。肌色領
域の抽出方法は、肌色領域を抽出可能であれば、他の方
法でもかまわない。図13に抽出された肌色領域の例を
示す。抽出された肌色領域を、R1、R2、R3とす
る。抽出された領域の大きさ、位置から、FR、LH
R、RHRを決定する。決定した領域の重心を求め、F
Rの重心を顔fc=(Xfc,Yfc)とする。LHR
が検出された場合は、LHRの重心を左手lh=(Xl
h,Ylh)とすし、左手検出フラグlh_flgに1
をセットする。LHRが検出されなかった場合、lh_
flgに0をセットする。RHRが検出された場合、R
HRの重心を右手rh=(Xrh,Yrh)とし、右手
検出フラグrh_flgに1をセットする。RHRが検
出されなかった場合、rh_flgに0をセットする
(ステップ103)。
【0023】lh_flgとrh_flgをチェックす
る。lh_flg=0、rh_flg=0の場合、ステ
ップ108に進む。lh_flg=1、もしくはrh_
flg=1の場合、ステップ105に進む(ステップ1
04)。
【0024】身体部位抽出部5は、次に、画像IMG_
1から人物の輪郭を抽出し、左肩ls=(Xrs,Yr
s)、右肩rs=(Xls,Yls)の座標を算出す
る。人物の輪郭の抽出方法としては、エッジ検出を行な
うことにより人物の輪郭を抽出する。また、人物の写っ
ていない背景画像IMG_BACKを撮影しておいて記
憶しておき、IMG_1とIMG_BACKとの差分か
ら人物の領域を抽出し、抽出した領域のエッジを検出す
ることにより、輪郭を抽出することも可能である。抽出
した人物の輪郭の例を図14に示す。人物輪郭画像IM
G_Edgeからrs、及びlsを算出する。rs、l
sの算出方法は、例えば、ステップ103で求めたfc
からX負方向に水平線を引くと、人物輪郭線bd_ed
geとの交点である、顔右交点frpが得られる。fr
pから垂線を下ろすと、bd_edgeとの交点であ
る、胴体右交点brpが得られる。brpからX負方向
にbd_edgeとの接線である右肩接線rs_lin
eを引き、rs_lineとbd_edgeが肩検出閾
値SLD_TH以上離れる1つ手前の点を右肩rsとす
る。SLD_THは、肩の位置を決定するための閾値で
あり、例えば、10という値を設定する。なお、SLD
_THは、肩が正確に決定できるように決定した値であ
り、肩を正確に決定できる値であれば良い。同様に、f
cからX正方向に水平線を引き、bd_edgeとの交
点である、顔左交点flpを求める。flpから垂線を
下ろし、bd_edgeとの交点である胴体左交点bl
pを求め、blpからX正方向にbd_edgeとの接
線である左肩接線ls_edgeを引き、ls_edg
eとbd_edgeがSLD_TH以上離れる寸前の点
を左肩lsとする(ステップ105)。
【0025】次に、身体部位抽出部5は、lh_flg
が1にセットされている場合、左肘le=(Xle,Y
le)を算出する。rh_flgが1にセットされてい
る場合、右肘re=(Xre,Yre)を算出する。算
出方法は、例えば、肘を抽出するために、色のついた左
肘指標物LE_Mと、右肘指標物RE_Mをつけてお
く。左右の区別を付け易くするために、LE_Mと、R
E_Mを別々の色ににしておいてもよい。例えば、LE
_Mを青、RE_Mを赤としておく。画像IMG_1か
ら、まず青色の領域を抽出する。例えば、2箇所の領域
S1,S2が抽出されたとする。抽出された領域の大き
さが領域最小サイズ閾値MIN_THより小さい領域を
削除する。MIN_THは、例えば100を設定してお
く。MIN_THは、指標物の大きさに合わせて設定さ
れる。図15に、抽出された領域の一例を示す。MIN
_THより小さいS2は削除され、S1を左肘領域LE
Rとする。LERの重心を左肘leと決定する。次に、
赤色領域を抽出し、左肘と同様にして、右肘領域RER
を抽出し、RERの重心を右肘reとする。LE_Mと
RE_Mに同じ色を用いた場合は、抽出された領域と、
lhと、rhとの関係から、LER、RERを決定し、
le、reを決定する。
【0026】肘に指標物をつけずにle、reを決定す
る方法としては、例えば、動きの大きな領域を検出し、
検出した領域から腕領域を検出することによって、l
e、reを決定することも可能である。肘の位置の算出
方法は、le及び、reの位置を一意に定めることがで
きれば構わない(ステップ106)。
【0027】部位データ記憶部6のデータ記憶形式の一
例を図16に示す。最初に、記憶している部位データ数
BCNTを記録する。BCNTの後に、部位データがB
CNT組記録されている。各々の部位データは、最初
に、lsの座標Xls、Ylsを記録する。その次に、
rsの座標Xrs、Yrsを記録する。ls、rsの座
標データを記録すると、続いてlh_flgを記録す
る。lh_flgが1にセットされている場合、続い
て、lhの座標Xlh、Ylh、leの座標Xle、Y
leをセットする。lh_flgが0にセットされてい
た場合、lh、leの座標データはセットしない。続い
て、rh_flgを記録する。rh_flgが1にセッ
トされている場合、続いて、rhの座標Xrh、Yr
h、reの座標Xre、Yreを記録する。rh_fl
gが0にセットされていた場合、rh、reの座標デー
タは記録しない。部位データ記憶部6の記憶形式に従っ
て、抽出したls、rs、lh、le、rh、reを、
部位データ記憶部6の最後に記憶されている部位データ
の後に記憶する。部位データ記憶部6に記憶されている
部位データをBDat_1,...,BDat_BCN
Tとすると、ステップ106までに計算した部位データ
をBDat_BCNT+1として、部位データ記憶部6
に記憶し、部位データ記憶部6のBCNTに1を加え、
ステップ108に進む(ステップ107)。
【0028】画像IMG_1を画像記憶部4から消去す
る(ステップ108)。部位データ抽出部は、ステップ
101から108を繰り返す。
【0029】次に、特徴量算出過程について記述する。
特徴量算出過程の処理を図1と図4の流れ図を使って説
明する。
【0030】特徴量抽出部7は、部位データ記憶部6の
BCNTをチェックする。BCNTが0の場合、BCN
Tが1以上になるまで待機する。BCNTが1以上の場
合、ステップ202に進む(ステップ201)。
【0031】部位データ記憶部6から、最初に記憶され
た部位データBDat_1を読み込む。最初に、ls、
rsの座標データXls、Yls、Xrs、Yrsを読
み込む。続いてlh_flgを読み込む。lh_flg
が1にセットされている場合は、lh、leの座標デー
タXlh、Ylh、Xle、Yleを読み込む。次に、
rh_flgを読み込む。rh_flgが1にセットさ
れていた場合、rh、reの座標データXrh、Yr
h、Xre、Yreを読み込む(ステップ202)。
【0032】手動作解析に必要な特徴量を計算する。本
実施例では、特徴量として、lsとlhの距離である左
肘手長lehl、reとrhの距離である右肘手長re
hl、XleとXlhの差分である左肘手X差分leh
xd、XreとXrhの差分である右肘手X差分rhe
xd、YleとYlhの差分である左肘手Y差分leh
yd、YreとYrhの差分である右肘手Y差分reh
yd、lsとlhの中点である左肩手中点lm=(Xl
m,Ylm)とleの距離である左肘距離lemd、r
slsの中点である右肩手中点rm=(Xrm,Yr
m)とreの距離である右肘距離remdを使用する。
図17に、本実施例で使用する特徴量を示す。ここで、
lm、rmの座標は数1のように表される。
【0033】
【数1】
【0034】各特徴量は、ls、rs、lh、rh、l
e、re、lm、rmから、数2で計算される。
【0035】
【数2】
【0036】lh_flgが1にセットされている場合
は、数1、数2を用いて、左手に関する特徴量L_Da
ta=を算出する。rh_flgが1にセットされてい
る場合は、右手に関する特徴量R_Data=を算出す
る(ステップ203)。
【0037】算出した特徴量は、lh、le、rh、r
eと共に、特徴量記憶部8に記憶する。特徴量記憶部8
の記憶形式の一例を図18に示す。最初に特徴量データ
数PCNTを記録する。PCNTの後に、記憶された順
番に特徴量データPDat_1〜PDat_PCNTが
記憶される。PDat_1〜PDat_PCNTは、ま
ず、lh_flgを記録する。lh_flgが1にセッ
トされている場合、左手のパラメータデータlh,l
e,L_Dataを記録する。各パラメータデータのデ
ータ形式の一例を図19に示す。パラメータデータは、
パラメータ識別子PID、パラメータのPD、データ値
D_1,...,D_PDで構成される。各パラメータ
に対するPIDの一例を図20に示す。例えば、lhの
データは、PIDに0x01をセットして記録する。次
に、PD2をセットして記録する。続いて、Xlh、Y
lhの順に記録する。同様にして、le、L_Data
を記録する。lh、le、L_Dataを全て記録した
後に、パラメータ終了フラグPEND_FLGを記録す
る。PEND_FLGは、例えば、1バイトで、0xf
fという値をセットする。PEND_FLGの値は、パ
ラメータの終了を検出できる値であれば良い。また、P
END_FLGを付けずに、パラメータデータの前にパ
ラメータの数をセットしても同様の効果が得られる。次
に、rh_flgを記録する。rh_flgが1にセッ
トされていた場合は、左手のパラメータデータlh,l
e,L_Dataと同様にして、右手のパラメータデー
タrh,re,R_Dataを記録する。右手のパラメ
ータデータrh,re,R_Dataの後にPEND_
FLGを記録する。特徴量記憶部8に記憶されている特
徴量データをPDat_1,...,PDAT_PCN
Tとすると、ステップ203で算出したL_Data、
R_Dataと、lh、le、rh、reを、上記の形
式で特徴量記憶部8のPCNT番目の特徴量データPD
at_PCNTの後にPDat_PCNT+1として記
録し、PCNTに1を加える。特徴量を記録し終えた部
位データBDat_1を部位データ記憶部6から消去
し、BCNTから1を引く(ステップ204)。
【0038】特徴量抽出部7は、ステップ201からス
テップ204を繰り返す。次に、手動作認識出力過程に
ついて説明する。図5の流れ図と図1を使って説明す
る。
【0039】手動作区間データ数nに0をセットする
(ステップ301)。最初に、手動作開始点ST_PN
Tを検出する。ST_PNTは、例えば、動作を一定時
間ST_INTの静止から開始すると規定しておく。S
T_INTの値は、システム軌道時に設定した値とし、
例えば5と設定する。静止時間St_Timeに何もセ
ットされていなければ、St_Timeに0をセットす
る。特徴量記憶部8のPCNTが2以上でなければ、2
以上になるまで待機する。PCNTが2以上になった場
合、特徴量記憶部8から先頭の特徴量データPDat_
1を読み込み、PDat_1のパラメータをP_Set
(0)=にセットする。ただし、L_Data(0)
=、R_Data(0)=である。nに1を加え、特徴
量記憶部8から2番目の特徴量データPDat_2を読
み込み、PDat_1のパラメータをP_Set(1)
=にセットする。lh_flg(0)、lh(0)、l
e(0)と、lh_flg(1)、lh(1)、le
(1)から、数3により、左手変化量Def_lhと左
肘変化量Def_leの和Def_lを計算する。
【0040】
【数3】
【0041】rh_flg(0)、rh(0)、re
(0)と、rh_flg(1)、rh(1)、re
(1)から、数4により、右手変化量Def_rhと右
肘変化量Def_reの和Def_rを計算する。
【0042】
【数4】
【0043】手動作変化量Def_sumを数5により
計算する。
【0044】
【数5】
【0045】Def_sumが静止検出閾値St_TH
より小さい区間を手動作静止区間St_Sectとし、
St_Timeに1を加え、ステップ302を繰り返
す。St_THは、例えば、10という値を設定してお
く。Def_sumがSt_THより大きくなった場
合、St_Timeをチェックする。St_Time
が、St_INT以上の場合、PDat_1をST_P
NTとし、nに2を加え、特徴量記憶部8からPDat
_1とPDat_2を消去し、特徴量記憶部8のPCN
Tから2を引き、St_Timeに0をセットし、ステ
ップ303に進む。St_TimeがSt_INT以下
の場合、St_Timeに0をセットし、特徴量記憶部
8からPDat_1を消去し、特徴量記憶部のPCNT
から1を引き、ステップ302を繰り返す。ST_PN
Tの決定方法は、ST_PNTを一意に決定可能な方法
であれば、他の方法でも構わない(ステップ302)。
【0046】手動作解析部9は、特徴量記憶部8のPC
NTをチェックする。PCNTが1以上の場合は、ステ
ップ304に進む。PCNTが0の場合は、PCNTが
1以上になるまで待機する(ステップ303)。
【0047】特徴量記憶部8の先頭の特徴量データPD
at_1を読み込み、そのパラメータセットをP_Se
t(n)=にセットする(ステップ304)。
【0048】読み込んだ特徴量データPDat_1を特
徴量記憶部8から消去し、特徴量記憶部8のPCNTか
ら1を引く。nに1を加える(ステップ305)。
【0049】P_Set(n)とP_Set(nn−
1)をチェックし、手動作終了点END_PNTを検出
する。END_PNTの検出方法は、ST_PNTと同
様に、手動作をSt_INTの静止で終了すると規定
し、St_Sectを検出する。開始点と同様に数3、
数4、数5を用いて、lh_flg(n−1)、lh
(n−1)、le(n−1)と、lh_flg(n)、
lh(n)、le(n)と、rh_flg(n−1)、
rh(n−1)、re(n−1)と、rh_flg
(n)、rh(n)、re(n)から、Def_Sum
を求める。Def_SumがST_THよりも小さくな
った場合、St_Timeに1を加える。St_Tim
eがSt_INTより小さい場合は、nに1を加え、ス
テップ302に進む。St_TimeがSt_INTに
なった場合、St_Sectの始まりの時点をEND_
PNTとし、nから、St_INT−1を引き、ステッ
プ307に進む。例えば、t=8から、t=8+St_
INTの間に静止区間が存在した場合、nを9にセット
する(ステップ306)。
【0050】P_Set(t)(t=0,...,n−
1)から、手動作の認識を行なう。実施例2に記載する
手動作の認識方法により、ステップ401からステップ
406の手順によって行なう。P_Set(t)から手
動作コードをResultに設定する。Resultに
は、認識された手動作コード、もしくは、手動作に意味
がないことを示すコードNOMEANが設定される。N
OMEANは、例えば、0xffffなどを設定する。
NOMEANのコードは、他の手動作モデルに与えられ
た手動作コードと重ならなければ、どのような値でも構
わない。手動作の認識方法については、後で記述する。
手動作の認識方法は、P_Set(t)(t=
0,...,n−1)から手動作を一意に定めることが
できれば、他の方法によって認識を行なうことも可能で
ある(ステップ307)。
【0051】手動作解析部9は、ResultにNOM
EANがセットされていれば、ステップ308を終了す
る。ResultにNOMEAN以外がセットされる
と、Resultの手動作コードと出力信号Outpu
tの対応テーブルを用いて、出力信号Outputに変
換し、出力信号Outputを出力部11に出力する。
NOMEANがセットされていた場合、何も出力せず
に、ステップ307を終了する。例えば、手動作解析装
置の出力として、文字を出力する場合、図21に示すよ
うな、出力信号変換テーブルCHGTBL1を用意す
る。例えば、Resultが0x0100であれば、
「時間」という文字を出力部11に出力する。図21の
出力信号変換テーブルCHGTBL1は、一例であり、
手動作コードと文字列を一対一に対応していれば、どの
ようなものでも構わない。なお、出力信号Output
への変換の方法は、ほんの一例であり、手動作コードを
出力信号Outputに変換することが可能であれば、
どのような方法でも構わない(ステップ308)。
【0052】(実施例2)次に、第2の実施例の手動作
認識方法について記述する。手動作認識方法について図
6の流れ図と図1を用いて説明する。
【0053】知識記憶部10のモデルの記憶形式の一例
を図22に示す。最初に、モデルデータ数Mdl_CN
Tが記憶されている。Mdl_CNTに続いて、Mdl
_CNTの数だけ手動作モデルが記憶されている。各手
動作モデルデータのデータ形式の一例を図23に示す。
手動作モデルデータは、各手動作に与えられた手動作コ
ードHM_Code、モデルを構成するパラメータデー
タのデータ点数DCNT、DCNT組のパラメータデー
タで構成されている。各パラメータデータは、図19の
パラメータデータのデータ形式と同様の形式で構成され
ている。知識記憶部10から、Mdl_CNTを取り出
す。距離を計算するモデルのモデル番号Mdl_Num
に1をセットする(ステップ401)。
【0054】次に、Mdl_Num番目のモデルデータ
を取り出す。最初にHM_Codeを取り出す。次に、
DCNTを取り出す。次に、DCNT組のパラメータを
とりだし、モデルパラメータデータMP_Set(m)
=(m=0,...,DCNT−1)にセットする。た
だし、L_Data_m(m)=、R_Data_m
(m)=(m=0,...,DCNT−1)である。モ
デル番号に1を加える(ステップ402)。
【0055】対象特徴量データTP_Set(t)=
(t=0,...,n−1)のth_flg(t)にl
h_flg(t)を代入し、th(t)にlh(t)を
代入し、te(t)にle(t)を代入し、T_Dat
a(t)にL_Data(t)を代入する。ただし、T
_Data(t)=である。対象モデル特徴量データT
MP_Set(m)=(m=0,...DCNT−1)
のmh_flg(m)にlh_flg_m(m)を代入
し、mh(m)にlh_m(m)を代入し、me(m)
にle_m(m)を代入し、M_Data(m)にL_
Data_m(m)を代入する。ただし、M_Data
(m)=である。ステップ501からステップ510の
手順に従ってモデル間距離distを計算し、左手モデ
ル間距離dist_lにdistをセットする。
【0056】TP_Set(t)のth_flg(t)
にrh_flg(t)を代入し、th(t)にrh
(t)を代入し、te(t)にre(t)を代入し、T
_Data(t)にR_Data(t)を代入する。T
MP_Set(m)のmh_flg(m)にrh_fl
g_m(m)を代入し、mh(m)にrh_m(m)を
代入し、me(t)にre_m(m)を代入し、M_D
ata(m)にR_Data_m(m)を代入する。ス
テップ501からステップ510の手順に従ってdis
tを計算し、右手モデル間距離dist_rにdist
をセットする。ステップ501からステップ510のモ
デルとの距離算出手順については、後で記述する(ステ
ップ403)。
【0057】dist_lとdist_rを計算した
後、モデルデータとの距離Dist_Mを、数6を用い
て計算する。
【0058】
【数6】
【0059】認識コードRecg_code[Mdl_
Num]に、手動作コードHM_Codeをセットし、
認識距離Recg_dist[Mdl_Num]にDi
st_Mをセットする(ステップ404)。
【0060】Mdl_NumがMdl_CNTの場合、
ステップ406に進む。Mdl_NumがMdl_CN
Tより小さい場合、Mdl_Numに1を加えて、ステ
ップ402に進む(ステップ405)。
【0061】Recg_dist[i](i=
1,...,mdl_CNT)が最小となる、iの値を
Iとする。Recg_dist[I]が距離閾値Rec
g_THよりも小さければ、Rcog_code[i]
を手動作認識結果Resultとする。Recg_TH
は、Resultを決定するための定数であり、例え
ば、100という値をとる。なお、Recg_THは、
モデルに存在しない手動作を排除するための閾値であ
り、モデルに存在しない手動作を排除できれば、値は1
00でなくても良い。Recg_dist[I]がRe
cg_THよりも大きい場合は、意味のない手動作とみ
なし、Resultに、NOMEANをセットする。図
24に得られたRecg_code[i]とRecg_
dist[i]の例を示す。i=25の時、Recg_
dist[25]が50で最小の値となる。Recg_
dist[25]の値がRecg_THの値よりも小さ
いため、Recg_code[25]の0x01a4を
Resultに決定する。この時、i=25の時のRe
cg_dist[25]の値が、Recg_THよりも
大きな値、例えば180のような値となった場合は、意
味のない手動作とみなし、ResultにNOMEAN
(0xffff)をセットする(ステップ406)。
【0062】図7にモデルとの距離算出手順の流れ図を
示す。モデルとの距離は、手が存在する区間毎に距離を
算出し、その和をモデルとの距離とする。図25に距離
を算出する区間の一例を示す。図25の例の場合、TP
_Set(2)〜TP_Set(a)とMTP_Set
(1)〜MTP_Set(a)の距離と、TP_Set
(b)〜TP_Set(d)とMTP_Set(c)〜
MTP_Sset(e)の距離の和をモデルとの距離と
する。
【0063】TP_Set(t)中の手出現点st_p
nt、MP_Set(t)中の手出現点st_pnt_
m、手存在区間番号kに0をセットする(ステップ50
1)。
【0064】st_pntがnより大きい場合、ステッ
プ510に進む(ステップ502)。
【0065】TP_Set(st_pnt)のth_f
lg(st_pnt)をチェックし、0であれば、st
_pntに1を加えステップ502に進む。1であれ
ば、TP_Set(t)の手消失点end_pntにs
t_pnt+1をセットし、ステップ504に進む(ス
テップ503)。
【0066】end_pntがnより大きい場合、en
d_pntにnをセットし、ステップ505に進む。T
P_Set(end_pnt)のth_flg(end
_pnt)をチェックし、1であれば、end_pnt
に1を加えステップ504を繰り返す。0であれば、e
nd_pntから1を引き、ステップ505に進む(ス
テップ504)。
【0067】st_pnt_mがDCNT以上の場合、
ステップ510に進む(ステップ505)。
【0068】TMP_Set(st_pnt_m)のm
h_flg(st_pnt_m)をチェックし、0であ
れば、st_pnt_mに1を加えステップ505に進
む。1であれば、TMP_Set(t)の手消失点en
d_pnt_mにst_pnt_m+1をセットし、ス
テップ507に進む(ステップ506)。
【0069】end_pnt_mがDCNT以上の場
合、end_pnt_mにDCNT−1をセットし、ス
テップ510に進む。TMP_Set(end_pnt
_m)のmh_flg(end_pnt_m)をチェッ
クし、1であれば、end_pnt_mに1を加えステ
ップ507を繰り返す。0であれば、end_pnt_
mから1を引き、ステップ508に進む(ステップ50
7)。
【0070】TP_Set(i)(i=st_pn
t,...,end_pnt)のパラメータP(i)
と、TMP_Set(j)(j=st_pnt_
m,...,end_pnt_m)のモデルパラメータ
M(j)との距離D(P)[k]を数7を用いて計算す
る。
【0071】
【数7】
【0072】例えば、左手lh(i)とモデルの左手l
h_m(j)の距離D(lh)[k]は、数4のXpi
に左手のX座標Xlh(i)、Ypiに左手のY座標Y
lh(i)、Xmjにモデル特徴量データの左手のX座
標Xlh_m(j)、Ymjにモデル特徴量データの左
手のY座標Ylh_m(j)を代入し、次元dに2を代
入して計算する(ステップ508)。
【0073】TP_Set(i)(i=st_pn
t,...,end_pnt)の各パラメータP(i)
と、TMP_Set(j)(j=st_pnt_
m,...,end_pnt_m)の各モデルパラメー
タM(j)との距離D(P)[k]の和Sum_D
[k]を数8を用いて計算する。
【0074】
【数8】
【0075】st_pntにend_pnt+1をセッ
トし、st_pnt_mにend_pnt_m+1をセ
ットする。kに1を加え、ステップ502に進む(ステ
ップ509)。
【0076】モデル間距離distを数9を用いて計算
する(ステップ510)。
【0077】
【数9】
【0078】上述の手動作認識方法において、モデルと
の距離を算出する場合に用いる手動作のモデルの数を減
らすために、手動作のモデルをグループに分割しても良
い。手動作を、両手を使用するグループg1、右手のみ
を使用するグループg2、左手のみを使用するグループ
g3、左手を部分的に使用し右手を常に使用するグルー
プg4、右手を部分的に使用し左手を常に使用するグル
ープg5、左手と右手が共に部分的に使用されるグルー
プg6に分類する。手動作を知識記憶部10に図26に
示す記憶形式で記憶する。知識記憶部10の先頭番地
(0x0000)から、順番に、グループg1の先頭番
地Adr_g1、グループg2の先頭番地Adr_g
2、グループg3の先頭番地Adr_g3、グループg
4の先頭番地Adr_g4、グループg5の先頭番地A
dr_g5、グループg6の先頭番地Adr_g6が記
録されている。各グループの手動作モデルの先頭番地の
番地には、各グループの手動作モデルの数が記録され、
続いて、手動作モデルが記録される。例えば、グループ
g1のデータは、知識記憶部10のAdr_g1番地に
グループg1に含まれるモデルデータ数CNT_g1が
記録され、CNT_g1に続いて、グループg1に含ま
れる手動作モデルが記録されている。各手動作モデル
は、手動作コードの小さい順に各グループに含まれるモ
デルデータ数だけ記憶されている。各手動作モデルは、
図23に示す手動作モデル形式で記憶される。特徴量記
憶部8から得られるP_Set(t)から、手動作グル
ープmv_glpと、mv_glpのモデル数Mdl_
CNTを決定し、mv_glpのモデルを用いて、ステ
ップ402から406の手順を行なうことによって、手
動作の認識を行なう。
【0079】手動作モデルグループを決定し、モデルデ
ータの数Mdl_CNTを決定するまでの手順を図7の
流れ図に沿って説明する。
【0080】P_Set(t)のlh_flg(t)
と、rh_flg(t)をチェックし、P_Set
(t)の手動作グループmv_glpを決定する。例え
ば、lh_flg(t)、rh_flg(t)がt=
0,...,n−1で全て1の場合、mv_glpをg
1にセットする。lh_flg(t)が全て0で、rh
_flg(t)が全て1の場合、mv_glpをg2に
セットする。lh_flg(t)が全て1で、rh_f
lg(t)が全て0の場合、mv_glpをg3にセッ
トする。lh_flg(t)が部分的に1で、rh_f
lg(t)が全て1の場合、mv_glpをg4にセッ
トする。lh_flg(t)が全て1で、rh_flg
(t)が部分的に1の場合、mv_glpをg5にセッ
トする。lh_flg(t)が部分的に1で、rh_f
lg(t)が部分的に1の場合、mv_glpをg6に
セットする(ステップ601)。
【0081】知識記憶部10から、mv_glpの先頭
番地mv_Adrを取り出す。例えば、手動作グループ
mv_glpがg1であった場合、g1の先頭番地Ad
r_g1を取り出し、mv_Adrにセットする(ステ
ップ602)。
【0082】mv_Adr番地からg1のモデルデータ
数CNT_g1を取りだし、モデル数Mdl_CNTに
セットする。モデル番号Mdl_Numを1にセットす
る(ステップ603)。
【0083】(実施例3)次に第3の実施例の手動作認
識装置について記述する。本実施例の手動作認識装置の
ブロック図を図2に示す。21は手動作認識装置であ
る。22は撮影装置である。23は画像入力部である。
24は画像記憶部である。25は身体部位抽出部であ
る。26は部位データ記憶部である。27は特徴量抽出
部である。28は特徴量記憶部である。29は変化検出
部である。30は手動作解析部である。31は知識記憶
部である。32は出力部である。撮影装置22、画像入
力部23、画像記憶部24、身体部位抽出部25、部位
データ記憶部26、特徴量抽出部27、特徴量記憶部2
8、手動作解析部30、出力部32は、実施例1記載の
手動作認識装置と同様にして実現できる。変化検出部2
9は、手動作解析部30と同一のコンピュータで実現可
能である。変化検出部29は、特徴量記憶部28の特徴
量データを元に、手の画像上での移動方向が変化した場
合に、手動作解析部30に変化検出信号chg_sig
nalを送る。手動作解析部30は、chg_sign
alを受けると、それまでに特徴量記憶部28に記憶さ
れた特徴量データと、モデル記憶部31のモデルデータ
を比較して手動作を解析し、認識された手動作を出力信
号Outputに変換し、出力部32に出力する。
【0084】次に、本実施例の手動作認識装置の動作に
ついて説明する。本実施例の手動作認識装置の動作は、
画像取り込み過程、身体部位抽出過程、特徴量抽出過
程、変化検出過程、手動作認識出力過程の5つの過程か
らなり、画像入力部23で画像取り込み過程、身体部位
抽出部5で身体部位抽出過程、特徴量抽出部27で特徴
量抽出過程、変化検出部29で変化検出過程、手動作解
析部30で手動作認識出力過程を各々独立して動作して
いる。画像取り込み過程、身体部位抽出過程、及び特徴
量抽出過程は、実施例1記載の方法で実現できる。
【0085】変化検出過程について記述する。変化検出
過程の流れ図を図9に示す。tが設定されていない場合
は、tに2をセットする。特徴量記憶部28のPCNT
をチェックし、PCNTがt−1以下の場合、PCNT
がt以上になるまで待機する。PCNTがt以上の場
合、ステップ702に進む(ステップ701)。
【0086】特徴量記憶部28から、先頭からt−1番
目の特徴量データP_Dat_t−1と、t番めの特徴
量データPDat_tを読み込み、各々のパラメータセ
ットをP_Set(t−1)、P_Set(t)とする
(ステップ702)。
【0087】左手方向LH_Dirが設定されている場
合、PH_DirにLH_Dirを設定する。LH_D
irが設定されていない場合、PH_Dirに手が画像
中に存在しないことを意味する2次元コードNO_HA
NDを設定する。NO_HANDの値は、例えば、0と
する。検出対象フラグth_flg(t−1)に、lh
_flg(t−1)をセットし、検出対象フラグt_f
lg(t)にlh_flg(t)をセットする。検出対
象手座標th(t−1)=(Xth(t−1),Yth
(t−1))に、lh(t−1)をセットし、検出対象
手座標th(t)=(Xth(t),Yth(t))
に、lh(t)をセットし、ステップ801からステッ
プ807の手順に従って、手方向H_Dir、変化フラ
グchg_flgを求める。H_DirをLH_Dir
に設定し、chg_flgを左手変化フラグlh_ch
gに設定する。ステップ801からステップ807の変
化フラグ設定手順については、後述する(ステップ70
3)。
【0088】右手方向RH_Dirが設定されている場
合、PH_DirにRH_Dirを設定する。th_f
lg(t−1)に、rh_flg(t−1)をセット
し、th_flg(t)にrh_flg(t)をセット
する。th(t−1)に、rh(t−1)をセットし、
th(t)に、rh(t)をセットし、ステップ801
からステップ808の手順に従って、H_Dir、ch
g_flgを求める。H_DirをRH_Dirに設定
し、chg_flgを右手変化フラグrh_chgに設
定する(ステップ704)。
【0089】lh_clgとrh_flgをチェックす
る。lh_chg=0、rh_chg=0の場合、ステ
ップ701に進む。lh_flg=1もしくは、rh_
flg=1の場合は、ステップ706に進む(ステップ
705)。
【0090】chg_signalを手動作解析部30
に送信する。図27にchg_signalの一例を示
す。最初に信号開始フラグST_FLGがセットされ
る。例えば、2バイトで0xffffという値をセット
する。続いて、同方向データ数SD_CNTにt−1を
セットする。SD_CNTに続いて左手変化フラグL_
FLGにlh_chgをセットされる。L_FLGに続
いて、右手変化フラグR_FLGにrh_chgをセッ
トする。最後に信号終了フラグEND_FLGがセット
される。例えば、2バイトで0x0f0fという値がセ
ットされる。セットしたchg_signalを手動作
解析部30に送信する(ステップ706)。
【0091】手動作解析部30から読込終了信号rea
d_signalを受けるまで待機する。read_s
ignalを受信すると、ステップ708に進む。re
ad_signalは、例えば、0xffffという値
がセットされた信号である。信号の形式は、どのような
ものでも構わない(ステップ707)。
【0092】特徴量記憶部28に記憶している特徴量デ
ータのうち、最初からt−1番目までのデータPDat
_1〜PDat_t−1を消去した後、tを1にセット
する(ステップ708)。
【0093】変化フラグ設定処理の処理手順について図
10の流れ図に従って説明する。th_flg(t−
1)をチェックする。th_flg(t−1)=0の場
合ステップ802に進む。th_flg(t−1)=1
の場合、ステップ803に進む(ステップ801)。
【0094】th_flg(1)=0の場合、chg_
flgに0を設定する。th_flg(1)=1の場
合、chg_flgに1を設定する。変化フラグ設定処
理を終了する(ステップ802)。
【0095】th_flg(t)の値をチェックする。
th_flg(t)=0の場合、ステップ804に進
む。th_flg(t)=1の場合、ステップ805に
進む(ステップ803)。
【0096】chg_flgに1を設定し、変化フラグ
設定処理を終了する(ステップ804)。
【0097】数10を用いて、移動ベクトルVを計算す
る(ステップ805)。
【0098】
【数10】
【0099】Xv=0、Yv=0の場合、手方向H_D
irに、9を設定し、ステップ807に進む。Xvもし
くは、Yvが0でない場合、計算された左手移動ベクト
ルVから、数11を用いて、左手方位角θを求める。
【0100】
【数11】
【0101】図28に、画像面中の手の移動方向と、2
次元コードの関係の一例を示す。θの値から、数12を
用いて決定される2次元コードCode_2Dを手方向
H_Dirを求める。
【0102】
【数12】
【0103】THは閾値であり、例えば、π/8という
値になる。例えば、θがπ/9であったとすると、H_
Dirには1がセットされる。H_Dirをセットする
とステップ807に進む(ステップ806)。
【0104】PH_dirに値が設定されていなけれ
ば、chg_flgに0を設定し、変化フラグ設定手順
を終了する。PH_Dirが設定されている場合、PH
_DirとH_Dirの値をチェックする。PH_Di
rとH_Dirの値が一致した場合、chg_flgに
0を設定する。PH_DirとH_Dirが異なる値の
場合、chg_flgに1を設定する。chg_flg
を設定すると、変化フラグ設定手順を終了する(ステッ
プ807)。
【0105】次に、手動作方向解析過程について記述す
る。図11の流れ図と図2を用いて順に記述する。
【0106】変化検出部29からchg_signal
を受けとるまで待機する。chg_signalを受け
とると、chg_signalから、SD_CNT、L
_FLG、R_FLGを読み込み、ステップ902に進
む(ステップ901)。
【0107】特徴量記憶部28から、最初からSD_C
NT番目までの特徴量データPDat_1〜PDat_
SD_CNTを読み込み、各々のパラメータデータをP
_Set(t)(t=0,...,SD_CNT)とす
る。LCNTに何もセットされていなければ0をセット
する。左手特徴量データLP_Set(ln)=のln
=LCNT番目以降に、P_Set(t)のlh
(t)、le(t)、L_Data(t)をセットす
る。セットした後、LCNTにSD_CNTを加える。
RCNTに何もセットされていなければ0をセットす
る。右手特徴量データRP_Set(rn)=のrn=
RCNT番目以降に、P_Set(t)のrh(t)、
re(t)、R_Data(t)をセットする。セット
した後、RCNTにSD_CNTを加える(ステップ9
02)。
【0108】read_signalを変化検出部29
に送信する。read_signalを送信すると、ス
テップ904に進む(ステップ903)。
【0109】L_FLGをチェックする。L_FLG=
0の場合、ステップ906に進む。L_FLG=1の場
合、ステップ905に進む(ステップ904)。
【0110】左手特徴量データLP_Set(ln)か
ら左手の動作方向を解析すし、左手動作コードLMCを
設定する。LMCに設定されるコードの一例を図29に
示す。図29は本の一例であり、設定する値は、各々の
動作に別の値を設定されていれば構わない。動作方向の
解析は、例えば、実施例5で記述する手動作方向解析方
法によって解析する。動作方向を解析できれば、他の方
法でも構わない(ステップ905)。
【0111】R_FLGをチェックする。R_FLG=
0の場合、ステップ908に進む。R_FLG=1の場
合、ステップ907に進む(ステップ906)。
【0112】右手特徴量データRP_Set(rn)か
ら右手の動作方向を、左手の動作方向と同様の手順で解
析し、右手動作コードRMCを設定する。RMCの値も
LMCと同様図29に示す値を設定する(ステップ90
7)。
【0113】開始点ST_PNTが検出されたかどうか
を示すフラグST_CHK_FLGに1がセットされて
いる場合、ステップ910に進む。ST_CHK_FL
Gに0がセットされている場合と、ST_CHK_FL
Gに値がセットされていない場合、ステップ909に進
む(ステップ908)。
【0114】LMCと、RMCをチェックし、ST_P
NTかどうか判定する。LMCとRMCの組合せが動作
の開始点を示す組合せの場合、ST_CHK_FLGに
1をセットし、左手の動作区間データ数LC、右手の動
作区間データ数RCに0をセットする。LMCとRMC
の組合せが動作の開始点を組合せを示す組合せでない場
合、ST_CHK_FLGに0をセットする。図30に
ST_PNTを示す組合せの例を示す。LMCが0x0
0の場合、rh_flgをチェックする。rh_flg
=0の場合、ST_PNTと判定し、ST_CHK_F
LGに1をセットする。rh_flg=1、R_FLG
=1の場合、RMCをチェックし、RMCが停止のコー
ド0x00の場合、ST_PNTと判定し、ST_CH
K_FLGに1をセットする。RMCが0x00以外の
場合、ST_PNTでないと判定し、ST_CHK_F
LGに0をセットする。rh_flg=1、R_FLG
=0の場合、RP_Set(0)〜RP_Set(LC
NT)をチェックし、右手動作が停止かどうかチェック
する。停止であった場合、ST_PNTと判定し、ST
_CHK_FLGに1をセットする。停止でなかった場
合、ST_PNTでないと判定し、ST_CHK_FL
Gに0をセットする。例えば、LMCが0x00で、r
h_flgが0の場合、開始点を示す組合せとなり、S
T_CHK_FLGに1をセットする。なお、図30
は、ほんの一例であり、組合せはこの通りでなくても、
開始点を決定できるように決定した組合せであればかま
わない。ST_CHK_FLGをセットすると、ステッ
プ901に進む(ステップ909)。
【0115】LMCと、RMCをチェックし、終了点E
ND_PNTかどうか判定する。LMCとRMCの組合
せが動作の終了点を示す組合せかどうかチェックする。
動作の終了点を示す組合せは開始点を示す組合せと同一
の組合せとする。なお、終了点を示す組合せは、この通
りでなくてもよく、終了点を決定できるように決定した
組合せであればかまわない。LMCとRMCが動作の終
了点を示す組合せの場合、END_PNTと決定し、ス
テップ912に進む。LMCとRMCが動作の終了点を
示す組合せでない場合、ステップ911に進む(ステッ
プ910)。
【0116】L_FLG=1の場合、LMCを左手動作
コード列LMCD(LC)にセットし、LCに1を加え
る。R_FLG=1の場合、RMCを右手動作コード列
RMCD(RC)にセットし、RCに1を加える。ステ
ップ901に進む(ステップ911)。
【0117】LMCD(0)〜LMCD(LC−1)
と、RMCD(0)〜RMCD(RC−1)を出力信号
変換テーブルCHGTBL2を用いて出力信号に変換す
る。出力信号変換テーブルCHGTBL2の一例を図3
1に示す。例えば、LCが2の場合、LMCD(0)と
LMCD(1)をchg_signalから取り出す。
LMCD(0)が0x01、LMCD(1)が0x03
であったとする。次に、RCを取り出す。RCが0であ
ったとする。RCが0である場合、RMCD(rn)は
何もとりささず、CHGTBLから、LMCD(0)と
LMNCD(1)を検索し、LMCD(0)が1で、L
MCD(1)が3で、RCが0である出力コード0x1
234を取り出す。手動作解析部30は、出力部32に
取り出した0x1234を出力する。例えば、文字列と
して出力する場合は、出力コードには、文字コード列が
セットされ、出力部32は、例えば、出力コードの文字
列を表示する(ステップ913)。
【0118】(実施例5)次に、第5の実施例の手動作
方向解析方法について記述する。手動作方向の解析手順
を、図12の流れ図と図2を用いて説明する。。左手の
手動作解析の場合を例として説明する。右手の場合も同
様の手順で解析できる。
【0119】手方向を算出する。lh(0)=(Xlh
(0),Ylh(0))とlh(LCNT)=(Xlh
(LCNT),Ylh(LCNT))から、ステップ8
05、ステップ806と同様の手順でH_Dirを求め
る(ステップ1001)。
【0120】H_DirがSTOP_HANDである場
合、ステップ1003に進む。H_DirがSTOP_
HAND以外の場合、ステップ1004に進む。(ステ
ップ1002)lehl(0)=(Xle(0),Yl
e(0))とlehl(LCNT)=(Xle(LCN
T),Yle(LCNT))から、数13を用いて、L
MCをセットする。LMCをセットすると、手動作方向
解析手順を終了する(ステップ1003)。
【0121】
【数13】
【0122】水平方向動作(H_Dir=1、もしくは
H_Dir=2)の場合、数14を用いて、手動作の平
均の高さVlhを求める。
【0123】
【数14】
【0124】垂直方向動作(H_Dir=3、H_Di
r=4)の場合、数15を用いて、手動作の平均の位置
Hlhを求める。
【0125】
【数15】
【0126】数16、数17を用いて手動作モデル位置
Mdl_Pを求める。
【0127】
【数16】
【0128】
【数17】
【0129】ただし、数16のYSizeは画像面の高
さである。ただし、数17のXsizeは画像面の幅、
αは閾値で、例えば、(Xls−Xrs)/4という値
をとる。H_Dirが水平方向、垂直方向以外の場合、
Mdl_Pに1をセットする(ステップ1004)。
【0130】3次元手運動方向と、2次元移動方向の関
係を図32に示す。図32の3次元運動方向の括弧内の
値は、手動作コードであり、2次元移動方向の括弧内の
値は、2次元コードである。図32に示す通り、2次元
移動方向が同一の手動作は、3つとなり、2次元コード
によって、手動作モデルを分割しておき、LH_Di
r、RH_Dirを用いて選択した手動作モデルと、特
徴量を用いてマッチングを行なうことにより、認識が可
能となる。
【0131】知識記憶部31から、マッチングを行なう
ためのモデルデータM_Set(s)=を取り出す。モ
デルデータの記憶形式の一例を図33に示す。最初に左
手のモデルの先頭番地LH_adrが記憶されている。
LH_adrに続いて、右手のモデルの先頭番地RH_
adrがセットされている。LH_adr番地以降に、
左手の動作のモデルデータが記憶されている。左手の動
作モデルデータは、最初に、左手方向コードLC1〜L
CNとLC1〜LCNに対するモデルの先頭番地LC1
_adr〜LCN_adrが左手方向コードの小さい順
に記憶されている。例えば、最初に手方向コード1が記
憶され、続いて、手方向コード1のモデルの先頭番地L
C1_adrが記憶され、以降順に手移動コードの小さ
い順に続く。各のモデルの先頭番地が指す番地以降に
は、動作位置1、動作位置2、動作位置3各々に対する
モデルの先頭番地が順に記憶されている。各動作位置に
対するモデルの先頭番地が指す番地以降には、モデルデ
ータ数MCNTが記憶されている。モデルデータ数MC
NTに続いて、MCNT組のモデルデータが記憶されて
いる。RH_adr番地以降には、右手のモデルデータ
が、左手のモデルデータと同様の形式で記憶されてい
る。
【0132】LH_adr以降に記録されている手移動
コードから、LH_Dirと一致するものを探す。一致
する手移動コードに続く、その手移動コードに対するモ
デルの先頭番地を取り出し、LC_adrにセットす
る。例えば、LH_Dirが1であった場合、LC1〜
LCNからLC1=1を探し、モデルの先頭番地LC1
_adrを取り出し、LC_adrにセットする。Md
l_Pの値をチェックし、LC_adr以降に記憶され
ている動作位置Mdl_Pのモデル先頭番地を取り出
し、LMP_adrにセットする。例えば、Mdl_P
が1である場合、動作位置1の先頭番地LMP1_ad
rをLMP_adrにセットする。次に、LMP_ad
rにセットされているモデルデータ数MCNTを取り出
す。次に、MCNT組の手動作モデルを取り出す。各手
動作モデルは、図34に示す形式で記憶されている。最
初に運動方向コードMv_Codeドが記憶されてい
る。続いて特徴量データ数Mが記憶されている。Mに続
いてM組の特徴量データが記憶されている。特徴量デー
タは、PID、PD、点数L及び、各パラメータ値が順
に記憶される。最初に、1組めのモデルデータのMv_
Codeをmv_code(0)にセットする。続い
て、PIDが左手(0x02)のモデル特徴量データを
取り出す。パラメータデータのD1(l)(l=
0,...,L−1)をXlh(0)[l]にセット
し、D2(l)(l=0,...,L−1)をYlh
(0)[l]にセットする。以降同様にして、PIDを
チェックして、L組の左肘lh(0)[l]、各左手パ
ラメータL_Data(s)[l]をセットする。以降
同様にして、MCNTのモデルデータMP_Set
(s)=(s=0,...,MCNT−1:l=
0,...,L−1)を取り出す(ステップ100
5)。
【0133】取り出した動作モデルデータMP_Set
(s)と左手特徴量データLP_Set(ln)の各パ
ラメータPの距離D(P)[s](s=0,...,M
CNT)を数18を用いて計算する(ステップ100
6)。
【0134】
【数18】
【0135】数19を用いて、手動作コードmv_co
de(s)の距離Dist(s)を計算する(ステップ
1007)。
【0136】
【数19】
【0137】距離Dist(s)が最小となる手動作コ
ードmv_code(s)をLMCにセットし、手動作
コードを終了する(ステップ1008)。
【0138】
【発明の効果】1台のカメラで撮影しても、手と肘と肩
から得られる特徴量を計算することで、手動作を認識す
ることが可能になる。
【0139】また、手動作の変化点を検出し、変化点で
手動作を分割することにより、認識を行なう手動作の種
類が増えても、手動作のモデルを増やさずに、手動作の
認識を行なうことが可能である。
【0140】また、認識対象の手動作の種類が膨大にな
っても、画像面上の手動作の軌跡によってて動作モデル
を分割することにより、手動作の認識速度が向上する。
【図面の簡単な説明】
【図1】本発明の手動作解析装置の構成図
【図2】本発明の手動作解析装置の構成図
【図3】身体部位抽出過程の流れ図
【図4】特徴量抽出過程の流れ図
【図5】手動作解析装置の手動作解析出力過程の流れ図
【図6】手動作認識方法の手動作解析手順の流れ図
【図7】モデル間距離算出処理の流れ図
【図8】グループ決定手順の流れ図
【図9】手動作認識方法の変化検出過程の流れ図
【図10】手方向変化フラグ設定手順の流れ図
【図11】手動作認識方法の手動作解析出力過程の流れ
【図12】手動作の3次元動き方向解析手順の流れ図
【図13】抽出された肌色領域の一例を示す図
【図14】人物輪郭画像の一例を示す図
【図15】抽出された赤色領域の一例を示す図
【図16】部位データ記憶形式の一例を示す図
【図17】本実施例で使用する特徴量データの一例を示
す図
【図18】特徴量データ記憶形式の一例を示す図
【図19】パラメータデータ形式の一例を示す図
【図20】パラメータ識別子の一例を示す図
【図21】出力信号変換テーブル1の一を示す図
【図22】手動作モデルデータの記憶形式の一例を示す
【図23】手動作モデルデータ形式の一例を示す図
【図24】認識結果の一例を示す図
【図25】距離計算の説明図
【図26】手動作モデルデータのグループ別記憶形式の
一例を示す図
【図27】変化検出信号の一例を示す図
【図28】2次元コードの一例を示す図
【図29】手運動方向コードの一例を示す図
【図30】開始点の手動作コードの組合せの一例を示す
【図31】出力信号変換テーブル2の一例を示す図
【図32】2次元移動方向と3次元運動方向の関係を示
す図
【図33】モデルデータ記憶形式の一例を示す図
【図34】モデル動作データのデータ形式の一例を示す
【符号の説明】
IMG_1〜IMG_N 画像記憶部4、画像記憶部2
4に記憶されている画像 R1、R2、R3 抽出された肌色領域 rf 画素のR成分 gf 画素のG成分 bf 画素のB成分 rs 肌色のR成分 gs 肌色のG成分 bs 肌色のB成分 FR 顔領域 LHR 左手領域 RHR 右手領域 fc 顔の重心 Xfc 顔重心の画像面上でのX座標 Yfc 顔重心の画像面上でのY座標 lh 左手の重心 Xlh 左手重心の画像面上でのX座標 Ylh 左手重心の画像面上でのY座標 rh 右手の重心 Xrh 右手重心の画像面上でのX座標 Yrh 右手重心の画像面上でのY座標 lh_flg 左手が存在するかどうかを示すフラグ rh_flg 右手が存在するかどうかを示すフラグ IMG_BACK 人物が写っていない背景画像 IMG_Edge 人物輪郭画像 bd_edge 人物の輪郭線 frp 顔の重心を通る水平線と輪郭線右側の交点であ
る顔右交点 brp 顔右交点から下ろした垂線と輪郭線の交点であ
る胴体右交点 rs_line 胴体右交点を通る輪郭線との接線であ
る右肩接線 flp 顔の重心を通る水平線と輪郭線左側の交点であ
る顔左交点 blp 顔左交点から下ろした垂線と輪郭線の交点であ
る胴体左交点 ls_line 胴体左交点を通る輪郭線との接線であ
る左肩接線 ls 左肩 Xls 左肩の画像面上でのX座標 Yls 左肩の画像面上でのY座標 rs 右肩 Xrs 右肩の画像面上でのX座標 Yrs 右肩の画像面上でのY座標 SLD_TH 肩を検出するための閾値 LE_M 左肘指標物 RE_M 右肘指標物 MIN_TH 肘領域の最小の大きさを規定する閾値 S1,S2 抽出された赤色の領域 LER 左肘領域 RER 右肘領域 le 左肘 Xle 左肘の画像面上でのX座標 Yle 左肘の画像面上でのY座標 re 右肘 Xre 右肘の画像面上でのX座標 Yre 右肘の画像面上でのY座標 BCNT 部位データ記憶部6に記憶されている部位デ
ータの数 BDat_1〜BDat_BCNT 部位データ記憶部
6に記憶されている部位データ lehl 左手と左肘の距離 rehl 右手と右肘の距離 lehxd 左肘のX座標と左手のX座標の差分 rehxd 右肘のX座標と右手のX座標の差分 lehyd 左肘のY座標と左手のY座標の差分 rehyd 右肘のY座標と右手のY座標の差分 lm 左肩と左手の中点 Xlm 左肩と左手の中点のX座標 Ylm 左肩と左手の中点のY座標 rm 右肩と右手の中点 Xrm 右肩と右手の中点のX座標 Yrm 右肩と右手の中点のY座標 lemd 左肩と左手の中点と左肘の距離 remd 右肩と右手の中点と右肘の距離 L_Data 左特徴データ(lehl,lehxd,
lehyd,lemd) R_Data 右特徴データ(rehl,rehxd,
rehyd,remd) PCNT 特徴量記憶部8に記憶されている特徴量デー
タの数 PEND_FLG パラメータ終了フラグ PDat_1〜PDat_PCNT 特徴量記憶部に記
憶されている特徴量データ PID パラメータ識別ID PD パラメータの次元数 D_1〜D_PD パラメータのデータ値 St_PNT 手動作の開始点 St_INT 手動作の開始を規定する静止時間閾値 St_Time 静止区間の継続時間 Def_lh 左手の変化量 Def_le 左肘の変化量 Def_l 左手と左肘の変化量の和 Def_rh 右手の変化量 Def_re 右肘の変化量 Def_r 右手と右肘の変化量の和 Def_sum 左手、左肘、右手、右肘の変化量の和 St_TH 静止を検出するための移動距離の和の閾値 St_Sect 手動作静止区間 n 読み込み番号、および手動作区間中のデータ数 P_Set(n) n番目に読み込んだパラメータの組 lh_flg(n) P_Set(n)に含まれる左手
存在フラグ lh(n) P_Set(n)に含まれる左手 le(n) P_Set(n)に含まれる左肘 L_Data(n) P_Set(n)に含まれる左特
徴データ lehl(n) L_Data(n)に含まれる左手と
左肘の距離 lehxd(n) L_Data(n)に含まれる左肘
のX座標と左手のX座標の差分 lehyd(n) L_Data(n)に含まれる左肘
のY座標と左手のY座標の差分 lemd(n) L_Data(n)に含まれる左肩と
左手の中点と左肘の距離 rh_flg(n) P_Set(n)に含まれる右手
存在フラグ rh(n) P_Set(n)に含まれる右手 re(n) P_Set(n)に含まれる右肘 R_Data(n) P_Set(n)に含まれる右特
徴データ rehl(n) R_Data(n)に含まれる右手と
右肘の距離 rehxd(n) R_Data(n)に含まれる右肘
のX座標と右手のX座標の差分 rehyd(n) R_Data(n)に含まれる右肘
のY座標と右手のY座標の差分 remd(n) R_Data(n)に含まれる右肩と
右手の中点と右肘の距離 END_PNT 手動作の終了点 Result 手動作認識結果 NOMEAN 手動作に意味がないことを示すコード Output 出力信号 Mdl_CNT 手動作モデル数 Mdl_Num 距離を計算するモデル番号 HM_Code 手動作コード DCNT 各モデルデータのデータ点数 MP_Set(m) m番目のモデル特徴量データ lh_flg_m(m) m番目のモデル特徴量データ
の左手フラグ lh_m(m) m番目のモデル特徴量データの左手 le_m(m) m番目のモデル特徴量データの左肘 L_Data_m(m) m番目のモデル特徴量データ
の左特徴データ lehl_m(m) m番目のモデル特徴量データの左
特徴データの左肘と左手の長さ lehxd_m(m) m番目のモデル特徴量データの
左特徴データの左肘と左手のX差分 lehyd_m(m) m番目のモデル特徴量データの
左特徴データの左肘と左手のY差分 lemd_m(m) m番目のモデル特徴量データの左
特徴データの左手と左肩の中点と左肘の距離 rh_flg_m(m) m番目のモデル特徴量データ
の右手フラグ rh_m(m) m番目のモデル特徴量データの右手 re_m(m) m番目のモデル特徴量データの右肘 R_Data_m(m) m番目のモデル特徴量データ
の右特徴データ rehl_m(m) m番目のモデル特徴量データの右
特徴データの右肘と右手の長さ rehxd_m(m) m番目のモデル特徴量データの
右特徴データの右肘と右手のX差分 rehyd_m(m) m番目のモデル特徴量データの
右特徴データの右肘と右手のY差分 remd_m(m) m番目のモデル特徴量データの右
特徴データの右手と右肩の中点と右肘の長さ TP_Set(t)処理対象のパラメータセットの組 th_flg(t) P_Set(t)に含まれる左手
存在フラグ th(t) TP_Set(t)に含まれる左手 te(t) TP_Set(t)に含まれる左肘 T_Data(t) TP_Set(t)に含まれる左
特徴データ tehl(t) T_Data(t)に含まれる左手と
左肘の距離 tehxd(t) T_Data(t)に含まれる左肘
のX座標と左手のX座標の差分 tehyd(t) T_Data(t)に含まれる左肘
のY座標と左手のY座標の差分 temd(t) T_Data(t)に含まれる左肩と
左手の中点と左肘の距離 TMP_Set(t)処理計算対象のモデルパラメータ
セットの組 mh_flg(m)TMP_Set(m)に含まれる左
手存在フラグ mh(m) TMP_Set(m)に含まれる左手 me(m) TMP_Set(m)に含まれる左肘 M_Data(m) TMP_Set(m)に含まれる
左特徴データ mehl(m) M_Data(m)に含まれる左手と
左肘の距離 mehxd(m) T_Data(m)に含まれる左肘
のX座標と左手のX座標の差分 mehyd(m) M_Data(m)に含まれる左肘
のY座標と左手のY座標の差分 memd(m) M_Data(m)に含まれる左肩と
左手の中点と左肘の距離 dist_l 左手の特徴量のモデルとの距離 dist_r 右手の特徴量のモデルとの距離 Dist_M モデルデータとの距離 Recg_code[Mdl_Num] Mdl_Nu
m番目のモデルの手動作コード Recg_dist[Mdl_Num] Mdl_Nu
m番目のモデルとの距離 I 距離が最小となる時のモデル番号 Recg_TH 認識結果を決定するための閾値 CHGTBL1 手動作解析部9で使用する出力信号変
換テーブル st_pnt TP_Set(t)の手の出現点 end_pnt TP_Set(t)の手の消失点 st_pnt_m TMP_Set(t)の手の出現点 end_pnt_m TMP_Set(t)の手の消失
点 k 手動作存在区間番号 P(i) TP_Set(i)のパラメータ M(j) TMP_Set(j)のパラメータ D(P)[k] パラメータPのk番目に手が現れた区
間のモデルとの距離 Sum_D[k] K番目に手が現れた区間のモデルと
の距離 dist TP_Set(t)とTMP_Set(m)
の距離 g1 両手を最後まで使用する手動作のグループ g2 左手を最後まで使用しない手動作のグループ g3 右手を最後まで使用しない手動作のグループ g4 左手を部分的に使用し、右手を最後まで使用する
手動作のグループ g5 右手を部分的に使用し、左手を最後まで使用する
手動作のグループ g6 左手を部分的に使用し、右手を部分的に使用する
手動作のグループ mv_glp 認識を行なう手動作が含まれる手動作の
グループ mv_Adr グループmv_glpが記録されている
先頭番地 mv_CNT グループmv_glpに含まれるモデル
手動作の数 Adr_g1〜6 グループg1〜6が記録されている
先頭番地 CNT_g1〜6 グループg1〜6に含まれるモデル
手動作の数 chg_signal 変化検出信号 LH_Dir 左手の画像面上の移動方向 RH_Dir 右手の画像面上の移動方向 H_Dir 方向検出対象の手の画像面上の移動方向 PH_Dir方向検出対象の手の前回の画像面上の移動
方向 NO_HAND 手が画像中に存在しないことを意味す
るコード chg_flg 処理対象の手の手方向変化検出フラグ lh_chg 左手方向変化検出フラグ rh_chg 右手方向変化検出フラグ ST_FLG 信号開始フラグ SD_CNT 手移動コードが同一の区間の特徴量デー
タの数 L_FLG 左手変化の検出フラグ R_FLG 右手変化の検出フラグ END_FLG 信号終了フラグ read_signal 読み込み終了信号 V 手の移動ベクトル Xv 手の移動ベクトルのX座標 Yv 手の移動ベクトルのY座標 θ 手の移動ベクトルのX軸との角度である手方位角 TH H_Dirを決定するための閾値 LP_Set(ln) 同一方向に移動する区間の左手
のパラメータの組 lh_flg(ln) LP_Set(ln)に含まれ
る左手存在フラグ lh(ln) LP_Set(ln)に含まれる左手 le(ln) LP_Set(ln)に含まれる左肘 L_Data(ln) LP_Set(ln)に含まれ
る左特徴データ lehl(ln) L_Data(ln)に含まれる左
手と左肘の距離 lehxd(ln) L_Data(ln)に含まれる
左肘のX座標と左手のX座標の差分 lehyd(ln) L_Data(ln)に含まれる
左肘のY座標と左手のY座標の差分 lemd(ln) L_Data(ln)に含まれる左
肩と左手の中点と左肘の距離 RP_Set(rn) 同一方向に移動する区間の右手
のパラメータの組 rh_flg(rn) RP_Set(rn)に含まれ
る左手存在フラグ rh(rn) RP_Set(rn)に含まれる左手 re(rn) RP_Set(rn)に含まれる左肘 R_Data(rn) RP_Set(rn)に含まれ
る左特徴データ rehl(rn) R_Data(rn)に含まれる左
手と左肘の距離 rehxd(rn) R_Data(rn)に含まれる
左肘のX座標と左手のX座標の差分 rehyd(rn) R_Data(rn)に含まれる
左肘のY座標と左手のY座標の差分 remd(rn) R_Data(rn)に含まれる左
肩と左手の中点と左肘の距離 LCNT 左手が同一方向に動く区間の特徴量データ数 RCNT 右手が同一方向に動く区間の特徴量データ数 LMC 3次元移動方向によって決定される左手動作コ
ード RMC 3次元移動方向によって決定される右手動作コ
ード ST_CHK_FLG 開始点検出フラグ Vlh 水平方向動作の左手の動作の平均の高さ Vrh 水平方向動作の右手の動作の平均の高さ Hlh 垂直方向動作の左手の動作の平均の位置 Hrh 垂直方向動作の右手の動作の平均の位置 Mdl_P モデルの動作位置に付けられた番号 XSize 画像面の幅 YSize 画像面の高さ α モデルの動作位置を決定するための閾値 M_Set(s) s番目のモデルのモデルデータ HM_Code(s) M_Set(s)の手動作コー
ド lh(s)[L] M_Set(s)のL点の左手座標
データ列 le(s)[L] M_Set(s)のL点の左肘座標
データ列 L_Data(s)[L] M_Set(s)のL点
の左手特徴データ列 lehl(s)[L] L_Data(s)[L]のL
点の左手と左肘の距離 lehxd(s)[L] L_Data(s)[L]の
L点の左肘のX座標と左手のX座標の差分 lehyd(s)[L] L_Data(s)[L]の
L点の左肘のY座標と左手のY座標の差分 lemd(s)[L] L_Data(s)[L]のL
点の左肩と左手の中点と左肘の距離 LH_Adr 左手のモデル動作データの先頭番地 RH_Adr 右手のモデル動作データの先頭番地 LH_Dir1〜LH_DirN左手の手方向コード LC1〜N_adr 手移動コードLH_Dir1〜L
H_DirNのモデルデータの先頭番地 LC_adrLH_Dirのコードのモデルデータの先
頭番地 LMP1〜3_adr Mdl_P=1〜3のモデルデ
ータの先頭番地 LMP_adr Mdl_Pのモデルデータの先頭番地 MCNT 各手移動コードのモデルデータの数 Mv_Code M 各モデルデータに含まれる特徴量データの数 L 各パラメータのデータ点数 mv_code(s) s番目のモデルの手動作コード Dist(s) s番目のモデルとの距離 LMCD(n) 左手動作コード列 RMCD(n) 右手動作コード列 LC 左手動作コード列に含まれる手動作コードの数 RC 右手動作コード列に含まれる手動作コードの数 CHGTBL2 手動作解析部30で使用する出力信号
変換テーブル 1 手動作認識装置 21 手動作認識装置 2、22 撮影装置 3、23 画像入力部 4、24 画像記憶部 5、25 身体部位抽出部 6、26 部位データ記憶部 7、27 特徴量抽出部 8、28 特徴量記憶部 9、30 手動作解析部 10、31 知識記憶部 11、32 翻訳部 29 手方向判定部

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】少なくとも人物の上半身を撮影する1台の
    撮影手段と、前記撮影手段で撮影した画像を入力するた
    めの画像入力手段と、前記画像入力手段から送られる画
    像を記憶するための画像記憶手段と、前記記憶手段に記
    憶された前記画像上における手の位置、肘の位置、肩の
    位置を計算するための身体部位抽出手段と、前記身体部
    位抽出手段で計算された前記手の位置、前記肘の位置、
    前記肩の位置を記憶する身体部位記憶手段と、前記身体
    部位記憶手段に記憶された前記手の位置と前記肘の位置
    と前記肩の位置から、特徴量を計算するための特徴量抽
    出手段と、前記特徴量抽出手段で計算された前記特徴量
    と、前記手の位置と、前記肘の位置を記憶する特徴量記
    憶手段と、前記特徴量記憶手段に記憶されているデータ
    から、手動作を解析し、出力信号に変換する手動作解析
    手段と、前記手動作を解析するための知識を記憶してお
    く知識記憶手段と、前記手動作解析手段で変換された前
    記出力信号を出力する出力手段を有することを特徴とす
    る手動作認識装置。
  2. 【請求項2】請求項1記載の手動作認識装置において、
    認識を行なう全ての手動作のモデルを用意しておき、画
    像面中の手の位置と、肘の位置と、肩の位置から計算さ
    れる特徴量と、前記モデルから得られる特徴量からなる
    手動作モデルを比較することによって、手動作を解析す
    ることを特徴とする手動作認識方法。
  3. 【請求項3】請求項1記載の手動作認識装置に、画像上
    における手の動き方向の変化を検出する変化検出手段を
    追加したことを特徴とする手動作認識装置。
  4. 【請求項4】画像面中の方向を一定の角度間隔で分割し
    たグループ毎に2次元コードを与え、認識を行なう全て
    の3次元単一方向動作に対して、前記3次元単一方向動
    作モデルから計算される特徴量モデルと、前記3次元単
    一方向動作モデルを2次元平面に投影した軌跡によって
    得られる前記2次元コードで表したモデル手方向を用意
    し、認識画像面上の手の移動方向によって前記2次元コ
    ードで表した手方向を算出し、前記手方向と前記モデル
    手方向が一致する前記3次元単一方向動作モデルの中か
    ら、前記認識画像面中の前記手の位置と、前記肘の位置
    と、前記肩の位置から計算される特徴量と、前記特徴量
    モデルを比較することにより、3次元運動方向を解析す
    ることを特徴とする手動作方向解析方法。
JP7124745A 1995-05-24 1995-05-24 手動作認識装置および方法 Pending JPH08320920A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7124745A JPH08320920A (ja) 1995-05-24 1995-05-24 手動作認識装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7124745A JPH08320920A (ja) 1995-05-24 1995-05-24 手動作認識装置および方法

Publications (1)

Publication Number Publication Date
JPH08320920A true JPH08320920A (ja) 1996-12-03

Family

ID=14893067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7124745A Pending JPH08320920A (ja) 1995-05-24 1995-05-24 手動作認識装置および方法

Country Status (1)

Country Link
JP (1) JPH08320920A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944668A (ja) * 1995-07-26 1997-02-14 Matsushita Electric Ind Co Ltd 動作開始位置検出方法
CN101332362A (zh) * 2008-08-05 2008-12-31 北京中星微电子有限公司 基于人体姿态识别的互动娱乐系统及其实现方法
US7650014B2 (en) 2005-06-14 2010-01-19 Fuji Xerox Co., Ltd. Image analysis apparatus
US7734062B2 (en) 2003-08-29 2010-06-08 Fuji Xerox Co., Ltd. Action recognition apparatus and apparatus for recognizing attitude of object
US7756293B2 (en) 2004-11-05 2010-07-13 Fuji Xerox Co., Ltd. Movement capture and analysis apparatus and method
JP2010165223A (ja) * 2009-01-16 2010-07-29 Denso Corp 操作推定装置およびプログラム
US7970204B2 (en) 2006-08-30 2011-06-28 Fujifilm Corporation Image processing device having image sensors that pick up an object that carries out an instructing action
US8116517B2 (en) 2005-06-14 2012-02-14 Fuji Xerox Co., Ltd. Action analysis apparatus
CN103116398A (zh) * 2011-10-12 2013-05-22 微软公司 用于改进骨骼跟踪的姿势银行
US8654187B2 (en) 2009-06-08 2014-02-18 Panasonic Corporation Work recognition system, work recognition device, and work recognition method
CN111401166A (zh) * 2020-03-06 2020-07-10 中国科学技术大学 基于肌电信息解码的鲁棒手势识别方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944668A (ja) * 1995-07-26 1997-02-14 Matsushita Electric Ind Co Ltd 動作開始位置検出方法
US7734062B2 (en) 2003-08-29 2010-06-08 Fuji Xerox Co., Ltd. Action recognition apparatus and apparatus for recognizing attitude of object
US7756293B2 (en) 2004-11-05 2010-07-13 Fuji Xerox Co., Ltd. Movement capture and analysis apparatus and method
US8385598B2 (en) 2005-06-14 2013-02-26 Fuji Xerox Co., Ltd. Action analysis apparatus
US7650014B2 (en) 2005-06-14 2010-01-19 Fuji Xerox Co., Ltd. Image analysis apparatus
US8116517B2 (en) 2005-06-14 2012-02-14 Fuji Xerox Co., Ltd. Action analysis apparatus
US7970204B2 (en) 2006-08-30 2011-06-28 Fujifilm Corporation Image processing device having image sensors that pick up an object that carries out an instructing action
CN101332362B (zh) 2008-08-05 2012-09-19 北京中星微电子有限公司 基于人体姿态识别的互动娱乐系统及其实现方法
CN101332362A (zh) * 2008-08-05 2008-12-31 北京中星微电子有限公司 基于人体姿态识别的互动娱乐系统及其实现方法
JP2010165223A (ja) * 2009-01-16 2010-07-29 Denso Corp 操作推定装置およびプログラム
US8654187B2 (en) 2009-06-08 2014-02-18 Panasonic Corporation Work recognition system, work recognition device, and work recognition method
CN103116398A (zh) * 2011-10-12 2013-05-22 微软公司 用于改进骨骼跟踪的姿势银行
CN111401166A (zh) * 2020-03-06 2020-07-10 中国科学技术大学 基于肌电信息解码的鲁棒手势识别方法

Similar Documents

Publication Publication Date Title
CN108111818B (zh) 基于多摄像机协同的运动目标主动感知方法和装置
CN109887040B (zh) 面向视频监控的运动目标主动感知方法及系统
CN101989326B (zh) 人体姿态识别方法和装置
US20110025834A1 (en) Method and apparatus of identifying human body posture
CN101406390B (zh) 检测人体部位和人的方法和设备以及对象检测方法和设备
CN109190508A (zh) 一种基于空间坐标系的多摄像头数据融合方法
JP2006268345A (ja) 画像処理装置および画像処理方法
JP2012088787A (ja) 画像処理装置、画像処理方法
CN115346256B (zh) 机器人寻人方法及系统
CN106991370B (zh) 基于颜色和深度的行人检索方法
CN118397692A (zh) 一种基于深度学习的人体动作识别系统及其方法
JPH08320920A (ja) 手動作認識装置および方法
CN109341692B (zh) 一种沿线导航方法及机器人
CN104517095A (zh) 一种基于深度图像的人头分割方法
JPH10269358A (ja) 物体認識装置
CN113591692A (zh) 一种多视图身份识别方法
CN112613568A (zh) 基于可见光及红外多光谱图像序列的目标识别方法和装置
CN106991448A (zh) 一种人像比对处理方法
KR100885418B1 (ko) 오버헤드 카메라 영상에서 사람을 감지하고 추적하는시스템 및 그 방법
JP4203279B2 (ja) 注目判定装置
JPH07302327A (ja) 物体画像検出方法及び検出装置
Zhang et al. Physical blob detector and multi-channel color shape descriptor for human detection
CN115272417A (zh) 图像数据的处理方法、图像处理设备以及可读存储介质
CN116071648A (zh) 盲人辅助方法、可穿戴式盲人辅助设备及存储介质
CN115213903A (zh) 一种基于障碍规避的移动机器人路径规划方法及装置