JP2017102768A - 情報処理装置、表示装置、情報処理方法、及び、プログラム - Google Patents

情報処理装置、表示装置、情報処理方法、及び、プログラム Download PDF

Info

Publication number
JP2017102768A
JP2017102768A JP2015236321A JP2015236321A JP2017102768A JP 2017102768 A JP2017102768 A JP 2017102768A JP 2015236321 A JP2015236321 A JP 2015236321A JP 2015236321 A JP2015236321 A JP 2015236321A JP 2017102768 A JP2017102768 A JP 2017102768A
Authority
JP
Japan
Prior art keywords
image
user
captured image
unit
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015236321A
Other languages
English (en)
Other versions
JP6786792B2 (ja
Inventor
健郎 矢島
Takeo Yajima
健郎 矢島
勇一 毛利
Yuichi Mori
勇一 毛利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015236321A priority Critical patent/JP6786792B2/ja
Priority to US15/352,003 priority patent/US10102676B2/en
Publication of JP2017102768A publication Critical patent/JP2017102768A/ja
Application granted granted Critical
Publication of JP6786792B2 publication Critical patent/JP6786792B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional [3D], e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating three-dimensional [3D] models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】撮像画像に基づいて、撮像された物体を選択する処理を、負荷の軽い処理により実行できる情報処理装置、表示装置、情報処理方法、及び、プログラムを提供する。
【解決手段】使用者の視野の少なくとも一部を含む範囲を撮像するカメラ61と、カメラ61により撮像された撮像画像に基づき使用者の操作を検出し、検出した操作に従って、撮像画像に含まれるオブジェクトから対象オブジェクトを推定する制御部140と、を備えたことを特徴とするHMD100。
【選択図】図4

Description

本発明は、情報処理装置、表示装置、情報処理方法、及び、プログラムに関する。
従来、商品を撮像し、撮像画像に基づき商品を特定して、商品に関する情報を表示する装置が知られている(例えば、特許文献1参照)。特許文献1記載の装置は、使用者の頭部に装着した状態で使用されるHMD(Head Mounted Display:頭部装着型表示装置)であり、装着者の視線方向を撮像するカメラを備える。このHMDは、カメラの撮像画像をサーバーに送信し、サーバーから商品に関する商品情報を取得し、取得した商品情報に基づいて、商品に関する画像を拡張現実(AR:Augmented Reality)画像として表示する。
特開2011−253324号公報
特許文献1記載の装置のように、撮像画像から商品等の物体を認識し、或いは識別する場合、撮像画像に写っている全ての物体を認識することは、かえって不便である。このため、撮像画像に写っている物体の中から、処理の対象とする物体を選択する処理が必要である。例えば、特許文献1記載の装置は、撮像画像に人間の手指が含まれているか否かを判定し、かつ、加速度センサーを利用して加速度の変化に基づいて装着者の移動状態や頭部の動きを判定して、商品情報を表示すべき商品を認識する。この方法では、撮像画像に関する処理と加速度センサーが検出する加速度に関する処理とを含む、複雑な処理を行うため、処理負荷が大きく、遅延が懸念される。
本発明は上記事情に鑑みてなされたものであり、撮像画像に基づいて、撮像された物体を選択する処理を、負荷の軽い処理により実行できる情報処理装置、表示装置、情報処理方法、及び、プログラムを提供することを目的とする。
上記目的を達成するために、本発明の情報処理装置は、使用者の視野の少なくとも一部を含む範囲を撮像する撮像部と、前記撮像部により撮像された撮像画像に基づき前記使用者の操作を検出し、検出した操作に従って、前記撮像画像に含まれるオブジェクトから対象オブジェクトを推定する制御部と、を備えることを特徴とする。
本発明によれば、使用者の視野を含む範囲を撮像した撮像画像に基づき使用者の操作を検出して、検出した操作に従って対象オブジェクトを推定する。これにより、撮像画像に対する処理を行うことで、対象オブジェクトを選択できるので、処理の負荷が軽い。
ここで、使用者の操作とは、使用者が使用者自身の身体を用いて行う操作を含み、この他、使用者が手に持つ物体である操作体を用いる操作を含んでもよく、使用者の身体または衣服等に装着される操作体を用いる操作を含んでもよい。
また、本発明は、上記情報処理装置において、前記制御部は、前記撮像画像に含まれる前記使用者の身体の画像を検出することにより、前記使用者の操作を検出すること、を特徴とする。
本発明によれば、撮像画像に基づき使用者の操作を検出できる。
また、本発明は、上記情報処理装置において、前記撮像画像の一部を含む領域と、前記領域において前記使用者の身体の画像を検出する条件とが設定され、前記制御部は、前記撮像画像に含まれるオブジェクトについて、当該オブジェクトを含む前記領域に設定された条件に従って、前記使用者の身体の画像か否かを判定し、前記使用者の身体を検出すること、を特徴とする。
本発明によれば、撮像画像に基づき使用者の操作を検出する処理において、誤検出を減らすことができる。
また、本発明は、上記情報処理装置において、前記領域には、前記撮像画像における前記領域の位置に応じて、前記領域に含まれる前記オブジェクトを前記使用者の身体の画像と判定する優先度が設定され、前記制御部は、前記オブジェクトを含む前記領域に設定された優先度に従って、前記オブジェクトが前記使用者の身体の画像か否かを判定すること、を特徴とする。
本発明によれば、撮像画像に基づいて使用者の操作を検出する場合の誤検出を減らし、検出精度を高めることができる。例えば、撮像画像が、複数の位置で使用者の身体の画像を含む場合に、使用者の操作として検出すべき画像を、優先度に基づき区別できる。このため、使用者が意図した操作を検出できる可能性を高めることができ、検出精度の向上が期待できる。
また、本発明は、上記情報処理装置において、複数の前記領域が設定され、それぞれの前記領域には前記撮像画像における前記領域の位置に応じた優先度が設定されること、を特徴とする。
本発明によれば、撮像画像に基づいて使用者の操作を検出する場合の誤検出を減らし、検出精度を高めることができる。また、操作を検出する処理に影響する優先度の設定、及び管理が容易になるという利点がある。
また、本発明は、上記情報処理装置において、前記撮像画像の底辺側に位置する前記領域には、当該領域よりも上辺側に位置する前記領域に比べて高い優先度が設定されること、を特徴とする。
本発明によれば、使用者の操作に伴い使用者の身体が撮像されやすい、底辺側に位置する領域に対し、上辺側に位置する領域よりも高い優先度を設定することによって、使用者の操作を検出する場合の検出精度を高めることができる。
ここで、撮像画像の底辺側とは、撮像時の上下方向に基づき底辺となる側を指すが、予め撮像画像に対して底辺側が定義されていてもよい。
また、本発明は、上記情報処理装置において、前記制御部は、前記撮像画像の縁に重なる前記オブジェクトを前記使用者の身体の画像として検出すること、を特徴とする。
本発明によれば、使用者の操作に伴って撮像された使用者の身体の画像を高い精度で検出できる。
また、本発明は、上記情報処理装置において、前記制御部は、前記撮像画像に含まれる人間の手の画像を検出し、前記手の画像が右手か左手か、及び、前記手の画像の前記撮像画像における位置に基づき、検出した前記手の画像を前記使用者の身体の画像と判定すること、を特徴とする。
本発明によれば、撮像画像に基づいて使用者の操作を検出する場合の誤検出を減らし、検出精度を高めることができる。
また、本発明は、上記情報処理装置において、前記制御部は、前記撮像画像において検出した前記人間の手の画像が前記撮像画像の縁を含む場合に、前記手の画像を前記使用者の身体の画像と判定すること、を特徴とする。
本発明によれば、使用者の操作に伴って撮像された使用者の身体の画像を高い精度で検出できる。
また、本発明は、上記情報処理装置において、対象物までの距離を検出する距離検出部を備え、前記制御部は、前記撮像画像に含まれる前記オブジェクトのうち、前記距離検出部により検出される距離が所定の距離以下の前記オブジェクトを前記使用者の身体の画像として検出すること、を特徴とする。
本発明によれば、撮像画像に基づき使用者の身体の画像を検出する場合の検出精度を、より一層、高めることができる。
また、本発明は、上記情報処理装置において、前記制御部は、前記撮像画像に含まれる人間の手の画像を検出し、前記手の画像に対応する前記対象物について前記距離検出部により検出された距離が、予め設定された複数の距離を含む場合に、前記手の画像を前記使用者の身体の画像と判定すること、を特徴とする。
本発明によれば、撮像画像に基づき使用者の身体の画像を検出する場合の検出精度を、より一層、高めることができる。
また、本発明は、上記情報処理装置において、前記制御部は、前記撮像画像に含まれる前記オブジェクトであって、前記使用者の身体との相対位置の差が所定距離以内の前記オブジェクトを、対象オブジェクトとして推定すること、を特徴とする。
本発明によれば、使用者の操作の対象であるオブジェクトを、高い精度で推定できる。
また、本発明は、上記情報処理装置において、前記制御部は、前記撮像画像から前記使用者の身体の影の画像を検出し、前記撮像画像に含まれる前記オブジェクトであって、前記身体の影の画像との相対位置の差が所定距離以内の前記オブジェクトを、対象オブジェクトとして推定すること、を特徴とする。
本発明によれば、撮像画像に基づいて、使用者の身体とオブジェクトとの位置関係を加味して、使用者の操作の対象であるオブジェクトを推定するので、推定の精度の向上を図ることができる。
また、本発明は、上記情報処理装置において、前記使用者の身体に装着される身体装着型検出装置の検出状態または検出結果を取得する取得部を備え、前記制御部は、前記取得部により取得される検出結果に基づいて、前記対象オブジェクトを推定すること、を特徴とする。
本発明によれば、使用者の身体に装着される身体装着型検出装置の検出状態または検出結果を利用して、使用者の操作の対象であるオブジェクトを高精度で推定できる。
また、上記目的を達成するために、本発明の表示装置は、使用者の頭部に装着される表示部と、前記使用者の視野の少なくとも一部を含む範囲を撮像する撮像部と、前記撮像部により撮像された撮像画像に基づき前記使用者の操作を検出し、検出した操作に従って、前記撮像画像に含まれるオブジェクトから対象オブジェクトを推定する制御部と、を備えることを特徴とする。
本発明によれば、使用者の視野を含む範囲を撮像した撮像画像に基づき使用者の操作を検出して、検出した操作に従って対象オブジェクトを推定する。これにより、撮像画像に対する処理を行うことで、対象オブジェクトを選択できるので、処理の負荷が軽い。
また、本発明は、上記表示装置において、前記制御部は、前記撮像画像に含まれる前記オブジェクトと、前記撮像画像に含まれる前記使用者の身体の画像とを検出し、前記使用者の身体以外の前記オブジェクトの位置及び形状に合わせてGUI画像を前記表示部により表示させること、を特徴とする。
本発明によれば、使用者の操作に対応してGUI(Graphical User Interface)画像を表示することで、操作性の高いユーザーインターフェースを提供できる。
また、本発明は、上記表示装置において、対象物までの距離を検出する距離検出部を備え、前記制御部は、前記使用者の身体以外の前記オブジェクトに対応する前記対象物までの距離に基づき、前記GUI画像を前記表示部により表示させること、を特徴とする。
本発明によれば、GUI画像を表示する処理を適正化し、ユーザーインターフェースの操作性を高めることができる。
また、上記目的を達成するために、本発明の情報処理方法は、使用者の視野の少なくとも一部を含む範囲を撮像し、撮像画像に基づき前記使用者の操作を検出し、検出した操作に従って、前記撮像画像に含まれる複数のオブジェクトから、いずれかの前記オブジェクトを対象オブジェクトとして推定すること、を特徴とする。
本発明によれば、使用者の視野を含む範囲を撮像した撮像画像に基づき使用者の操作を検出して、検出した操作に従って対象オブジェクトを推定する。これにより、撮像画像に対する処理を行うことで、対象オブジェクトを選択できるので、処理の負荷が軽い。
また、上記目的を達成するために、本発明は、情報処理装置を制御するコンピューターが実行可能なプログラムであって、前記コンピューターにより、使用者の視野の少なくとも一部を含む範囲を撮像した撮像画像に基づき、前記使用者の操作を検出し、検出した操作に従って、前記撮像画像に含まれる複数のオブジェクトから、いずれかの前記オブジェクトを対象オブジェクトとして推定する処理を実行するためのプログラムである。
本発明によれば、使用者の視野を含む範囲を撮像した撮像画像に基づき使用者の操作を検出して、検出した操作に従って対象オブジェクトを推定する。これにより、撮像画像に対する処理を行うことで、対象オブジェクトを選択できるので、処理の負荷が軽い。
本発明は、上述した情報処理装置、表示装置、情報処理方法、及びプログラム以外の種々の形態で実現することも可能である。例えば、上記のプログラムを記録した記録媒体、プログラムを配信するサーバー装置、上記プログラムを伝送する伝送媒体、上記プログラムを搬送波内に具現化したデータ信号等の形態で実現できる。また、上記情報処理装置または表示装置と通信可能なサーバー装置等が、プログラムを実行して、上述した情報処理装置或いは表示装置を制御する制御部またはコンピューターとして機能してもよい。この場合のサーバー装置等は、通信ネットワークを介して処理機能を提供する、いわゆるクラウドコンピューティングを構成することができる。
HMDの外観構成を示す説明図。 画像表示部の光学系の構成を示す図。 画像表示部と撮像範囲の対応を示す説明図。 HMDを構成する各部の機能ブロック図。 画像表示部と撮像範囲の対応の別の例を示す説明図。 画像表示部と撮像範囲の対応のさらに別の例を示す説明図。 HMDの動作を示すフローチャート。 HMDによる表示例を示す図。 HMDによる別の表示例を示す図。 HMDが実行する操作検出処理を示すフローチャート。 撮像画像に基づく操作検出処理の例を示す図。 撮像画像における領域に関する設定の例を示す説明図。 HMDが実行する推定処理を示すフローチャート。 撮像画像に基づく推定処理の例を示す図。
図1は、本発明を適用した実施形態に係るHMD(Head Mounted Display:頭部装着型表示装置)100の外観構成を示す説明図である。
HMD100(情報処理装置)は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御装置10と、を備える表示装置である。制御装置10は、使用者がHMD100を操作するコントローラーとしても機能する。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61(撮像部)と、マイク63とを備える。右光学像表示部26及び左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに連結される。
右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21及び左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。
右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」と呼ぶ)、図2〜図4を参照して後述する投写光学系251,252等を含む。
右光学像表示部26及び左光学像表示部28は、導光板261,262(図2)と、調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置される。調光板20Aは、光透過性がほぼ無いもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26及び左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、HMD100を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、右導光板261及び左導光板262を保護し、右導光板261及び左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは、右光学像表示部26及び左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
カメラ61は、画像表示部20の前面の中央位置に配置される。カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。カメラ61をステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景(実空間)を撮像する。別の表現では、カメラ61は、使用者の視界と重なる範囲または方向を撮像し、使用者が注視する方向を撮像するということもできる。カメラ61の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む。さらに、調光板20Aを通した使用者の視界の全体を撮像できるようにカメラ61の撮像範囲が設定されているとより好ましい。
カメラ61は、制御部140が備える撮像制御部161(図4)の制御に従って撮像を実行し、撮像画像データを撮像制御部161に出力する。
ここで、HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する距離センサー(図示略)を備えてもよい。距離センサーは、例えば、右光学像表示部26と左光学像表示部28との境目部分に配置される。この場合、使用者が画像表示部20を装着した状態で、距離センサー64の位置は、水平方向においては使用者の両眼のほぼ中間であり、鉛直方向においては使用者の両眼より上である。距離センサー64の測定方向は、例えば、HMD100の表側方向で、カメラ61の撮像方向と重複する方向とすることができる。
距離センサーは、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する構成とすることができる。距離センサーは、制御部140の制御に従い、三角測距処理や時間差に基づく測距処理を実行すればよい。また、距離センサーは、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサーは、制御部140の制御に従い、超音波の反射までの時間差に基づき測距処理を実行すればよい。
図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
左表示駆動部24は、LED等の光源と拡散板とを有する左バックライト222、左バックライト222の拡散板から発せられる光の光路上に配置される透過型の左LCD242、及び、左LCD242を透過した画像光Lを導くレンズ群等を備えた左投写光学系252を備える。左LCD242は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
左投写光学系252は、左LCD242から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板262に入射される。左導光板262は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、左導光板262の内部において複数回の反射を経て左眼LE側に導かれる。左導光板262には、左眼LEの眼前に位置するハーフミラー262A(反射面)が形成される。
ハーフミラー262Aで反射した画像光Lは左眼LEに向けて左光学像表示部28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
右表示駆動部22は、左表示駆動部24と左右対称に構成される。右表示駆動部22は、LED等の光源と拡散板とを有する右バックライト221、右バックライト221の拡散板から発せられる光の光路上に配置される透過型の右LCD241、及び、右LCD241を透過した画像光Lを導くレンズ群等を備えた右投写光学系251を備える。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
右投写光学系251は、右LCD241から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板261に入射される。右導光板261は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、右導光板261の内部において複数回の反射を経て右眼RE側に導かれる。右導光板261には、右眼REの眼前に位置するハーフミラー261A(反射面)が形成される。
ハーフミラー261Aで反射した画像光Lは右眼REに向けて右光学像表示部26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
使用者の右眼REには、ハーフミラー261Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。左眼LEには、ハーフミラー262Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、調光板20Aを透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。このように、HMD100は、シースルー型の表示装置として機能する。
なお、左投写光学系252と左導光板262とを総称して「左導光部」とも呼び、右投写光学系251と右導光板261とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
画像表示部20は、制御装置10に接続ケーブル40を介して接続する。接続ケーブル40はコネクター46を備え、コネクター46には、右イヤホン32、左イヤホン34及びマイク63を有するイヤホンマイクを接続できる。
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声処理部187(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
接続ケーブル40は画像表示部20に対し固定的に接続され、制御装置10に対してはコネクター(図示略)に接離可能に接続される。制御装置10と画像表示部20とは、接続ケーブル40を介して各種信号、及び/又は各種データを送受信する。
制御装置10は、HMD100を制御する。制御装置10は、操作部111(図4)として、キー操作部11、LEDインジケーター12、トラックパッド14、上下キー15、切替スイッチ16、及び電源スイッチ18を備える。
キー操作部11は、制御装置10が実行するオペレーティングシステム150(図4)の操作等を行うためのメニューキー、ホームキー、戻るキー等を備える。
LEDインジケーター12は、HMD100の動作状態に対応して点灯し、或いは点滅する。上下キー15は、右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチで構成される。
トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。
図3は、画像表示部20の要部構成を示す図であり、(A)は画像表示部20を使用者の頭部側から見た要部斜視図、(B)はカメラ61の画角の説明図である。なお、図3(A)では接続ケーブル40の図示を省略する。
図3(A)は、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右光学像表示部26及び左光学像表示部28の裏側が見えている。
図3(A)では、使用者の右眼REに画像光を照射するハーフミラー261A、及び、左眼LEに画像光を照射するハーフミラー262Aが、略四角形の領域として見える。また、ハーフミラー261A、262Aを含む右光学像表示部26及び左光学像表示部28の全体が、上述したように外光を透過する。このため、使用者には、右光学像表示部26及び左光学像表示部28の全体を透過して外景が視認され、ハーフミラー261A、262Aの位置に矩形の表示画像が視認される。
カメラ61は、上記のように画像表示部20の前面の中央位置に配置され、使用者の両眼が向く方向、すなわち使用者にとって前方を撮像する。図3(B)は、カメラ61の位置を、使用者の右眼RE及び左眼LEとともに平面視で模式的に示す図である。カメラ61の画角(撮像範囲)をCで示す。なお、図3(B)には水平方向の画角Cを示すが、カメラ61の実際の画角は一般的なデジタルカメラと同様に上下方向にも拡がる。
本実施形態では、カメラ61の光軸CXは、画像表示部20の真正面方向を向く。この構成例では、カメラ61は、HMD100を装着する使用者の正面方向を撮像する。
カメラ61の画角Cは、画像表示部20の中央位置の真正面方向を含み、光軸CXを中心として上下左右に所定の角度で拡がる範囲が、カメラ61の画角Cに含まれる。例えば、図3(B)に示すように、画像表示部20の正面方向に対象物OBがある場合、対象物OBは画角Cに含まれ、カメラ61の撮像画像に対象物OBが写る。ここで、使用者が対象物OBを注視すると、使用者の視線は、図中符号RD、LDに示すように対象物OBに向けられる。一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。この場合、注視点が対象物OBであるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野であり、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。
HMD100を装着する使用者が画像表示部20を透過して右光学像表示部26及び左光学像表示部28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶ。図1及び図2に示す本実施形態の構成で、実視野は、右光学像表示部26及び左光学像表示部28を透過して使用者が視認する実際の視野に相当する。実視野は、図3(B)を参照して説明した視野角及び安定注視野より狭いが、有効視野より広い。
カメラ61は、使用者の視野よりも広い範囲を撮像可能な画角を有することが好ましく、具体的には、画角Cが、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角Cが、使用者の実視野よりも広いことが、より好ましい。さらに好ましくは、画角Cが、使用者の安定注視野よりも広く、最も好ましくは、画角Cが使用者の両眼の視野角よりも広い。
カメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。
図4は、HMD100を構成する各部の機能ブロック図である。
HMD100は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス114を備える。インターフェイス114は、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部機器OAは、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
制御装置10は、制御部140、入力情報取得部110、及び、記憶部120を有する。
入力情報取得部110は、操作部111に接続される。操作部111は、上述したようにキー操作部11、トラックパッド14、上下キー15及び切替スイッチ16を含む。入力情報取得部110は、操作部111から入力される信号に基づき、使用者の操作を受け付ける。入力情報取得部110は、操作部111における操作内容を示すデータを制御部140に出力する。また、入力情報取得部110は、制御部140の制御に従って、LEDインジケーター12(図1)の点灯、点滅、消灯を制御してもよい。
制御装置10は、電源部130を備え、制御装置10及び画像表示部20の各部に電源部130から電源を供給する。電源部130からの電源供給状態は、電源スイッチ18(図1)の操作、及び、制御部140が実行するプログラムの実行状況に応じて、制御部140が制御する。
記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラム、及び、これらのプログラムに係るデータを記憶する。このプログラムには、本発明の制御方法を実現するためのプログラムを含む。
記憶部120は、画像表示部20に表示する静止画像や動画像のデータを記憶しても良い。また、記憶部120は、設定データ121を記憶する。設定データ121は、制御部140が使用する各種の設定値を含む。設定データ121が含む設定値は、予め操作部111の操作で入力された値であってもよいし、通信部117またはインターフェイス114を介して外部機器OAまたは他の装置(図示略)から設定値を受信して記憶してもよい。
また、記憶部120は、コンテンツデータ122、操作検出用データ125、及び、距離検出用データ127を記憶する。コンテンツデータ122は、静止画像、動画像など画像表示部20が制御部140の制御に従って表示する画像の画像データを含む。コンテンツデータ122は音声データを含んでもよい。また、コンテンツデータ122は複数の画像の画像データを含んでもよく、この場合、これら複数の画像は同時に画像表示部20に表示される画像に限定されない。
制御部140には、GPS115、及び通信部117が接続される。
GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えてもよい。
通信部117は、無線LAN(WiFi(登録商標)を含む)、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示させる。一方、外部機器OAが、インターフェイス114に有線接続された場合、制御部140は、コンテンツデータをインターフェイス114より取得して、画像表示部20に画像を表示させる。通信部117及びインターフェイス114は、外部機器OAからコンテンツデータを取得するデータ取得部DAとして機能する。
制御部140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を備える。制御部140は、記憶部120が記憶するコンピュータープログラムを読み出して実行し、オペレーティングシステム(OS)150、画像処理部160、撮像制御部161、AR表示制御部164、操作検出部165、対象推定部167、通信制御部170、音声処理部187、及び、表示制御部190として機能する。
画像表示部20は、カメラ61を備える。また、画像表示部20は、インターフェイス25、右表示駆動部22、左表示駆動部24、右光学像表示部26としての右導光板261、左光学像表示部28としての左導光板262、及び、9軸センサー66を備える。
9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサー(慣性センサー)である。9軸センサー66は、複数のセンサーを統合したセンサーユニットであってもよい。制御部140は、画像表示部20が使用者の頭部に装着された状態で、9軸センサー66の検出値に基づいて使用者の頭部の動きを検出できる。
インターフェイス25は、接続ケーブル40により制御装置10に接続され、制御装置10が送信する各種データ及び信号を、右表示駆動部22及び左表示駆動部24に出力する。また、インターフェイス25は、表示制御部190から送信される制御信号を、対応する右バックライト制御部201又は左バックライト制御部202に出力する。
また、インターフェイス25は、カメラ61、及び、9軸センサー66を制御装置10に接続する。カメラ61の撮像データ、9軸センサー66による加速度(3軸)、角速度(3軸)、及び、地磁気(3軸)の検出結果は、インターフェイス25を介して制御部140に送られる。
右表示駆動部22は、上述した右バックライト221、右LCD241、及び右投写光学系251を備える。また、右表示駆動部22は、右バックライト(BL)221を制御する右バックライト(BL)制御部201、及び、右LCD241を駆動する右LCD制御部211を備える。
右バックライト制御部201は、表示制御部190が送信する制御信号に従って、右バックライト221を駆動する。右LCD制御部211は、画像処理部160が送信する信号及び表示制御部190が送信する信号に基づいて、右LCD241を駆動する。
左表示駆動部24は、右表示駆動部22と同様の構成を有する。左表示駆動部24は、上述した左バックライト222、左LCD242、及び左投写光学系252を備える。また、左表示駆動部24は、左バックライト222を駆動する左バックライト制御部202、及び、左LCD242を駆動する左LCD制御部212を備える。
左バックライト制御部202は、表示制御部190が送信する制御信号に従って、左バックライト222を駆動する。左LCD制御部212は、画像処理部160が送信する信号及び表示制御部190が送信する信号に基づいて、左LCD242を駆動する。
なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。
画像処理部160は、画像表示部20により表示するコンテンツの画像データに基づいて、右表示駆動部22及び左表示駆動部24に送信する信号を生成する。画像処理部160が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。
また、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部160は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、接続ケーブル40を介して画像表示部20に送信する。
表示制御部190は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部190は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。
撮像制御部161は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶部120に一時的に記憶する。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部161は撮像画像データをカメラ61から取得して、記憶部120に一時的に記憶する。
撮像制御部161が取得する撮像画像は、後述するように、操作検出部165、対象推定部167等により処理される。この場合、撮像画像の向きとして、撮像画像の底辺側を基準とする処理が行われる。本実施形態では、カメラ61の撮像画像は矩形であり、撮像画像の4辺のうちいずれか一辺が、底辺とされる。底辺は、撮像制御部161が生成する撮像画像データについて予め設定されてもよいし、カメラ61が撮像する際に定められてもよいし、撮像画像の向きに基づき決定されてもよい。
例えば、カメラ61が撮像を行う際の上下方向(重力方向)、或いは、カメラ61に予め対応付けられた上下方向に従って、撮像画像の底辺が決定されてもよく、底辺がどの辺であるかを示す付加データが撮像画像データに付加されてもよい。或いは、撮像制御部161が操作検出部165または対象推定部167に撮像画像を渡す際に、撮像画像の向きを示すデータを付加してもよい。この場合、撮像画像の向きから底辺の位置を特定できる。また、撮像制御部161が、底辺を下とする向きで撮像画像の向きを決定し、撮像画像データを生成してもよい。
このため、操作検出部165及び対象推定部167は、撮像画像を処理する際に、撮像画像の底辺を特定する処理を行ってもよい。例えば、矩形の撮像画像のうち長辺を常に底辺として認識して処理してもよいし、撮像画像の向きを示す付加データや撮像画像の底辺の位置を示す付加データに従って、撮像画像の底辺を特定してもよい。
操作検出部165は、カメラ61の撮像画像に基づいて、HMD100に対する操作を検出する。操作検出部165は、カメラ61の撮像画像から使用者の身体の画像を検出することにより、この使用者の身体によって行われた操作を特定する。
対象推定部167は、カメラ61の撮像画像から物体の画像を抽出することにより、カメラ61の画角内の物体(対象物)を検出する。対象推定部167は、検出した対象物のうち、操作検出部165が特定した操作の対象となっている対象物を、推定する。
AR表示制御部164は、画像表示部20による表示を制御して、AR表示を実現する。
AR表示制御部164は、画像表示部20が表示するAR表示用の画像を生成する。AR表示制御部164は、AR表示用の画像として平面画像を生成してもよい。また、AR表示制御部164はAR表示用の画像として、立体画像を生成してもよい。この場合、AR表示制御部164は、画像表示部20が右眼REに対応して右光学像表示部26により表示する右眼用の画像と、左眼LEに対応して左光学像表示部28に表示する左眼用の画像とを生成する。これらの右眼用の画像と左目用の画像とは視差を有し、この視差により、使用者は立体画像を視認する。AR表示制御部164が生成する平面画像または立体画像からなる表示用の画像データは、例えば、記憶部120が記憶するコンテンツデータ122、または、カメラ61の撮像画像に基づき生成される。AR表示制御部164は、生成した画像データが、実空間における対象物に対応する位置で視認されるように表示位置を決定する処理を行い、決定した表示位置に表示されるように表示制御部190を制御する。
また、AR表示制御部164は、画像の表示位置を決定する処理において、カメラ61の撮像画像を解析して、対象推定部167が推定する操作の対象物を、使用者が視認する位置を求めてもよい。この場合、AR表示制御部164は、カメラ61の画角における操作対象物の位置に基づき、画像表示部20の表示領域を基準とした場合の操作対象物の位置を求める。AR表示制御部164は、操作対象物の位置に合わせて、文字や画像を表示する。具体的には、AR表示制御部164は、操作対象物を避けるように、或いは、操作対象物に重なるように、文字や画像を表示する。このようにして表示される画像は、いわゆるAR効果を奏する画像(以下、AR画像という)に相当する。
AR表示制御部164は、カメラ61の撮像画像から対象推定部167が検出し、操作の対象であると推定した操作対象物に対して、AR画像を表示してもよいし、AR表示制御部164が撮像画像からAR表示の対象となる対象物を検出してもよい。
本実施形態では、AR表示制御部164は、対象推定部167が推定した操作対象物を、AR表示の対象とする。
音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32及び左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。
この構成により、HMD100は、画像表示部20を装着する使用者の視野の少なくとも一部を含む範囲をカメラ61によって撮像し、撮像画像に基づき、使用者の操作を検出し、操作された操作対象物を推定する。そして、HMD100は、使用者が操作した操作対象物に対応するAR表示を行う。例えば、使用者が、物体に対して接触する操作や、手を近づける操作等を行うと、この物体に対応して、例えばGUIをAR表示できる。この場合、ユーザーはGUIを利用して操作を行い、例えば、物体に貼付されている画像コードを読み取らせることができる。
図3(A)及び(B)にはカメラ61が画像表示部20の幅方向において略中央に配置された構成を例示したが、カメラ61の位置は、これに限定されない。
図5及び図6は、カメラ61の位置が異なる画像表示部20の構成例を示し、図5はカメラ61を右側端部に配置した画像表示部20Bの要部構成図であり、図6はカメラ61を左側端部に配置した画像表示部20Cの要部構成図である。図5(A)は画像表示部20Bを使用者の頭部側から見た要部斜視図、(B)はカメラ61の画角の説明図である。また、図6(A)は画像表示部20Cを使用者の頭部側から見た要部斜視図、(B)はカメラ61の画角の説明図である。これら図5及び図6では接続ケーブル40の図示を省略する。
図5(A)及び図6(A)は図3(A)に相当する方向を示す。
図5(A)に示す画像表示部20Bは、画像表示部20Bの前面において右保持部21側の端部にカメラ61を有する。
画像表示部20Bにおいて、図5(B)に示すように、カメラ61の光軸CX1は画像表示部20Bの正面方向に対し左側に傾く方向を向く。従って、カメラ61の画角C1は、カメラ61の正面から左側に傾いており、右眼RE及び左眼LEの正面を含む範囲となる。
また、図6(A)に示す画像表示部20Cは、画像表示部20Cの前面において左保持部23側の端部にカメラ61を有する。
画像表示部20Cにおいて、図6(B)に示すように、カメラ61の光軸CX2は画像表示部20Cの正面方向に対し右側に傾く方向を向く。従って、カメラ61の画角C2は、カメラ61の正面から左側に傾いており、右眼RE及び左眼LEの正面を含む範囲となる。
図5及び図6に示すように、画像表示部20におけるカメラ61の位置、及び、カメラ61の画角の方向や広さは任意に変更可能である。
また、図5(A)、図6(A)に示すようにカメラ61を配置した場合の画角C1、C2は、図3を参照して説明した画角Cと同様、使用者の視野よりも広い範囲を含むことが好ましい。具体的には、画角C1、C2が、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角C1、C2が、使用者の実視野よりも広いことが、より好ましい。さらに好ましくは、画角C1、C2が、使用者の安定注視野よりも広い。
図7は、HMD100の動作を示すフローチャートである。
図7の例では、HMD100の制御部140は、カメラ61の画角C内に存在する物体のうち、使用者が手で触る操作や手を近づける操作を行った物体を推定し、この物体に記録されている画像コードを認識する。
図8は、図7に示す動作においてHMD100が表示する表示例を示す図である。
制御部140は、使用者による制御装置10に対する操作等をトリガーとして、認識動作を開始する(ステップS11)。撮像制御部161がカメラ61を制御して撮像を実行させ、撮像画像データを取得する(ステップS12)。
図8(A)は、ステップS11で認識動作を開始した場合のHMD100の表示例を示す。画像表示部20を装着する使用者の視野Vでは、制御部140の制御により所定範囲に枠形状のガイドG1が表示される。ガイドG1は、認識処理の対象となる範囲を使用者に示す直線であり、例えば、カメラ61の撮像範囲に対応する。図8(A)の例では、ガイドG1の内側に、対象物OB1、OB2、OB3が含まれる。対象物OB1は机上のキーボードであり、対象物OB2は飲料のボトルであり、対象物OB3は操作を行う使用者の右手である。
対象推定部167は、撮像画像に写っている対象物を検出する対象物検出処理を実行する(ステップS13)。対象推定部167は、例えば、撮像画像から輪郭を検出することにより、撮像画像に含まれる物体の画像を検出する。検出される物体は、操作の対象である可能性がある「対象物」とする。
対象推定部167は、対象物として検出する物体の画像または物体の画像の特徴量に基づき、撮像画像から物体の画像を検出してもよい。この場合、対象推定部167が使用する画像または画像の特徴量は、例えば、設定データ121に含まれてもよい。
また、対象推定部167が撮像画像から検出する対象物の数に制限はない。例えば、対象推定部167は、ステップS13において、図8(A)の対象物OB1、OB2、OB3を検出する。
操作検出部165は、ステップS12で撮像された撮像画像に基づき、使用者の操作を検出する操作検出処理を実行する(ステップS14)。操作検出処理で、操作検出部165は、操作検出処理の詳細は図10を参照して後述する。操作検出処理で、操作検出部165は、撮像画像において使用者の操作に関与する対象物OBを特定する。
続いて、対象推定部167は、ステップS13で検出した対象物のうち、ステップS14で操作検出部165が検出した操作の対象である操作対象物を推定する推定処理を実行する(ステップS15)。推定処理の詳細は図13を参照して後述する。
図8(B)には、使用者が手で飲料のボトルを掴んだ状態を示す。図8(A)、(B)の例ではカメラ61の画角内に位置する対象物OB1,OB2,OB3があり、これらが対象推定部167により検出される。操作検出部165が撮像画像から検出する対象物の画像は、オブジェクトの画像に相当し、これら対象物はオブジェクトに相当する。
操作検出部165は、操作検出処理によって、カメラ61の画角内に使用者の手が存在し、この手が操作を意味すると判定する。そして、この手(対象物OB3)を、使用者の操作に関与する対象物として検出する。
図8(B)の例では対象物OB3が対象物OB2に接触しているので、対象推定部167は、対象物OB2を操作対象物と推定する。操作対象物は対象オブジェクトに相当する。
AR表示制御部164は、対象推定部167が推定した推定処理の結果をもとにGUIを表示する(ステップS16)。このGUIは、例えば、使用者に対し、対象推定部167が推定した推定処理の結果が正しいか否かの入力を促すメッセージを含んでもよい。或いは、推定処理の結果を表示するメッセージや画像を含んでもよい。また、推定処理に基づき認識処理を行うか否かの入力を求めるメッセージを含んでもよい。本実施形態では、認識処理以外の処理の実行を指示する操作と、認識処理の実行を指示する操作とが可能なUIとする。認識処理以外の処理とは、例えば、カメラ61の撮像画像データを保存する処理等である。
制御部140は、AR表示制御部164がステップS16で表示したGUIに基づく操作を検出し、認識処理の実行を指示する操作であるか否かを判定する(ステップS17)。
使用者が認識処理の実行を指示する操作は、例えば、操作対象物を手に持って、GUIの所定の位置に、認識処理の対象である操作対象物の画像コード等を重ねる操作が挙げられる。この場合、使用者が操作対象物を手に持つことや画像コードを重ねる操作を、認識処理の実行を指示する操作(ステップS17;Yes)と判定してもよい。これに対し、使用者が操作対象物を手に持って所定の時間以上、上記の条件を満たさない場合、認識処理の実行を指示する操作でない(ステップS17;No)と判定してもよい。また、認識処理の実行を指示する操作は、制御装置10の操作部111に対する操作や、音声処理部187が検出する音声による入力であってもよい。
制御部140が、認識処理の実行を指示する操作があったと判定した場合(ステップS17;Yes)、AR表示制御部164が認識用のGUIを表示する(ステップS18)。ここで、撮像制御部161がカメラ61を制御して撮像を実行させ、撮像画像データを取得する(ステップS19)。制御部140は、カメラ61の撮像画像データから認識処理を実行する対象部分の画像を抽出し(ステップS20)、画像コードを認識する(ステップS21)。
続いて、制御部140は認識結果に基づく処理を実行し(ステップS22)、本処理を終了するか否かを判定する(ステップS23)。本処理を継続する場合(ステップS23;No)、制御部140はステップS11に戻る。また、制御装置10に対する動作終了を指示する入力操作等があった場合(ステップS23;Yes)、制御部140は本処理を終了する。
また、AR表示制御部164がステップS16で表示したGUIに基づき行われた操作が、認識処理の実行を指示する操作でない場合(ステップS17;No)、制御部140は、操作に対応する処理を実行して(ステップS24)、ステップS23に移行する。
ステップS24では、例えば、ステップS16で表示されるGUIを用いるメニュー操作が行われる。この場合、制御部140は、使用者のGUIに対する操作によりメニュー表示が指示されると、この指示に応じてメニュー画面に設定項目を一覧表示する。ここで、使用者の手や操作部111に対する操作に応じて、メニュー画面において設定項目を選択し、選択した設定項目について設定が行われる。また、例えば、ステップS16で表示されるGUIを用いて、カメラ61の撮像画像データの保存を指示する操作が行われ、この操作に応じて制御部140が撮像画像データを記憶部120に記憶する。
図8(C)は、ステップS18で表示される認識処理用のGUIの例を示す。図8(C)の認識位置ガイドG2は、AR表示制御部164が表示する直線または直線を含む。認識位置ガイドG2は、画像コードの認識位置を示し、画像表示部20を通して使用者が視認する実空間において、認識位置ガイドG2と画像コードとが重なると、制御部140が画像コードを読み取る。画像コードは、バーコードやQR(登録商標)コード等の二次元コード等、情報を符号化した画像であれば制限はない。
例えば、制御部140は、ステップS20で、認識位置ガイドG2に重なる位置において画像コードに特有のパターンを検出することにより、認識対象部分を抽出する。認識位置ガイドG2は、視野Vで認識されれば良いので、例えばガイドG1内に配置される直線であってもよい。図8(C)では、ステップS15で操作対象物として推定された対象物OB2の形状に合わせた湾曲部を有する線にする例を示す。図8(C)の例は、立体物の表面に直線状の光を照射した場合の見え方を模しており、立体物の形状に対応した湾曲部があるため、使用者が、認識位置ガイドG2により認識位置を容易に把握できるという利点がある。
図8(D)は、認識位置ガイドG2の別の表示例を示す。図8(D)の例では対象物OB2を使用者が掴んで持ち上げている。この状態で、制御部140が、対象物OB2の表面に印刷された画像コードCO1を読み取ると、制御部140は、例えば飲料のJANコードを得る。制御部140は、JANコードに基づき、対象物OB2がお茶飲料であるとの情報を取得し、使用者が対象物OB2を視認する位置に合わせて、お茶飲料であることを示す認識結果情報I1を表示する。図8(D)に示すように、使用者が対象物OB2を掴んで持ち上げ、GUIを構成する認識位置ガイドG2の位置に画像コードCO1を重ねる動作は、ステップS17(図7)で、認識実行を指示する操作に該当する。
図9は、HMD100による別の表示例を示す図である。
図9(A)の例では、ガイドG1を表示する際に、制御部140が、カメラ61の撮像範囲の中心を示すガイドG3を合わせて表示する。
HMD100では、カメラ61の画角(撮像範囲)と、画像表示部20の表示領域であるハーフミラー261A、262Aとの相対的な位置関係が、予めキャリブレーションにより対応付けられる。従って、制御部140は、カメラ61の画角に対応する位置にガイドG1、G3等の画像を表示できる。
図9(B)の例では、制御部140の制御により、ガイドG1、G3が表示され、更に、副表示部SVが表示される。副表示部SVは、カメラ61の撮像画像を、ほぼリアルタイムで表示する領域である。図9(B)の例では、使用者が、操作対象物がカメラ61の画角に収まっているか否かを容易に確認できる。副表示部SVを表示する処理は、例えば、撮像制御部161及びAR表示制御部164が実行する。
図8(A)〜(D)に示すガイドG2、図9(A)、(B)に示すガイドG3は、HMD100が表示するGUIの一例であり、本発明が適用されるGUIがこれらの態様に限定されるものではない。例えば、操作対象物の視認性が高まるような、或いは操作対象物に注目させるような態様のGUIを表示できる。具体的には、対象推定部167により推定された操作対象物である物体に対応する位置、或いは物体に対応する領域に、色付けをする、枠で囲う、認識した旨を表す文字を追加する等の態様とすることができる。また、GUIは単一の画像で構成されても、複数の画像で構成されてもよく、テキストを含んでもよく、音声等と組み合わされてもよく、GUIに対する操作をHMD100が受け付け可能な構成であってもよい。
図10は、図7のステップS14に示した操作検出処理を詳細に示すフローチャートである。図11は、操作検出処理の様子を示す説明図であり、カメラ61の撮像画像と、操作検出部165が実行する処理内容とを示す。
HMD100は、カメラ61の撮像画像から操作を検出するためのデータである操作検出用データ125を、予め記憶する。操作検出処理で、操作検出部165は、記憶部120から操作検出用データ125を取得する(ステップS31)。
操作検出部165は、ステップS31で取得した検出条件に従って、ステップS13で対象推定部167が撮像画像から検出した対象物の中から、人間の手及び/又は手指の画像を抽出する(ステップS32)。なお、本実施形態では、頭部(顔面)に画像表示部20を装着する使用者が手で行う操作を検出し、操作に関与する人体の一部が手に限られる場合を想定する。仮に、足による操作を検出することも可能であり、この場合、ステップS32では、足の画像を抽出する処理を行えばよい。検出する対象となる身体の部位等を指定する情報は、例えば、操作検出用データ125に含めてもよい。
操作検出部165は、ステップS32で抽出した画像の属性を判定する(ステップS33)。画像の属性を以下に例示する。
(1)カメラ61から抽出した画像の手までの距離。
(2)抽出した画像が、カメラ61からの距離が異なる複数の画像を含むか否か。
(3)抽出した画像の手の左右の種別と、画像を抽出した位置との対応関係。
(4)抽出した画像と、撮像画像の縁との対応関係。
画像の属性について詳細に説明する。
(1)及び(2)の例では、操作検出部165は、抽出した画像のサイズに基づいて、カメラ61から手までの距離を算出する。距離を算出するための情報は、例えば操作検出用データ125に含まれる。カメラ61から手までの距離を算出する機能に関し、操作検出部165は距離検出部に相当する。
操作検出部165は、撮像画像から検出した対象物OBについて、画像表示部20からの距離を算出する機能を有する。ここで操作検出部165が算出する距離は、使用者の身体である手と、使用者の身体以外のオブジェクトである対象物との間の距離である。
操作検出部165は、撮像画像における対象物OBの画像のサイズと、カメラ61の撮像条件とに基づいて、カメラ61の撮像面からの距離を求める。この処理で、操作検出部165は、距離検出用データ127を参照する。距離検出用データ127は、例えば、撮像画像における対象物OBの画像のサイズと、カメラ61の撮像条件と、カメラ61の距離とを対応付けるデータ、或いは演算式等を含む構成とすることができる。カメラ61の撮像条件は、例えばズーム倍率である。
(1)、(2)の属性を判定する場合、操作検出部165は、ステップS32で抽出した手の画像に対応する手からカメラ61までの距離が、予め設定された基準値以内であるか否かを判定する。基準値は、例えば操作検出用データ125に含まれる。
図11(A)は、撮像画像Pにおいて対象推定部167が対象物OB11、OB12を検出し、このうち手である対象物OB11の画像を操作検出部165が抽出した例を示す。対象物OB11は、使用者の右手の画像である。操作検出部165は、対象物OB11のうち中心(重心でもよい)に相当する位置OB11Aからカメラ61までの距離を求める。OB11AはOB11(手)の中心あるいは重心であり、腕の位置に相当する。また、操作検出部165は、対象物OB11の画像において指先を検出し、指先に相当する位置OB11Bからカメラ61までの距離を求めてもよい。
(1)の属性を判定する場合、操作検出部165は、例えば中心(重心でもよい)に相当する位置OB11Aからカメラ61までの距離が、基準値以内であるか、基準値を超えるかを判定する。また、抽出した画像において撮像画像Pの下縁(底辺)から最も遠い位置からカメラ61までの距離を、基準値と比較してもよい。
カメラ61から手までの距離が基準値を超える場合、使用者の手でない可能性が高い。従って、カメラ61から手までの距離が基準値以内か否かに基づき、抽出した手の画像が、HMD100を装着する使用者の手の画像か、他者の手の画像かを判定できる。つまり、操作検出部165が抽出した手の画像が、使用者による操作に関係する画像か否かを判定できる。
なお、操作検出部165は、撮像制御部161が出力する撮像画像における底辺を検出し、或いは特定する処理を行ってもよい。すなわち、撮像画像Pにおける底辺が撮像画像Pの下縁とは異なる場合に、抽出した画像において撮像画像Pの底辺から最も遠い位置からカメラ61までの距離を、基準値と比較できる。例えば、操作検出部165が取得する撮像画像の向きが反時計回りに90度回転した状態であっても、実際にカメラ61が撮像した際の底辺側を基準として処理できる。
(2)の属性を判定する場合、操作検出部165は、抽出した画像における複数の位置について、カメラ61からの距離を求める。例えば、図11(A)において、抽出した画像に対応する対象物の中心あるいは重心の位置OB11Aと、抽出した画像の上端に位置する位置OB11Bとについてカメラ61からの距離を求める。操作検出部165は、求めた距離の差が、予め設定された閾値以内(所定の距離以下)であるか、閾値を超えるかを判定する。HMD100を装着する使用者の手がカメラ61で撮像された場合、使用者の手は、カメラ61から離れた一つの場所にのみ位置することは考えにくく、殆どの場合、カメラ61の近くに腕(OB11A)が位置し、指先(OB11B)はカメラ61から離れた位置にある。従って、抽出した画像が、カメラ61からの距離が異なる複数の点を含む場合、使用者の手の画像である可能性が高いといえる。このため、操作検出部165が抽出した手の画像に含まれる複数の位置におけるカメラ61からの距離が、閾値を超える差を有するか否かに基づき、使用者による操作に関係する画像か否かを判定できる。
(3)の属性について、操作検出部165は、ステップS32で抽出した手の画像が右手の画像か左手の画像かを判定する。操作検出部165は、抽出した手の画像の形状を解析する。或いは、人間の右手及び左手の画像のパターンを示す情報が操作検出用データ125に含まれる場合、操作検出部165はパターンマッチングにより、右手の画像か左手の画像かを判定する。
ここで、操作検出部165がカメラ61の撮像画像から使用者の身体の画像を検出する処理、及び、後述するように対象推定部167が撮像画像から対象物を検出する処理では、予め記憶部120が記憶する画像のデータ、または画像の特徴量のデータを使用する。
操作検出部165は、使用者の手指、手、腕、足等の画像またはこれらの画像の特徴量を用いて撮像画像を解析し、撮像画像から使用者の身体の画像を検出する。これらの画像または画像の特徴量を含むデータは、操作検出用データ125として記憶部120が記憶する。操作検出用データ125は、人間の手指、手、腕、足等の画像またはこれらの画像の特徴量を含み、汎用的なデータであってもよいし、特定の人物の身体的特徴に適合するデータであってもよい。
使用者自身の手が撮像画像Pに含まれる場合、右手は撮像画像Pの右側に写り、左手は撮像画像Pの左側に写る。従って、ステップS32で抽出した手の画像の左右を判定し、手の画像の位置が、例えば撮像画像Pの幅方向の中心よりも右側か左側かを判定し、これらの判定結果が一致しない場合は、使用者自身の手の画像でないと判定できる。
(4)の属性について、操作検出部165は、ステップS32で抽出した手の画像の境界を抽出し、この境界が撮像画像Pの縁と重なるか否かを判定する。HMD100を装着する使用者の手がカメラ61で撮像された場合、使用者の手は、カメラ61から離れた一つの場所にのみ位置することは考えにくく、カメラ61の撮像範囲の外から撮像範囲内に跨がる。従って、抽出した画像は撮像画像Pの縁にまで達する場合、すなわち縁に重なる場合、使用者の手の画像である可能性が高いといえる。このため、操作検出部165が抽出した手の画像が撮像画像Pの縁に重なるか否かに基づき、使用者による操作に関係する画像か否かを判定できる。ここで、判定を行う対象は、撮像画像Pの上下左右の縁のうち、左右及び下の縁に限定してもよい。使用者の手が撮像画像Pの上縁(上辺)のみに重なることは極めて希であるためである。
ステップS32で抽出した手の画像が使用者の手であるか否かの判定を、(1)〜(4)の属性のうち、どの属性を基準として行うかは、操作検出用データ125により指定される。例えば(1)〜(4)の全ての属性について判定をしてもよいし、一部の属性のみを判定に用いてもよい。
操作検出部165は、ステップS33の判定の結果、使用者による操作に関係する画像の条件に該当する手の画像があるか否かを判定する(ステップS34)。該当する手の画像がない場合(ステップS34;No)、操作に関与する画像がないため、操作検出部165は本処理を終了する。
また、使用者による操作に関係する画像の条件に該当する手の画像がある場合(ステップS34;Yes)、操作検出部165は、該当する手の画像が複数であるか否かを判定する(ステップS35)。
該当する手の画像が複数ある場合(ステップS35;Yes)、操作検出部165は、撮像画像Pにおいて、該当すると判定された画像が含まれる領域を特定し、領域ごとに設定された優先度に基づき、操作に関与する画像を特定する(ステップS36)。
例えば、図11(B)に示すように、撮像画像Pに手の画像である複数の対象物OB21、OB22が含まれる場合、いずれかは使用者の手の画像であり、いずれかは他者の手の画像である可能性がある。また、対象物OB21、OB22の両方とも使用者の手の画像であったとしても、両方の手が、使用者による操作に関与する手とは限らない。
操作検出部165は、撮像画像Pに含まれる手の画像のうち、操作に関与する手の画像を少数にしぼりこみ、好ましくは一つに特定する。
図12は、撮像画像Pに設定される優先度の例を示す。
図12に示す画像領域PAは、撮像画像Pの全体に相当する。画像領域PAには、領域A11〜A16、A21〜A26が設定される。それぞれの領域は、画像領域PAにおける位置を基準として設定される。
領域A11〜A16は、画像領域PAの幅方向の中央HCに対し左側に設定され、領域A21〜A26は、幅方向の中央HCに対し右側に設定される。一部の領域は幅方向の中央HCに跨がる。
領域A11,A21は画像領域PAの下縁に重なる。領域A12は画像領域PAの左下隅を含み、領域A22は画像領域PAの右下隅を含む。領域A15は画像領域PAの左上隅を含み、領域A25は画像領域PAの右上隅を含む。領域A13は画像領域PAの左縁を含み、上下方向の中央VCよりも概ね下方を含み、領域A14は画像領域PAの左縁を含み、上下方向の中央VCよりも概ね上方を含む。領域A23は画像領域PAの右縁を含み、上下方向の中央VCよりも概ね下方を含み、領域A24は画像領域PAの右縁を含み、上下方向の中央VCよりも概ね上方を含む。領域A16,A26は画像領域PAの上縁に重なる。
各領域の重心の位置に基づいて各領域の位置を比較すると、画像領域PAの左側においては下から、領域A11、A12、A13、A14、A15、A16の順に並ぶ。また、画像領域PAの右側においては下から、領域A21、A22、A23、A24、A25、A26の順に並ぶ。
操作検出用データ125は、使用者の操作に関与する画像として特定する優先度を、画像領域PAの左側においては領域A11>A12>A13>A14>A15>A16の順に指定する。また、画像領域PAの右側においては領域A21>A22>A23>A24>A25>A26の順に優先度を指定する。
また、左右方向を考慮して、領域A21>A11>A22>A12>A23>A13>A24>A14>A25>A15>A26>A16の順に指定してもよい。これは、使用者が右利きの場合に有用である。使用者が左利きの場合、領域A11>A21>A12>A22>A13>A23>A14>A24>A15>A25>A16>A26の順に指定してもよい。HMD100において、使用者が右利きか左利きかを事前に設定し、或いは自動的に設定する場合、操作検出部165は、この設定に従って優先度を切り替えてもよい。
操作検出部165は、ステップS33で属性が条件に該当すると判定された画像について、その画像に対応する領域を特定し、各画像の領域の優先度を比較する。抽出された画像が複数の領域に跨がる場合、例えば、画像の重心または中心が位置する領域を、対応する領域とすればよい。また、画像に重なる領域のうち最も優先度が高い領域を、対応する領域としてもよい。
これにより、操作検出部165は、撮像画像Pに複数の手の画像が含まれる場合であっても、使用者の操作に係る手の画像を適切に特定できる。
また、条件に該当する手の画像が一つの場合(ステップS35;No)、操作検出部165は、該当する手の画像を、操作に関与する手の画像として特定する(ステップS37)。
図10〜図12の例では、使用者が、使用者自身の身体(手)を用いて行う操作を検出する例を示したが、操作検出部165は、使用者が手に持つ物体である操作体を用いる操作、或いは、使用者の身体または衣服等に装着される操作体を用いる操作を検出してもよい。ここで、操作体は、例えば、ドライバー等の工具や指示棒等が挙げられる。
使用者が手に持つ操作体を検出する場合、この操作体は、操作検出部165が撮像画像から、使用者の手以外の物体として検出される。操作検出部165は、使用者の身体の画像を、撮像画像から検出し、検出した使用者の身体に対して所定の位置関係にある物体を操作体として検出する。この場合、操作検出部165は、検出した操作体を使用者の身体の一部と同様に見なして、操作体による操作を検出できる。使用者の身体と所定の位置関係にある物体は、条件に基づき特定できる。例えば、(条件1)使用者の身体(例えば、手)と操作体との距離が所定の距離以内である、(条件2)撮像画像中に使用者の身体(例えば、手)の画像と連続する状態で操作体の画像が含まれる、との2つの条件が予め設定される。この場合、操作検出部165は、(条件1)及び(条件2)の両方を満たす操作体を検出、或いは推定できる。(条件1)に関して撮像画像に写る物体と使用者の身体との距離を求める方法は、例えば、操作検出部165が画像の属性(1)を判定する処理に関して説明した手法を適用できる。ここで、撮像画像における使用者の身体の画像と操作体の画像とが連続する状態には、使用者の衣服等の画像と操作体の画像とが連続する場合を含んでもよい。
図10に示した動作において、ステップS32で操作検出部165が手の画像を抽出する処理を、ステップS13(図7)で実行してもよい。また、ステップS31〜S37の処理を、ステップS13に先だって行ってもよい。
ステップS13において、対象推定部167は、撮像画像から輪郭を抽出可能な全ての物体を、対象物として検出してもよいが、撮像画像から対象物として抽出する物体を限定してもよい。この場合、撮像画像に多数の物体の画像が含まれる場合に、対象推定部167の処理負荷を軽減できるという利点がある。この場合、例えば、操作検出部165が撮像画像から使用者の手の画像を検出し、操作検出部165が検出した手の画像に近い物体を、対象推定部167が対象物として検出してもよい。
或いは、ステップS13において、対象推定部167は、使用者の現在の音声に含まれるキーワードや過去に対象物として検出した物体の履歴等に基づいて、処理の対象とする物体を絞り、対象物として撮像画像から検出してもよい。
図13は、図7のステップS15に示した推定処理を詳細に示すフローチャートである。図14は、推定処理の様子を示す説明図であり、カメラ61の撮像画像Pと、撮像画像Pで検出された対象物OBとを示す。
図13に示す推定処理に先立ち、対象推定部167は、操作検出処理(図10)で操作検出部165が特定した画像を取得する。この画像は、操作検出部165が、使用者による操作に関与する手の画像として特定した画像である。
対象推定部167は、ステップS13(図7)で検出した対象物OBと、操作検出部165が特定した手との距離を、撮像画像に基づき算出する(ステップS41)。ステップS41で、対象推定部167は距離検出用データ127を参照し、カメラ61の撮像条件を加味して、距離を算出する。また、撮像画像から、手の画像の他に複数の対象物OBの画像が検出された場合、対象推定部167は、それぞれの対象物OBと手との間の距離を算出する。
図14(A)の例では、撮像画像Pから対象物OB31、OB32、OB33、OB34の画像が検出される。対象物OB34の画像は、操作検出部165により操作に関与する手の画像として特定された画像である。例えば、対象物OB34の画像の形状、対象物OB34が画像の縁を含む、対象物OB34が画像の右下に位置する、等の属性により、対象物OB34は使用者の手の画像として特定される。
対象推定部167は、ステップS41で、対象物OB31、OB32、OB33のそれぞれと、対象物OB34との間の距離を算出する。
対象推定部167は、ステップS41で算出した距離に基づき、操作に関与する手に最も近い対象物の画像を選択する(ステップS42)。
対象推定部167は、選択した対象物と操作に関与する手との間の距離が、予め設定された接触基準値より近いか否かを判定する(ステップS43)。接触基準値は、対象物が手に接触しているとみなすことが可能な距離の閾値となる値であり、例えば操作検出用データ125に含まれる。
ここで、対象推定部167が算出し、判定に用いる距離は、例えば、選択した対象物と操作に関与する手とが最も近い位置における距離とすることができる。図14(A)の例では、使用者の手である対象物OB34の画像において最も対象物OB32に近い第1の点と、対象物OBの画像において最も対象物OB34に近い第2の点とを特定し、第1の点と第2の点との間の距離を求めてもよい。また、例えば、対象推定部167は、選択した対象物の画像の中心または重心の位置と、操作に関与する手の画像の中心または重心の位置との間の距離を求め、この距離を判定してもよい。
図14(B)の例では、操作に関与する手である対象物OB34に最も近い対象物OB32と、手とが接触している。対象物OB32は手に最も近い対象物として選択される。
選択した対象物と操作に関与する手との間の距離すなわち相対位置の差が、予め設定された接触基準値より近い(所定距離以内)場合(ステップS43;Yes)、対象推定部167は、対象物に手が接触したと判定する(ステップS44)。対象推定部167は、手が接触したと判定した対象物を、操作対象の対象物として推定する(ステップS45)。
図14(B)の例では、対象物OB32が、操作対象の対象物として推定され、対象物OB32の表面に印刷された画像コードの読み取りなどが行われる。
また、選択した対象物と操作に関与する手との間の距離が接触基準値以上である場合(ステップS43;No)、対象推定部167は、対象物に手が接触していないと判定する(ステップS46)。対象推定部167は、ステップS42で選択した対象物を、操作対象の対象物として推定する(ステップS47)。
ステップS43で、対象物と手との間の距離が接触基準値より近いと判定された場合、及び、近くないと判定された場合のいずれも、対象推定部167は操作対象の対象物を推定する。操作対象の対象物に手が接触したか否かは、例えばステップS16(図7)で表示されるGUIの内容に反映される。この場合、AR表示制御部164は、操作対象の対象物に手が接触したか否かに応じて、異なるGUIを表示すればよい。
また、対象推定部167は、対象物と手との間の距離が接触基準値より近くないと判定した場合に(ステップS43;No)、操作対象の対象物がないと判定してもよい。
また、対象推定部167が、操作対象の対象物に手が接触したか否かを判定する方法は、対象物と手との間の距離を判定する方法に限定されない。
例えば、対象推定部167は、操作に関与する手の画像として特定された画像の近傍に位置する影の画像を撮像画像から検出し、この影の画像と手の画像との位置関係に基づき、接触の有無を判定しても良い。
図14(C)の例では、操作に関与する手として特定された対象物OB43の画像の近傍に、影が対象物OB44として検出される。対象物OB44の画像は、対象物OB41の画像に重なる位置で、対象物OB43の画像に接する。つまり、手の画像と、手の影の画像とが、対象物OB41の上で接しているので、手である対象物OB43が対象物OB41に接触していると判定できる。
また、使用者の腕の筋肉の筋電位を検出する筋電位センサーを搭載した身体装着型検出装置(図示略)を、使用者の腕に装着してもよい。この場合、身体装着型検出装置と画像表示部20または制御装置10とが、例えば近距離無線通信により接続して、身体装着型検出装置の検出状態を示す筋電位センサーの検出値を、制御部140が取得して判定できる構成としてもよい。この構成では、対象推定部167が、筋電位センサーの検出値に基づいて、使用者の手が操作対象の対象物を掴む、持ち上げる、押す等の操作を行ったことを検出できる。このため、使用者の手が操作対象の対象物に接触して動作を行ったことを検出できる。
以上説明したように、本発明を適用した実施形態に係るHMD100は、HMD100は、使用者の視野の少なくとも一部を含む範囲を撮像するカメラ61を備える。制御部140は、カメラ61により撮像された撮像画像に基づき使用者の操作を検出し、検出した操作に従って、撮像画像に含まれる画像から操作対象物である対象物の画像を推定する。
この情報処理装置としてのHMD100、及び、HMD100により実行される情報処理方法によれば、ため、使用者の視野を含む範囲を撮像した撮像画像に基づき使用者の操作を検出して、検出した操作に従って操作対象物である対象物の画像を推定できる。従って、撮像画像に対する処理を行うことで、操作対象物である対象物の画像を選択できるので、処理の負荷が軽い。また、この情報処理方法を実現するためのプログラムは、制御部140を構成するコンピューターが実行可能な形態で、記憶部120、或いは制御部140が内蔵する不揮発性記憶部等に記憶される。
また、制御部140は、撮像画像に含まれる使用者の身体の画像を検出することにより、使用者の操作を検出することができる。
また、撮像画像の一部を含む領域A11〜A26と、領域において使用者の身体の画像を検出する条件とが設定され、例えば操作検出用データ125に含まれて記憶される。制御部140は、撮像画像に含まれる画像について、当該画像を含む領域に設定された条件に従って、使用者の身体の画像か否かを判定し、使用者の身体を検出する。このため、撮像画像に基づき使用者の操作を検出する処理において、誤検出を減らすことができる。例えば、使用者でない者の身体の画像に基づき、操作が行われたと判定するような誤検出を防止できる。
撮像画像に設定される領域には、撮像画像における領域の位置に応じて、領域に含まれる画像を使用者の身体の画像と判定する優先度が設定される。制御部140は、画像を含む領域に設定された優先度に従って、画像が使用者の身体の画像か否かを判定する。操作検出用データ125に含まれる条件は、使用者が画像表示部20を装着する位置と、使用者の手腕との位置関係に基づき、使用者の身体が撮像される位置の蓋然性に対応して設定される。従って、撮像画像に基づいて使用者の操作を検出する場合の誤検出を減らし、検出精度を高めることができ、検出精度の向上が期待できる。
また、撮像画像に複数の領域が設定され、それぞれの領域には撮像画像における領域の位置に応じた優先度が設定される場合、より一層の検出精度の向上が期待できる。また、操作を検出する処理に影響する優先度の設定、及び管理が容易になるという利点がある。
また、図12に例示したように、撮像画像の底辺側に位置する領域には、当該領域よりも上辺側に位置する領域に比べて高い優先度が設定される構成とすることができる。この例では、使用者の操作に伴い使用者の身体が撮像されやすい、底辺側に位置する領域に対し、上辺側に位置する領域よりも高い優先度を設定する。これによって、使用者の操作を検出する場合の検出精度を高めることができる。ここで、撮像画像の底辺側とは、撮像時の上下方向に基づき底辺となる側を指すが、予め撮像画像に対して底辺側が定義されていてもよい。ここで、撮像制御部161が出力する撮像画像における底辺は、単に矩形の撮像画像の長辺のうち下方に位置する辺としてもよいが、底辺を特定する処理が行われてもよい。例えば、撮像画像の向きを示す付加データや撮像画像の底辺の位置を示す付加データが撮像画像に付加されている場合に、この付加データに従って、撮像画像の底辺を特定してもよい。
また、制御部140は、撮像画像の縁に重なる画像を使用者の身体の画像として検出してもよく、この場合、使用者の頭部に装着されるカメラ61で撮像した撮像画像に基づき、使用者の手腕等による操作を検出するという特性を利用して、操作に関与する使用者の身体の画像を、高い精度で検出できる。
さらに、制御部140は、撮像画像に含まれる人間の手の画像を検出し、手の画像が右手か左手か、及び、手の画像の撮像画像における位置に基づき、検出した手の画像を使用者の身体の画像と判定する構成であってもよい。この場合、使用者の頭部に装着されるカメラ61で撮像した撮像画像に基づき、使用者の手腕等による操作を検出するという特性を利用して、撮像画像に基づいて使用者の操作を検出する場合の誤検出を減らし、検出精度を高めることができる。
さらにまた、制御部140は、撮像画像において検出した人間の手の画像が撮像画像の縁を含む場合に、手の画像を使用者の身体の画像と判定する構成であってもよい。この場合、使用者の頭部に装着されるカメラ61で撮像した撮像画像に基づき、使用者の手腕等による操作を検出するという特性を利用して、操作に関与する使用者の身体の画像を高い精度で検出できる。
上記実施形態において、HMD100は、操作対象物を推定してから速やかに、操作対象物に対応するAR表示を行う構成として説明した。すなわち、ステップS14(図7)で使用者の操作を検出し、ステップS15で操作対象物を推定した後で、速やかにGUI等を表示する構成を説明した。本発明はこれに限定されず、例えば、使用者の操作を検出した後、または操作対象物を推定した後、所定時間が経過した後にAR表示を行ってもよい。
この機能は、例えば、AR表示制御部164が、対象推定部167がAR表示の対象となる操作対象物を推定した後、待機状態に移行することで実現できる。この場合、待機状態においても対象推定部167が使用者による操作の検出と操作対象物の推定を実行する。そして、予め設定された所定時間が経過する間、対象推定部167が推定する操作対象物が変化しない場合、例えば、いったん推定された操作対象物とは異なる操作対象物が推定されない場合に、AR表示制御部164がAR表示を開始してもよい。
また、例えば、上記機能を、対象推定部167が操作対象物を推定する処理の間に待機時間を設けることで実現してもよい。この場合、対象推定部167は、例えばステップS41(図13)で、操作検出処理(図10)で操作検出部165が特定した画像を取得する処理を所定時間継続し、所定時間内に取得する複数の画像の変化を検出する。ここで、対象推定部167は、取得した画像の変化が所定範囲内であった場合に、ステップS42に移行してもよい。
また、例えば、対象推定部167は、ステップS42で手に近い対象物を選択した後、ステップS41〜S42の処理を所定時間内に繰り返し実行して、選択する対象物が変化しない状態が継続した場合に、ステップS43に移行してもよい。
また、例えば、対象推定部167は、ステップS45またはステップS47で対象物を推定した後、ステップS41〜S45またはS47の処理を実行し、同じ対象物が複数回連続して推定された場合に、推定した対象物に関する情報をAR表示制御部164に出力してもよい。
このように、使用者が操作を行ってからAR表示を開始するまで時間的猶予を設けることにより、使用者が多くの物体に対し操作を行う場合であっても、AR表示を安定させることができる。例えば、使用者が物を探している最中に、探している対象物でない物体を手に持った場合、手に持った物体がAR表示の対象と推定されてAR表示が実行される可能性がある。このようにして数多くの物体を使用者が手に持った場合にはAR表示が次々と開始され、終了されることとなり、使用者が煩わしく感じる可能性があり、HMD100の処理負荷の増大を招く可能性もある。上記のように、使用者が操作を行ってからAR表示を開始するまで時間的猶予を設ける場合、使用者の操作が操作対象物以外の物体に及ぶ場合には、AR表示の頻繁な開始や変更を回避でき、安定した表示を行えるという利点がある。
なお、この発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
上記実施形態において、使用者が表示部を透過して外景を視認する構成は、右光学像表示部26及び左光学像表示部28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、カメラ61の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。また、AR表示、MR表示、或いはVR表示といった処理を行わず、外部から入力される映像データまたはアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。
また、例えば、画像表示部20、20B、20Cに代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
さらに、上記実施形態では、画像表示部20、20B、20Cと制御装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明したが、制御装置10と画像表示部20、20B、20Cとが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10が画像表示部20、20B、20Cと分離して構成され、制御装置10と画像表示部20、20B、20Cとの間で無線通信により各種信号を送受信する構成としてもよい。
また、例えば、画像表示部20、20B、20Cにおいて画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid Crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。
本発明でいう「表示部」は、画像光を出射する構成に相当し、HMD100が画像光を出射することを「表示する」と説明した。すなわち、上記各実施形態では、左右の画像光生成部により画像光を生成し、右光学像表示部26及び左光学像表示部28によって、使用者の右眼と左眼のそれぞれに向けて画像光を照射し、使用者の右眼と左眼のそれぞれに画像光を入射させる構成を例示する。「表示部」の構成はこれに限定されない。すなわち、画像光を照射するものであればよい。例えば本実施形態の構成では、ハーフミラー261A、262Aを有する「右導光部」及び「左導光部」によって、使用者の眼に向けて画像光を出射する。また、画像光を生成する構成として、右バックライト221及び左バックライト222と、右LCD241及び左LCD242とを備える。「表示部」はこれらの構成を必須としない。
例えば、画像表示部20、20B、20Cの右表示駆動部22及び左表示駆動部24のいずれか、又は両方に内蔵する機構によって生成される画像光を、画像表示部20の使用者側すなわち使用者の眼を向く側に設けられる反射機構により反射して、使用者の眼に出射してもよい。ここで、反射機構は、例えばMEMS(Micro Electro Mechanical Systems)ミラーを用いた走査光学系を採用することもできる。すなわち、画像光生成部が射出する光を走査するMEMSミラーを有する走査光学系を備え、この走査光学系で走査される光が使用者の眼に直接入射する構成としてもよい。また、走査光学系により走査される光によって虚像が形成される光学部材を、画像表示部20に設けてもよい。この光学部材はMEMSミラーが走査する走査光による虚像を形成する。この場合、MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が視認(認識)される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。
また、走査光学系はMEMSミラーを備えた構成に限定されない。画像光を生成する機構も、レーザー光を発するレーザー光源であってもよい。例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、走査される光を受ける虚像形成面に代えて、回折格子を用いて使用者の眼に画像光を導く構成であってもよい。つまり、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/又は反射させて導く機能のみを有するものであってもよい。
MEMS等を有する走査光学系を備えた構成では、画像表示部20、20B、20Cにおける走査光学系の取り付け角度を変更することで、使用者が画像を視認する位置、すなわち画像の表示位置を変更できる。従って、上記各実施形態で表示位置を変更する処理において、右LCD241、左LCD242における画像の表示位置を変更する動作に代えて、走査光学系の角度を変更する動作を行ってもよい。
また、画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。
また、上記各実施形態では使用者の眼前に位置する右光学像表示部26及び左光学像表示部28の一部に、ハーフミラー261A、262Aにより虚像が形成される構成を例示した。本発明はこれに限定されず、右光学像表示部26及び左光学像表示部28の全面または大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、本発明の光学素子は、ハーフミラー261A、262Aを有する右導光板261、左導光板262に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
また、本発明の表示装置は頭部装着型の表示装置に限定されず、フラットパネルディスプレイやプロジェクター等の各種の表示装置に適用できる。本発明の表示装置は、外光とともに画像光により画像を視認させるものであればよく、例えば、外光を透過させる光学部材により画像光による画像を視認させる構成が挙げられる。具体的には、上記のヘッドマウントディスプレイにおいて外光を透過する光学部材を備えた構成の他、使用者から離れた位置に固定的に、又は可動に設置された透光性の平面や曲面(ガラスや透明なプラスチック等)に画像光を投射する表示装置にも適用可能である。一例としては、車両の窓ガラスに画像光を投射し、乗車している使用者や車両の外にいる使用者に、画像光による画像とともに、車両内外の景色を視認させる表示装置の構成が挙げられる。また、例えば、建物の窓ガラスなど固定的に設置された透明また半透明、或いは有色透明な表示面に画像光を投射し、表示面の周囲にいる使用者に、画像光による画像とともに、表示面を透かして景色を視認させる表示装置の構成が挙げられる。
また、図4等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の他の記憶装置(図示略)に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117、又はインターフェイス114を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部111のみが単独の使用者インターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、制御部140が制御装置10と画像表示部20との両方に形成されていてもよいし、制御装置10に形成された制御部140と画像表示部20に形成されたCPUとが行う機能が別々に分けられている構成としてもよい。
10…制御装置、20、20B、20C…画像表示部(表示部)、22…右表示駆動部、24…左表示駆動部、26…右光学像表示部、28…左光学像表示部、61…カメラ(撮像部)、100…HMD(表示装置、情報処理装置)、114…インターフェイス、117…通信部、120…記憶部、122…コンテンツデータ、123…表示設定データ、140…制御部、150…オペレーティングシステム、160…画像処理部、161…撮像制御部、164…AR表示制御部(表示制御部)、165…操作検出部(距離検出部)、167…対象推定部、170…通信制御部、187…音声処理部、190…表示制御部、201…右バックライト制御部、202…左バックライト制御部、211…右LCD制御部、212…左LCD制御部、221…右バックライト、222…左バックライト、241…右LCD、242…左LCD、251…右投写光学系、252…左投写光学系、261…右導光板、262…左導光板、OB…対象物。

Claims (19)

  1. 使用者の視野の少なくとも一部を含む範囲を撮像する撮像部と、
    前記撮像部により撮像された撮像画像に基づき前記使用者の操作を検出し、検出した操作に従って、前記撮像画像に含まれるオブジェクトから対象オブジェクトを推定する制御部と、
    を備えることを特徴とする情報処理装置。
  2. 前記制御部は、前記撮像画像に含まれる前記使用者の身体の画像を検出することにより、前記使用者の操作を検出すること、
    を特徴とする請求項1記載の情報処理装置。
  3. 前記撮像画像の一部を含む領域と、前記領域において前記使用者の身体の画像を検出する条件とが設定され、
    前記制御部は、前記撮像画像に含まれるオブジェクトについて、当該オブジェクトを含む前記領域に設定された条件に従って、前記使用者の身体の画像か否かを判定し、前記使用者の身体を検出すること、
    を特徴とする請求項2記載の情報処理装置。
  4. 前記領域には、前記撮像画像における前記領域の位置に応じて、前記領域に含まれる前記オブジェクトを前記使用者の身体の画像と判定する優先度が設定され、
    前記制御部は、前記オブジェクトを含む前記領域に設定された優先度に従って、前記オブジェクトが前記使用者の身体の画像か否かを判定すること、
    を特徴とする請求項3記載の情報処理装置。
  5. 複数の前記領域が設定され、それぞれの前記領域には前記撮像画像における前記領域の位置に応じた優先度が設定されること、
    を特徴とする請求項4記載の情報処理装置。
  6. 前記撮像画像の底辺側に位置する前記領域には、当該領域よりも上辺側に位置する前記領域に比べて高い優先度が設定されること、
    を特徴とする請求項4または5記載の情報処理装置。
  7. 前記制御部は、前記撮像画像の縁に重なる前記オブジェクトを前記使用者の身体の画像として検出すること、
    を特徴とする請求項2から6のいずれかに記載の情報処理装置。
  8. 前記制御部は、前記撮像画像に含まれる人間の手の画像を検出し、前記手の画像が右手か左手か、及び、前記手の画像の前記撮像画像における位置に基づき、検出した前記手の画像を前記使用者の身体の画像と判定すること、
    を特徴とする請求項2から7のいずれかに記載の情報処理装置。
  9. 前記制御部は、前記撮像画像において検出した前記人間の手の画像が前記撮像画像の縁を含む場合に、前記手の画像を前記使用者の身体の画像と判定すること、
    を特徴とする請求項8記載の情報処理装置。
  10. 対象物までの距離を検出する距離検出部を備え、
    前記制御部は、前記撮像画像に含まれる前記オブジェクトのうち、前記距離検出部により検出される距離が所定の距離以下の前記オブジェクトを前記使用者の身体の画像として検出すること、
    を特徴とする請求項2から9のいずれかに記載の情報処理装置。
  11. 前記制御部は、前記撮像画像に含まれる人間の手の画像を検出し、前記手の画像に対応する前記対象物について前記距離検出部により検出された距離が、予め設定された複数の距離を含む場合に、前記手の画像を前記使用者の身体の画像と判定すること、
    を特徴とする請求項2から7のいずれかに記載の情報処理装置。
  12. 前記制御部は、前記撮像画像に含まれる前記オブジェクトであって、前記使用者の身体との相対位置の差が所定距離以内の前記オブジェクトを、対象オブジェクトとして推定すること、
    を特徴とする請求項1から11のいずれかに記載の情報処理装置。
  13. 前記制御部は、前記撮像画像から前記使用者の身体の影の画像を検出し、
    前記撮像画像に含まれる前記オブジェクトであって、前記身体の影の画像との相対位置の差が所定距離以内の前記オブジェクトを、対象オブジェクトとして推定すること、
    を特徴とする請求項12記載の情報処理装置。
  14. 前記使用者の身体に装着される身体装着型検出装置の検出状態または検出結果を取得する取得部を備え、
    前記制御部は、前記取得部により取得される検出結果に基づいて、前記対象オブジェクトを推定すること、
    を特徴とする請求項1から13のいずれかに記載の情報処理装置。
  15. 使用者の頭部に装着される表示部と、
    前記使用者の視野の少なくとも一部を含む範囲を撮像する撮像部と、
    前記撮像部により撮像された撮像画像に基づき前記使用者の操作を検出し、検出した操作に従って、前記撮像画像に含まれるオブジェクトから対象オブジェクトを推定する制御部と、
    を備えることを特徴とする表示装置。
  16. 前記制御部は、前記撮像画像に含まれる前記オブジェクトと、前記撮像画像に含まれる前記使用者の身体の画像とを検出し、前記使用者の身体以外の前記オブジェクトの位置及び形状に合わせてGUI画像を前記表示部により表示させること、
    を特徴とする請求項15記載の表示装置。
  17. 対象物までの距離を検出する距離検出部を備え、
    前記制御部は、前記使用者の身体以外の前記オブジェクトに対応する前記対象物までの距離に基づき、前記GUI画像を前記表示部により表示させること、
    を特徴とする請求項16記載の表示装置。
  18. 使用者の視野の少なくとも一部を含む範囲を撮像し、
    撮像画像に基づき前記使用者の操作を検出し、検出した操作に従って、前記撮像画像に含まれる複数のオブジェクトから、いずれかの前記オブジェクトを対象オブジェクトとして推定すること、
    を特徴とする情報処理方法。
  19. 情報処理装置を制御するコンピューターが実行可能なプログラムであって、
    前記コンピューターにより、
    使用者の視野の少なくとも一部を含む範囲を撮像した撮像画像に基づき、前記使用者の操作を検出し、検出した操作に従って、前記撮像画像に含まれる複数のオブジェクトから、いずれかの前記オブジェクトを対象オブジェクトとして推定する処理を実行するためのプログラム。
JP2015236321A 2015-12-03 2015-12-03 情報処理装置、表示装置、情報処理方法、及び、プログラム Active JP6786792B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015236321A JP6786792B2 (ja) 2015-12-03 2015-12-03 情報処理装置、表示装置、情報処理方法、及び、プログラム
US15/352,003 US10102676B2 (en) 2015-12-03 2016-11-15 Information processing apparatus, display apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015236321A JP6786792B2 (ja) 2015-12-03 2015-12-03 情報処理装置、表示装置、情報処理方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2017102768A true JP2017102768A (ja) 2017-06-08
JP6786792B2 JP6786792B2 (ja) 2020-11-18

Family

ID=58799225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015236321A Active JP6786792B2 (ja) 2015-12-03 2015-12-03 情報処理装置、表示装置、情報処理方法、及び、プログラム

Country Status (2)

Country Link
US (1) US10102676B2 (ja)
JP (1) JP6786792B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018196596A (ja) * 2017-05-24 2018-12-13 株式会社大一商会 遊技機
JP2018196592A (ja) * 2017-05-24 2018-12-13 株式会社大一商会 遊技機
JP2019053603A (ja) * 2017-09-15 2019-04-04 富士通株式会社 表示制御プログラム、装置、及び方法
WO2019155710A1 (ja) * 2018-02-09 2019-08-15 ソニー株式会社 制御装置、制御方法及びプログラム
WO2021005655A1 (ja) * 2019-07-05 2021-01-14 マクセル株式会社 ヘッドマウントディスプレイ
WO2023095559A1 (ja) * 2021-11-24 2023-06-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ ウェアラブル装置、情報処理方法及び情報処理プログラム

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092313A (ja) * 2016-12-01 2018-06-14 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US10620779B2 (en) * 2017-04-24 2020-04-14 Microsoft Technology Licensing, Llc Navigating a holographic image
US11966793B1 (en) * 2017-10-18 2024-04-23 Campfire 3D, Inc. Systems and methods to extend an interactive space across multiple platforms
WO2019222541A1 (en) * 2018-05-16 2019-11-21 Conex Digital Llc Smart platform counter display system and method
KR102782794B1 (ko) * 2018-12-26 2025-03-19 삼성전자주식회사 진정 사용자의 손을 식별하는 방법 및 이를 위한 웨어러블 기기
US11106949B2 (en) * 2019-03-22 2021-08-31 Microsoft Technology Licensing, Llc Action classification based on manipulated object movement
US11934584B2 (en) 2019-09-27 2024-03-19 Apple Inc. Finger orientation touch detection
US12211227B2 (en) * 2019-11-15 2025-01-28 Ntt Docomo, Inc. Information processing apparatus
US11175730B2 (en) 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US11748796B2 (en) * 2020-03-19 2023-09-05 Adobe Inc. Automatic clustering and mapping of user generated content with curated content
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
WO2022004483A1 (ja) * 2020-06-29 2022-01-06 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
US11320896B2 (en) * 2020-08-03 2022-05-03 Facebook Technologies, Llc. Systems and methods for object tracking using fused data
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
US12439145B1 (en) 2020-09-25 2025-10-07 Apple Inc. Determining an intended gesture when hands are occupied
US11640723B2 (en) * 2020-10-20 2023-05-02 Rosemount Aerospace Inc. System and method for enhanced surveillance using video analytics
EP4279982A4 (en) * 2021-01-14 2024-06-19 Sony Group Corporation IMAGE DISPLAY DEVICE AND IMAGE DISPLAY SYSTEM
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
US12164741B2 (en) 2022-04-11 2024-12-10 Meta Platforms Technologies, Llc Activating a snap point in an artificial reality environment

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148381A (ja) * 1998-11-05 2000-05-26 Telecommunication Advancement Organization Of Japan 入力画像処理方法、入力画像処理装置、及び入力画像処理プログラムを記録した記録媒体
WO2009035100A1 (ja) * 2007-09-14 2009-03-19 National Institute Of Advanced Industrial Science And Technology バーチャルリアリティ環境生成装置及びコントローラ装置
US20090109795A1 (en) * 2007-10-26 2009-04-30 Samsung Electronics Co., Ltd. System and method for selection of an object of interest during physical browsing by finger pointing and snapping
JP2009134693A (ja) * 2007-10-30 2009-06-18 Canon Inc 画像処理装置、画像処理方法
JP2011022945A (ja) * 2009-07-17 2011-02-03 Dainippon Printing Co Ltd 指先操作型情報提供システム、プログラム、記録媒体
JP2011180712A (ja) * 2010-02-26 2011-09-15 Sanyo Electric Co Ltd 投写型映像表示装置
JP2013175909A (ja) * 2012-02-24 2013-09-05 Nikon Corp 頭部装着装置
JP2013190941A (ja) * 2012-03-13 2013-09-26 Nikon Corp 情報入出力装置、及び頭部装着表示装置
JP2013206412A (ja) * 2012-03-29 2013-10-07 Brother Ind Ltd ヘッドマウントディスプレイ及びコンピュータプログラム
JP2014004154A (ja) * 2012-06-25 2014-01-16 Omron Corp 遊技機
WO2014045683A1 (ja) * 2012-09-21 2014-03-27 ソニー株式会社 制御装置および記憶媒体
JP2015119373A (ja) * 2013-12-19 2015-06-25 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP2015141215A (ja) * 2014-01-27 2015-08-03 村田機械株式会社 ヘッドマウントディスプレイ装置
JP2017219911A (ja) * 2016-06-03 2017-12-14 京セラドキュメントソリューションズ株式会社 印刷システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4351599B2 (ja) * 2004-09-03 2009-10-28 パナソニック株式会社 入力装置
JP4679661B1 (ja) * 2009-12-15 2011-04-27 株式会社東芝 情報提示装置、情報提示方法及びプログラム
JP5656457B2 (ja) 2010-06-01 2015-01-21 シャープ株式会社 商品情報提供端末装置および商品情報提供システム
US9383895B1 (en) * 2012-05-05 2016-07-05 F. Vinayak Methods and systems for interactively producing shapes in three-dimensional space
JP6217244B2 (ja) 2013-08-29 2017-10-25 セイコーエプソン株式会社 画像処理装置、これを有する頭部装着型表示装置、画像処理方法およびコンピュータープログラム
JP6237000B2 (ja) 2013-08-29 2017-11-29 セイコーエプソン株式会社 頭部装着型表示装置

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148381A (ja) * 1998-11-05 2000-05-26 Telecommunication Advancement Organization Of Japan 入力画像処理方法、入力画像処理装置、及び入力画像処理プログラムを記録した記録媒体
WO2009035100A1 (ja) * 2007-09-14 2009-03-19 National Institute Of Advanced Industrial Science And Technology バーチャルリアリティ環境生成装置及びコントローラ装置
US20090109795A1 (en) * 2007-10-26 2009-04-30 Samsung Electronics Co., Ltd. System and method for selection of an object of interest during physical browsing by finger pointing and snapping
JP2009134693A (ja) * 2007-10-30 2009-06-18 Canon Inc 画像処理装置、画像処理方法
JP2011022945A (ja) * 2009-07-17 2011-02-03 Dainippon Printing Co Ltd 指先操作型情報提供システム、プログラム、記録媒体
JP2011180712A (ja) * 2010-02-26 2011-09-15 Sanyo Electric Co Ltd 投写型映像表示装置
JP2013175909A (ja) * 2012-02-24 2013-09-05 Nikon Corp 頭部装着装置
JP2013190941A (ja) * 2012-03-13 2013-09-26 Nikon Corp 情報入出力装置、及び頭部装着表示装置
JP2013206412A (ja) * 2012-03-29 2013-10-07 Brother Ind Ltd ヘッドマウントディスプレイ及びコンピュータプログラム
JP2014004154A (ja) * 2012-06-25 2014-01-16 Omron Corp 遊技機
WO2014045683A1 (ja) * 2012-09-21 2014-03-27 ソニー株式会社 制御装置および記憶媒体
US20150227222A1 (en) * 2012-09-21 2015-08-13 Sony Corporation Control device and storage medium
JP2015119373A (ja) * 2013-12-19 2015-06-25 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP2015141215A (ja) * 2014-01-27 2015-08-03 村田機械株式会社 ヘッドマウントディスプレイ装置
JP2017219911A (ja) * 2016-06-03 2017-12-14 京セラドキュメントソリューションズ株式会社 印刷システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
栃尾 篤志 他: ""KinectとHMDによるVRユーザ・インタフェイスの試み", FIT2013 第12回情報科学技術フォーラム 講演論文集 第3分冊 査読付き論文・一般論文 画像認, vol. 第3分冊, JPN6019027565, 20 August 2013 (2013-08-20), JP, pages 523 - 526, ISSN: 0004212346 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018196596A (ja) * 2017-05-24 2018-12-13 株式会社大一商会 遊技機
JP2018196592A (ja) * 2017-05-24 2018-12-13 株式会社大一商会 遊技機
JP2019053603A (ja) * 2017-09-15 2019-04-04 富士通株式会社 表示制御プログラム、装置、及び方法
WO2019155710A1 (ja) * 2018-02-09 2019-08-15 ソニー株式会社 制御装置、制御方法及びプログラム
WO2021005655A1 (ja) * 2019-07-05 2021-01-14 マクセル株式会社 ヘッドマウントディスプレイ
WO2023095559A1 (ja) * 2021-11-24 2023-06-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ ウェアラブル装置、情報処理方法及び情報処理プログラム

Also Published As

Publication number Publication date
US20170161957A1 (en) 2017-06-08
US10102676B2 (en) 2018-10-16
JP6786792B2 (ja) 2020-11-18

Similar Documents

Publication Publication Date Title
JP6786792B2 (ja) 情報処理装置、表示装置、情報処理方法、及び、プログラム
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
US9898868B2 (en) Display device, method of controlling the same, and program
US12517575B2 (en) Object selection based on eye tracking in wearable device
EP3717992B1 (en) Device for providing augmented reality service, and method of operating the same
US10643390B2 (en) Head mounted display, method for controlling head mounted display, and computer program
CN103917913B (zh) 头戴式显示器、控制光学系统的方法及计算机可读介质
US20140152558A1 (en) Direct hologram manipulation using imu
US10474226B2 (en) Head-mounted display device, computer program, and control method for head-mounted display device
JP5295714B2 (ja) 表示装置、画像処理方法、及びコンピュータプログラム
US20140160157A1 (en) People-triggered holographic reminders
JP6492531B2 (ja) 表示装置、及び、表示装置の制御方法
JP2016507805A (ja) 複合現実環境のための直接インタラクション・システム
JP2016224086A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2017016056A (ja) 表示システム、表示装置、表示装置の制御方法、及び、プログラム
US10437882B2 (en) Object occlusion to initiate a visual search
WO2014128773A1 (ja) ジェスチャ登録装置、ジェスチャ登録プログラムおよびジェスチャ登録方法
US9298256B1 (en) Visual completion
JP6554948B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2018084886A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
JP2014187574A (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6740613B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2017079389A (ja) 表示装置、表示装置の制御方法、及び、プログラム
US20240393593A1 (en) Smart contact lens with waveguide display and focusing system
JP2016090853A (ja) 表示装置、表示装置の制御方法、及び、プログラム

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180906

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201012

R150 Certificate of patent or registration of utility model

Ref document number: 6786792

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150