JP2017102768A - 情報処理装置、表示装置、情報処理方法、及び、プログラム - Google Patents
情報処理装置、表示装置、情報処理方法、及び、プログラム Download PDFInfo
- Publication number
- JP2017102768A JP2017102768A JP2015236321A JP2015236321A JP2017102768A JP 2017102768 A JP2017102768 A JP 2017102768A JP 2015236321 A JP2015236321 A JP 2015236321A JP 2015236321 A JP2015236321 A JP 2015236321A JP 2017102768 A JP2017102768 A JP 2017102768A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- captured image
- unit
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional [3D], e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating three-dimensional [3D] models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【解決手段】使用者の視野の少なくとも一部を含む範囲を撮像するカメラ61と、カメラ61により撮像された撮像画像に基づき使用者の操作を検出し、検出した操作に従って、撮像画像に含まれるオブジェクトから対象オブジェクトを推定する制御部140と、を備えたことを特徴とするHMD100。
【選択図】図4
Description
本発明は上記事情に鑑みてなされたものであり、撮像画像に基づいて、撮像された物体を選択する処理を、負荷の軽い処理により実行できる情報処理装置、表示装置、情報処理方法、及び、プログラムを提供することを目的とする。
本発明によれば、使用者の視野を含む範囲を撮像した撮像画像に基づき使用者の操作を検出して、検出した操作に従って対象オブジェクトを推定する。これにより、撮像画像に対する処理を行うことで、対象オブジェクトを選択できるので、処理の負荷が軽い。
ここで、使用者の操作とは、使用者が使用者自身の身体を用いて行う操作を含み、この他、使用者が手に持つ物体である操作体を用いる操作を含んでもよく、使用者の身体または衣服等に装着される操作体を用いる操作を含んでもよい。
本発明によれば、撮像画像に基づき使用者の操作を検出できる。
本発明によれば、撮像画像に基づき使用者の操作を検出する処理において、誤検出を減らすことができる。
本発明によれば、撮像画像に基づいて使用者の操作を検出する場合の誤検出を減らし、検出精度を高めることができる。例えば、撮像画像が、複数の位置で使用者の身体の画像を含む場合に、使用者の操作として検出すべき画像を、優先度に基づき区別できる。このため、使用者が意図した操作を検出できる可能性を高めることができ、検出精度の向上が期待できる。
本発明によれば、撮像画像に基づいて使用者の操作を検出する場合の誤検出を減らし、検出精度を高めることができる。また、操作を検出する処理に影響する優先度の設定、及び管理が容易になるという利点がある。
本発明によれば、使用者の操作に伴い使用者の身体が撮像されやすい、底辺側に位置する領域に対し、上辺側に位置する領域よりも高い優先度を設定することによって、使用者の操作を検出する場合の検出精度を高めることができる。
ここで、撮像画像の底辺側とは、撮像時の上下方向に基づき底辺となる側を指すが、予め撮像画像に対して底辺側が定義されていてもよい。
本発明によれば、使用者の操作に伴って撮像された使用者の身体の画像を高い精度で検出できる。
本発明によれば、撮像画像に基づいて使用者の操作を検出する場合の誤検出を減らし、検出精度を高めることができる。
本発明によれば、使用者の操作に伴って撮像された使用者の身体の画像を高い精度で検出できる。
本発明によれば、撮像画像に基づき使用者の身体の画像を検出する場合の検出精度を、より一層、高めることができる。
本発明によれば、撮像画像に基づき使用者の身体の画像を検出する場合の検出精度を、より一層、高めることができる。
本発明によれば、使用者の操作の対象であるオブジェクトを、高い精度で推定できる。
本発明によれば、撮像画像に基づいて、使用者の身体とオブジェクトとの位置関係を加味して、使用者の操作の対象であるオブジェクトを推定するので、推定の精度の向上を図ることができる。
本発明によれば、使用者の身体に装着される身体装着型検出装置の検出状態または検出結果を利用して、使用者の操作の対象であるオブジェクトを高精度で推定できる。
本発明によれば、使用者の視野を含む範囲を撮像した撮像画像に基づき使用者の操作を検出して、検出した操作に従って対象オブジェクトを推定する。これにより、撮像画像に対する処理を行うことで、対象オブジェクトを選択できるので、処理の負荷が軽い。
本発明によれば、使用者の操作に対応してGUI(Graphical User Interface)画像を表示することで、操作性の高いユーザーインターフェースを提供できる。
本発明によれば、GUI画像を表示する処理を適正化し、ユーザーインターフェースの操作性を高めることができる。
本発明によれば、使用者の視野を含む範囲を撮像した撮像画像に基づき使用者の操作を検出して、検出した操作に従って対象オブジェクトを推定する。これにより、撮像画像に対する処理を行うことで、対象オブジェクトを選択できるので、処理の負荷が軽い。
本発明によれば、使用者の視野を含む範囲を撮像した撮像画像に基づき使用者の操作を検出して、検出した操作に従って対象オブジェクトを推定する。これにより、撮像画像に対する処理を行うことで、対象オブジェクトを選択できるので、処理の負荷が軽い。
HMD100(情報処理装置)は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御装置10と、を備える表示装置である。制御装置10は、使用者がHMD100を操作するコントローラーとしても機能する。
右光学像表示部26及び左光学像表示部28は、導光板261,262(図2)と、調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置される。調光板20Aは、光透過性がほぼ無いもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26及び左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、HMD100を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、右導光板261及び左導光板262を保護し、右導光板261及び左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは、右光学像表示部26及び左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
カメラ61は、制御部140が備える撮像制御部161(図4)の制御に従って撮像を実行し、撮像画像データを撮像制御部161に出力する。
距離センサーは、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する構成とすることができる。距離センサーは、制御部140の制御に従い、三角測距処理や時間差に基づく測距処理を実行すればよい。また、距離センサーは、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサーは、制御部140の制御に従い、超音波の反射までの時間差に基づき測距処理を実行すればよい。
左表示駆動部24は、LED等の光源と拡散板とを有する左バックライト222、左バックライト222の拡散板から発せられる光の光路上に配置される透過型の左LCD242、及び、左LCD242を透過した画像光Lを導くレンズ群等を備えた左投写光学系252を備える。左LCD242は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
ハーフミラー262Aで反射した画像光Lは左眼LEに向けて左光学像表示部28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
ハーフミラー261Aで反射した画像光Lは右眼REに向けて右光学像表示部26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
LEDインジケーター12は、HMD100の動作状態に対応して点灯し、或いは点滅する。上下キー15は、右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチで構成される。
図3(A)では、使用者の右眼REに画像光を照射するハーフミラー261A、及び、左眼LEに画像光を照射するハーフミラー262Aが、略四角形の領域として見える。また、ハーフミラー261A、262Aを含む右光学像表示部26及び左光学像表示部28の全体が、上述したように外光を透過する。このため、使用者には、右光学像表示部26及び左光学像表示部28の全体を透過して外景が視認され、ハーフミラー261A、262Aの位置に矩形の表示画像が視認される。
カメラ61の画角Cは、画像表示部20の中央位置の真正面方向を含み、光軸CXを中心として上下左右に所定の角度で拡がる範囲が、カメラ61の画角Cに含まれる。例えば、図3(B)に示すように、画像表示部20の正面方向に対象物OBがある場合、対象物OBは画角Cに含まれ、カメラ61の撮像画像に対象物OBが写る。ここで、使用者が対象物OBを注視すると、使用者の視線は、図中符号RD、LDに示すように対象物OBに向けられる。一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。この場合、注視点が対象物OBであるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野であり、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。
カメラ61は、使用者の視野よりも広い範囲を撮像可能な画角を有することが好ましく、具体的には、画角Cが、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角Cが、使用者の実視野よりも広いことが、より好ましい。さらに好ましくは、画角Cが、使用者の安定注視野よりも広く、最も好ましくは、画角Cが使用者の両眼の視野角よりも広い。
HMD100は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス114を備える。インターフェイス114は、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部機器OAは、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
入力情報取得部110は、操作部111に接続される。操作部111は、上述したようにキー操作部11、トラックパッド14、上下キー15及び切替スイッチ16を含む。入力情報取得部110は、操作部111から入力される信号に基づき、使用者の操作を受け付ける。入力情報取得部110は、操作部111における操作内容を示すデータを制御部140に出力する。また、入力情報取得部110は、制御部140の制御に従って、LEDインジケーター12(図1)の点灯、点滅、消灯を制御してもよい。
制御装置10は、電源部130を備え、制御装置10及び画像表示部20の各部に電源部130から電源を供給する。電源部130からの電源供給状態は、電源スイッチ18(図1)の操作、及び、制御部140が実行するプログラムの実行状況に応じて、制御部140が制御する。
記憶部120は、画像表示部20に表示する静止画像や動画像のデータを記憶しても良い。また、記憶部120は、設定データ121を記憶する。設定データ121は、制御部140が使用する各種の設定値を含む。設定データ121が含む設定値は、予め操作部111の操作で入力された値であってもよいし、通信部117またはインターフェイス114を介して外部機器OAまたは他の装置(図示略)から設定値を受信して記憶してもよい。
GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えてもよい。
外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示させる。一方、外部機器OAが、インターフェイス114に有線接続された場合、制御部140は、コンテンツデータをインターフェイス114より取得して、画像表示部20に画像を表示させる。通信部117及びインターフェイス114は、外部機器OAからコンテンツデータを取得するデータ取得部DAとして機能する。
また、インターフェイス25は、カメラ61、及び、9軸センサー66を制御装置10に接続する。カメラ61の撮像データ、9軸センサー66による加速度(3軸)、角速度(3軸)、及び、地磁気(3軸)の検出結果は、インターフェイス25を介して制御部140に送られる。
右バックライト制御部201は、表示制御部190が送信する制御信号に従って、右バックライト221を駆動する。右LCD制御部211は、画像処理部160が送信する信号及び表示制御部190が送信する信号に基づいて、右LCD241を駆動する。
なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。
また、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部160は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、接続ケーブル40を介して画像表示部20に送信する。
例えば、カメラ61が撮像を行う際の上下方向(重力方向)、或いは、カメラ61に予め対応付けられた上下方向に従って、撮像画像の底辺が決定されてもよく、底辺がどの辺であるかを示す付加データが撮像画像データに付加されてもよい。或いは、撮像制御部161が操作検出部165または対象推定部167に撮像画像を渡す際に、撮像画像の向きを示すデータを付加してもよい。この場合、撮像画像の向きから底辺の位置を特定できる。また、撮像制御部161が、底辺を下とする向きで撮像画像の向きを決定し、撮像画像データを生成してもよい。
AR表示制御部164は、画像表示部20が表示するAR表示用の画像を生成する。AR表示制御部164は、AR表示用の画像として平面画像を生成してもよい。また、AR表示制御部164はAR表示用の画像として、立体画像を生成してもよい。この場合、AR表示制御部164は、画像表示部20が右眼REに対応して右光学像表示部26により表示する右眼用の画像と、左眼LEに対応して左光学像表示部28に表示する左眼用の画像とを生成する。これらの右眼用の画像と左目用の画像とは視差を有し、この視差により、使用者は立体画像を視認する。AR表示制御部164が生成する平面画像または立体画像からなる表示用の画像データは、例えば、記憶部120が記憶するコンテンツデータ122、または、カメラ61の撮像画像に基づき生成される。AR表示制御部164は、生成した画像データが、実空間における対象物に対応する位置で視認されるように表示位置を決定する処理を行い、決定した表示位置に表示されるように表示制御部190を制御する。
本実施形態では、AR表示制御部164は、対象推定部167が推定した操作対象物を、AR表示の対象とする。
図5及び図6は、カメラ61の位置が異なる画像表示部20の構成例を示し、図5はカメラ61を右側端部に配置した画像表示部20Bの要部構成図であり、図6はカメラ61を左側端部に配置した画像表示部20Cの要部構成図である。図5(A)は画像表示部20Bを使用者の頭部側から見た要部斜視図、(B)はカメラ61の画角の説明図である。また、図6(A)は画像表示部20Cを使用者の頭部側から見た要部斜視図、(B)はカメラ61の画角の説明図である。これら図5及び図6では接続ケーブル40の図示を省略する。
図5(A)に示す画像表示部20Bは、画像表示部20Bの前面において右保持部21側の端部にカメラ61を有する。
画像表示部20Bにおいて、図5(B)に示すように、カメラ61の光軸CX1は画像表示部20Bの正面方向に対し左側に傾く方向を向く。従って、カメラ61の画角C1は、カメラ61の正面から左側に傾いており、右眼RE及び左眼LEの正面を含む範囲となる。
画像表示部20Cにおいて、図6(B)に示すように、カメラ61の光軸CX2は画像表示部20Cの正面方向に対し右側に傾く方向を向く。従って、カメラ61の画角C2は、カメラ61の正面から左側に傾いており、右眼RE及び左眼LEの正面を含む範囲となる。
また、図5(A)、図6(A)に示すようにカメラ61を配置した場合の画角C1、C2は、図3を参照して説明した画角Cと同様、使用者の視野よりも広い範囲を含むことが好ましい。具体的には、画角C1、C2が、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角C1、C2が、使用者の実視野よりも広いことが、より好ましい。さらに好ましくは、画角C1、C2が、使用者の安定注視野よりも広い。
図7の例では、HMD100の制御部140は、カメラ61の画角C内に存在する物体のうち、使用者が手で触る操作や手を近づける操作を行った物体を推定し、この物体に記録されている画像コードを認識する。
図8は、図7に示す動作においてHMD100が表示する表示例を示す図である。
図8(A)は、ステップS11で認識動作を開始した場合のHMD100の表示例を示す。画像表示部20を装着する使用者の視野Vでは、制御部140の制御により所定範囲に枠形状のガイドG1が表示される。ガイドG1は、認識処理の対象となる範囲を使用者に示す直線であり、例えば、カメラ61の撮像範囲に対応する。図8(A)の例では、ガイドG1の内側に、対象物OB1、OB2、OB3が含まれる。対象物OB1は机上のキーボードであり、対象物OB2は飲料のボトルであり、対象物OB3は操作を行う使用者の右手である。
対象推定部167は、対象物として検出する物体の画像または物体の画像の特徴量に基づき、撮像画像から物体の画像を検出してもよい。この場合、対象推定部167が使用する画像または画像の特徴量は、例えば、設定データ121に含まれてもよい。
また、対象推定部167が撮像画像から検出する対象物の数に制限はない。例えば、対象推定部167は、ステップS13において、図8(A)の対象物OB1、OB2、OB3を検出する。
操作検出部165は、操作検出処理によって、カメラ61の画角内に使用者の手が存在し、この手が操作を意味すると判定する。そして、この手(対象物OB3)を、使用者の操作に関与する対象物として検出する。
図8(B)の例では対象物OB3が対象物OB2に接触しているので、対象推定部167は、対象物OB2を操作対象物と推定する。操作対象物は対象オブジェクトに相当する。
使用者が認識処理の実行を指示する操作は、例えば、操作対象物を手に持って、GUIの所定の位置に、認識処理の対象である操作対象物の画像コード等を重ねる操作が挙げられる。この場合、使用者が操作対象物を手に持つことや画像コードを重ねる操作を、認識処理の実行を指示する操作(ステップS17;Yes)と判定してもよい。これに対し、使用者が操作対象物を手に持って所定の時間以上、上記の条件を満たさない場合、認識処理の実行を指示する操作でない(ステップS17;No)と判定してもよい。また、認識処理の実行を指示する操作は、制御装置10の操作部111に対する操作や、音声処理部187が検出する音声による入力であってもよい。
制御部140が、認識処理の実行を指示する操作があったと判定した場合(ステップS17;Yes)、AR表示制御部164が認識用のGUIを表示する(ステップS18)。ここで、撮像制御部161がカメラ61を制御して撮像を実行させ、撮像画像データを取得する(ステップS19)。制御部140は、カメラ61の撮像画像データから認識処理を実行する対象部分の画像を抽出し(ステップS20)、画像コードを認識する(ステップS21)。
ステップS24では、例えば、ステップS16で表示されるGUIを用いるメニュー操作が行われる。この場合、制御部140は、使用者のGUIに対する操作によりメニュー表示が指示されると、この指示に応じてメニュー画面に設定項目を一覧表示する。ここで、使用者の手や操作部111に対する操作に応じて、メニュー画面において設定項目を選択し、選択した設定項目について設定が行われる。また、例えば、ステップS16で表示されるGUIを用いて、カメラ61の撮像画像データの保存を指示する操作が行われ、この操作に応じて制御部140が撮像画像データを記憶部120に記憶する。
図9(A)の例では、ガイドG1を表示する際に、制御部140が、カメラ61の撮像範囲の中心を示すガイドG3を合わせて表示する。
HMD100では、カメラ61の画角(撮像範囲)と、画像表示部20の表示領域であるハーフミラー261A、262Aとの相対的な位置関係が、予めキャリブレーションにより対応付けられる。従って、制御部140は、カメラ61の画角に対応する位置にガイドG1、G3等の画像を表示できる。
(1)カメラ61から抽出した画像の手までの距離。
(2)抽出した画像が、カメラ61からの距離が異なる複数の画像を含むか否か。
(3)抽出した画像の手の左右の種別と、画像を抽出した位置との対応関係。
(4)抽出した画像と、撮像画像の縁との対応関係。
(1)及び(2)の例では、操作検出部165は、抽出した画像のサイズに基づいて、カメラ61から手までの距離を算出する。距離を算出するための情報は、例えば操作検出用データ125に含まれる。カメラ61から手までの距離を算出する機能に関し、操作検出部165は距離検出部に相当する。
操作検出部165は、撮像画像における対象物OBの画像のサイズと、カメラ61の撮像条件とに基づいて、カメラ61の撮像面からの距離を求める。この処理で、操作検出部165は、距離検出用データ127を参照する。距離検出用データ127は、例えば、撮像画像における対象物OBの画像のサイズと、カメラ61の撮像条件と、カメラ61の距離とを対応付けるデータ、或いは演算式等を含む構成とすることができる。カメラ61の撮像条件は、例えばズーム倍率である。
図11(A)は、撮像画像Pにおいて対象推定部167が対象物OB11、OB12を検出し、このうち手である対象物OB11の画像を操作検出部165が抽出した例を示す。対象物OB11は、使用者の右手の画像である。操作検出部165は、対象物OB11のうち中心(重心でもよい)に相当する位置OB11Aからカメラ61までの距離を求める。OB11AはOB11(手)の中心あるいは重心であり、腕の位置に相当する。また、操作検出部165は、対象物OB11の画像において指先を検出し、指先に相当する位置OB11Bからカメラ61までの距離を求めてもよい。
カメラ61から手までの距離が基準値を超える場合、使用者の手でない可能性が高い。従って、カメラ61から手までの距離が基準値以内か否かに基づき、抽出した手の画像が、HMD100を装着する使用者の手の画像か、他者の手の画像かを判定できる。つまり、操作検出部165が抽出した手の画像が、使用者による操作に関係する画像か否かを判定できる。
なお、操作検出部165は、撮像制御部161が出力する撮像画像における底辺を検出し、或いは特定する処理を行ってもよい。すなわち、撮像画像Pにおける底辺が撮像画像Pの下縁とは異なる場合に、抽出した画像において撮像画像Pの底辺から最も遠い位置からカメラ61までの距離を、基準値と比較できる。例えば、操作検出部165が取得する撮像画像の向きが反時計回りに90度回転した状態であっても、実際にカメラ61が撮像した際の底辺側を基準として処理できる。
操作検出部165は、使用者の手指、手、腕、足等の画像またはこれらの画像の特徴量を用いて撮像画像を解析し、撮像画像から使用者の身体の画像を検出する。これらの画像または画像の特徴量を含むデータは、操作検出用データ125として記憶部120が記憶する。操作検出用データ125は、人間の手指、手、腕、足等の画像またはこれらの画像の特徴量を含み、汎用的なデータであってもよいし、特定の人物の身体的特徴に適合するデータであってもよい。
該当する手の画像が複数ある場合(ステップS35;Yes)、操作検出部165は、撮像画像Pにおいて、該当すると判定された画像が含まれる領域を特定し、領域ごとに設定された優先度に基づき、操作に関与する画像を特定する(ステップS36)。
操作検出部165は、撮像画像Pに含まれる手の画像のうち、操作に関与する手の画像を少数にしぼりこみ、好ましくは一つに特定する。
図12に示す画像領域PAは、撮像画像Pの全体に相当する。画像領域PAには、領域A11〜A16、A21〜A26が設定される。それぞれの領域は、画像領域PAにおける位置を基準として設定される。
領域A11,A21は画像領域PAの下縁に重なる。領域A12は画像領域PAの左下隅を含み、領域A22は画像領域PAの右下隅を含む。領域A15は画像領域PAの左上隅を含み、領域A25は画像領域PAの右上隅を含む。領域A13は画像領域PAの左縁を含み、上下方向の中央VCよりも概ね下方を含み、領域A14は画像領域PAの左縁を含み、上下方向の中央VCよりも概ね上方を含む。領域A23は画像領域PAの右縁を含み、上下方向の中央VCよりも概ね下方を含み、領域A24は画像領域PAの右縁を含み、上下方向の中央VCよりも概ね上方を含む。領域A16,A26は画像領域PAの上縁に重なる。
操作検出用データ125は、使用者の操作に関与する画像として特定する優先度を、画像領域PAの左側においては領域A11>A12>A13>A14>A15>A16の順に指定する。また、画像領域PAの右側においては領域A21>A22>A23>A24>A25>A26の順に優先度を指定する。
使用者が手に持つ操作体を検出する場合、この操作体は、操作検出部165が撮像画像から、使用者の手以外の物体として検出される。操作検出部165は、使用者の身体の画像を、撮像画像から検出し、検出した使用者の身体に対して所定の位置関係にある物体を操作体として検出する。この場合、操作検出部165は、検出した操作体を使用者の身体の一部と同様に見なして、操作体による操作を検出できる。使用者の身体と所定の位置関係にある物体は、条件に基づき特定できる。例えば、(条件1)使用者の身体(例えば、手)と操作体との距離が所定の距離以内である、(条件2)撮像画像中に使用者の身体(例えば、手)の画像と連続する状態で操作体の画像が含まれる、との2つの条件が予め設定される。この場合、操作検出部165は、(条件1)及び(条件2)の両方を満たす操作体を検出、或いは推定できる。(条件1)に関して撮像画像に写る物体と使用者の身体との距離を求める方法は、例えば、操作検出部165が画像の属性(1)を判定する処理に関して説明した手法を適用できる。ここで、撮像画像における使用者の身体の画像と操作体の画像とが連続する状態には、使用者の衣服等の画像と操作体の画像とが連続する場合を含んでもよい。
ステップS13において、対象推定部167は、撮像画像から輪郭を抽出可能な全ての物体を、対象物として検出してもよいが、撮像画像から対象物として抽出する物体を限定してもよい。この場合、撮像画像に多数の物体の画像が含まれる場合に、対象推定部167の処理負荷を軽減できるという利点がある。この場合、例えば、操作検出部165が撮像画像から使用者の手の画像を検出し、操作検出部165が検出した手の画像に近い物体を、対象推定部167が対象物として検出してもよい。
或いは、ステップS13において、対象推定部167は、使用者の現在の音声に含まれるキーワードや過去に対象物として検出した物体の履歴等に基づいて、処理の対象とする物体を絞り、対象物として撮像画像から検出してもよい。
対象推定部167は、ステップS13(図7)で検出した対象物OBと、操作検出部165が特定した手との距離を、撮像画像に基づき算出する(ステップS41)。ステップS41で、対象推定部167は距離検出用データ127を参照し、カメラ61の撮像条件を加味して、距離を算出する。また、撮像画像から、手の画像の他に複数の対象物OBの画像が検出された場合、対象推定部167は、それぞれの対象物OBと手との間の距離を算出する。
対象推定部167は、ステップS41で、対象物OB31、OB32、OB33のそれぞれと、対象物OB34との間の距離を算出する。
対象推定部167は、選択した対象物と操作に関与する手との間の距離が、予め設定された接触基準値より近いか否かを判定する(ステップS43)。接触基準値は、対象物が手に接触しているとみなすことが可能な距離の閾値となる値であり、例えば操作検出用データ125に含まれる。
ここで、対象推定部167が算出し、判定に用いる距離は、例えば、選択した対象物と操作に関与する手とが最も近い位置における距離とすることができる。図14(A)の例では、使用者の手である対象物OB34の画像において最も対象物OB32に近い第1の点と、対象物OBの画像において最も対象物OB34に近い第2の点とを特定し、第1の点と第2の点との間の距離を求めてもよい。また、例えば、対象推定部167は、選択した対象物の画像の中心または重心の位置と、操作に関与する手の画像の中心または重心の位置との間の距離を求め、この距離を判定してもよい。
図14(B)の例では、対象物OB32が、操作対象の対象物として推定され、対象物OB32の表面に印刷された画像コードの読み取りなどが行われる。
また、対象推定部167は、対象物と手との間の距離が接触基準値より近くないと判定した場合に(ステップS43;No)、操作対象の対象物がないと判定してもよい。
例えば、対象推定部167は、操作に関与する手の画像として特定された画像の近傍に位置する影の画像を撮像画像から検出し、この影の画像と手の画像との位置関係に基づき、接触の有無を判定しても良い。
この情報処理装置としてのHMD100、及び、HMD100により実行される情報処理方法によれば、ため、使用者の視野を含む範囲を撮像した撮像画像に基づき使用者の操作を検出して、検出した操作に従って操作対象物である対象物の画像を推定できる。従って、撮像画像に対する処理を行うことで、操作対象物である対象物の画像を選択できるので、処理の負荷が軽い。また、この情報処理方法を実現するためのプログラムは、制御部140を構成するコンピューターが実行可能な形態で、記憶部120、或いは制御部140が内蔵する不揮発性記憶部等に記憶される。
また、撮像画像の一部を含む領域A11〜A26と、領域において使用者の身体の画像を検出する条件とが設定され、例えば操作検出用データ125に含まれて記憶される。制御部140は、撮像画像に含まれる画像について、当該画像を含む領域に設定された条件に従って、使用者の身体の画像か否かを判定し、使用者の身体を検出する。このため、撮像画像に基づき使用者の操作を検出する処理において、誤検出を減らすことができる。例えば、使用者でない者の身体の画像に基づき、操作が行われたと判定するような誤検出を防止できる。
また、撮像画像に複数の領域が設定され、それぞれの領域には撮像画像における領域の位置に応じた優先度が設定される場合、より一層の検出精度の向上が期待できる。また、操作を検出する処理に影響する優先度の設定、及び管理が容易になるという利点がある。
また、例えば、対象推定部167は、ステップS42で手に近い対象物を選択した後、ステップS41〜S42の処理を所定時間内に繰り返し実行して、選択する対象物が変化しない状態が継続した場合に、ステップS43に移行してもよい。
また、例えば、対象推定部167は、ステップS45またはステップS47で対象物を推定した後、ステップS41〜S45またはS47の処理を実行し、同じ対象物が複数回連続して推定された場合に、推定した対象物に関する情報をAR表示制御部164に出力してもよい。
上記実施形態において、使用者が表示部を透過して外景を視認する構成は、右光学像表示部26及び左光学像表示部28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、カメラ61の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。また、AR表示、MR表示、或いはVR表示といった処理を行わず、外部から入力される映像データまたはアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。
また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10が画像表示部20、20B、20Cと分離して構成され、制御装置10と画像表示部20、20B、20Cとの間で無線通信により各種信号を送受信する構成としてもよい。
また、走査される光を受ける虚像形成面に代えて、回折格子を用いて使用者の眼に画像光を導く構成であってもよい。つまり、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/又は反射させて導く機能のみを有するものであってもよい。
Claims (19)
- 使用者の視野の少なくとも一部を含む範囲を撮像する撮像部と、
前記撮像部により撮像された撮像画像に基づき前記使用者の操作を検出し、検出した操作に従って、前記撮像画像に含まれるオブジェクトから対象オブジェクトを推定する制御部と、
を備えることを特徴とする情報処理装置。 - 前記制御部は、前記撮像画像に含まれる前記使用者の身体の画像を検出することにより、前記使用者の操作を検出すること、
を特徴とする請求項1記載の情報処理装置。 - 前記撮像画像の一部を含む領域と、前記領域において前記使用者の身体の画像を検出する条件とが設定され、
前記制御部は、前記撮像画像に含まれるオブジェクトについて、当該オブジェクトを含む前記領域に設定された条件に従って、前記使用者の身体の画像か否かを判定し、前記使用者の身体を検出すること、
を特徴とする請求項2記載の情報処理装置。 - 前記領域には、前記撮像画像における前記領域の位置に応じて、前記領域に含まれる前記オブジェクトを前記使用者の身体の画像と判定する優先度が設定され、
前記制御部は、前記オブジェクトを含む前記領域に設定された優先度に従って、前記オブジェクトが前記使用者の身体の画像か否かを判定すること、
を特徴とする請求項3記載の情報処理装置。 - 複数の前記領域が設定され、それぞれの前記領域には前記撮像画像における前記領域の位置に応じた優先度が設定されること、
を特徴とする請求項4記載の情報処理装置。 - 前記撮像画像の底辺側に位置する前記領域には、当該領域よりも上辺側に位置する前記領域に比べて高い優先度が設定されること、
を特徴とする請求項4または5記載の情報処理装置。 - 前記制御部は、前記撮像画像の縁に重なる前記オブジェクトを前記使用者の身体の画像として検出すること、
を特徴とする請求項2から6のいずれかに記載の情報処理装置。 - 前記制御部は、前記撮像画像に含まれる人間の手の画像を検出し、前記手の画像が右手か左手か、及び、前記手の画像の前記撮像画像における位置に基づき、検出した前記手の画像を前記使用者の身体の画像と判定すること、
を特徴とする請求項2から7のいずれかに記載の情報処理装置。 - 前記制御部は、前記撮像画像において検出した前記人間の手の画像が前記撮像画像の縁を含む場合に、前記手の画像を前記使用者の身体の画像と判定すること、
を特徴とする請求項8記載の情報処理装置。 - 対象物までの距離を検出する距離検出部を備え、
前記制御部は、前記撮像画像に含まれる前記オブジェクトのうち、前記距離検出部により検出される距離が所定の距離以下の前記オブジェクトを前記使用者の身体の画像として検出すること、
を特徴とする請求項2から9のいずれかに記載の情報処理装置。 - 前記制御部は、前記撮像画像に含まれる人間の手の画像を検出し、前記手の画像に対応する前記対象物について前記距離検出部により検出された距離が、予め設定された複数の距離を含む場合に、前記手の画像を前記使用者の身体の画像と判定すること、
を特徴とする請求項2から7のいずれかに記載の情報処理装置。 - 前記制御部は、前記撮像画像に含まれる前記オブジェクトであって、前記使用者の身体との相対位置の差が所定距離以内の前記オブジェクトを、対象オブジェクトとして推定すること、
を特徴とする請求項1から11のいずれかに記載の情報処理装置。 - 前記制御部は、前記撮像画像から前記使用者の身体の影の画像を検出し、
前記撮像画像に含まれる前記オブジェクトであって、前記身体の影の画像との相対位置の差が所定距離以内の前記オブジェクトを、対象オブジェクトとして推定すること、
を特徴とする請求項12記載の情報処理装置。 - 前記使用者の身体に装着される身体装着型検出装置の検出状態または検出結果を取得する取得部を備え、
前記制御部は、前記取得部により取得される検出結果に基づいて、前記対象オブジェクトを推定すること、
を特徴とする請求項1から13のいずれかに記載の情報処理装置。 - 使用者の頭部に装着される表示部と、
前記使用者の視野の少なくとも一部を含む範囲を撮像する撮像部と、
前記撮像部により撮像された撮像画像に基づき前記使用者の操作を検出し、検出した操作に従って、前記撮像画像に含まれるオブジェクトから対象オブジェクトを推定する制御部と、
を備えることを特徴とする表示装置。 - 前記制御部は、前記撮像画像に含まれる前記オブジェクトと、前記撮像画像に含まれる前記使用者の身体の画像とを検出し、前記使用者の身体以外の前記オブジェクトの位置及び形状に合わせてGUI画像を前記表示部により表示させること、
を特徴とする請求項15記載の表示装置。 - 対象物までの距離を検出する距離検出部を備え、
前記制御部は、前記使用者の身体以外の前記オブジェクトに対応する前記対象物までの距離に基づき、前記GUI画像を前記表示部により表示させること、
を特徴とする請求項16記載の表示装置。 - 使用者の視野の少なくとも一部を含む範囲を撮像し、
撮像画像に基づき前記使用者の操作を検出し、検出した操作に従って、前記撮像画像に含まれる複数のオブジェクトから、いずれかの前記オブジェクトを対象オブジェクトとして推定すること、
を特徴とする情報処理方法。 - 情報処理装置を制御するコンピューターが実行可能なプログラムであって、
前記コンピューターにより、
使用者の視野の少なくとも一部を含む範囲を撮像した撮像画像に基づき、前記使用者の操作を検出し、検出した操作に従って、前記撮像画像に含まれる複数のオブジェクトから、いずれかの前記オブジェクトを対象オブジェクトとして推定する処理を実行するためのプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015236321A JP6786792B2 (ja) | 2015-12-03 | 2015-12-03 | 情報処理装置、表示装置、情報処理方法、及び、プログラム |
| US15/352,003 US10102676B2 (en) | 2015-12-03 | 2016-11-15 | Information processing apparatus, display apparatus, information processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015236321A JP6786792B2 (ja) | 2015-12-03 | 2015-12-03 | 情報処理装置、表示装置、情報処理方法、及び、プログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2017102768A true JP2017102768A (ja) | 2017-06-08 |
| JP6786792B2 JP6786792B2 (ja) | 2020-11-18 |
Family
ID=58799225
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015236321A Active JP6786792B2 (ja) | 2015-12-03 | 2015-12-03 | 情報処理装置、表示装置、情報処理方法、及び、プログラム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US10102676B2 (ja) |
| JP (1) | JP6786792B2 (ja) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018196596A (ja) * | 2017-05-24 | 2018-12-13 | 株式会社大一商会 | 遊技機 |
| JP2018196592A (ja) * | 2017-05-24 | 2018-12-13 | 株式会社大一商会 | 遊技機 |
| JP2019053603A (ja) * | 2017-09-15 | 2019-04-04 | 富士通株式会社 | 表示制御プログラム、装置、及び方法 |
| WO2019155710A1 (ja) * | 2018-02-09 | 2019-08-15 | ソニー株式会社 | 制御装置、制御方法及びプログラム |
| WO2021005655A1 (ja) * | 2019-07-05 | 2021-01-14 | マクセル株式会社 | ヘッドマウントディスプレイ |
| WO2023095559A1 (ja) * | 2021-11-24 | 2023-06-01 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | ウェアラブル装置、情報処理方法及び情報処理プログラム |
Families Citing this family (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018092313A (ja) * | 2016-12-01 | 2018-06-14 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
| US10620779B2 (en) * | 2017-04-24 | 2020-04-14 | Microsoft Technology Licensing, Llc | Navigating a holographic image |
| US11966793B1 (en) * | 2017-10-18 | 2024-04-23 | Campfire 3D, Inc. | Systems and methods to extend an interactive space across multiple platforms |
| WO2019222541A1 (en) * | 2018-05-16 | 2019-11-21 | Conex Digital Llc | Smart platform counter display system and method |
| KR102782794B1 (ko) * | 2018-12-26 | 2025-03-19 | 삼성전자주식회사 | 진정 사용자의 손을 식별하는 방법 및 이를 위한 웨어러블 기기 |
| US11106949B2 (en) * | 2019-03-22 | 2021-08-31 | Microsoft Technology Licensing, Llc | Action classification based on manipulated object movement |
| US11934584B2 (en) | 2019-09-27 | 2024-03-19 | Apple Inc. | Finger orientation touch detection |
| US12211227B2 (en) * | 2019-11-15 | 2025-01-28 | Ntt Docomo, Inc. | Information processing apparatus |
| US11175730B2 (en) | 2019-12-06 | 2021-11-16 | Facebook Technologies, Llc | Posture-based virtual space configurations |
| US11748796B2 (en) * | 2020-03-19 | 2023-09-05 | Adobe Inc. | Automatic clustering and mapping of user generated content with curated content |
| US11257280B1 (en) | 2020-05-28 | 2022-02-22 | Facebook Technologies, Llc | Element-based switching of ray casting rules |
| US11256336B2 (en) | 2020-06-29 | 2022-02-22 | Facebook Technologies, Llc | Integration of artificial reality interaction modes |
| WO2022004483A1 (ja) * | 2020-06-29 | 2022-01-06 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
| US11320896B2 (en) * | 2020-08-03 | 2022-05-03 | Facebook Technologies, Llc. | Systems and methods for object tracking using fused data |
| US11178376B1 (en) | 2020-09-04 | 2021-11-16 | Facebook Technologies, Llc | Metering for display modes in artificial reality |
| US12439145B1 (en) | 2020-09-25 | 2025-10-07 | Apple Inc. | Determining an intended gesture when hands are occupied |
| US11640723B2 (en) * | 2020-10-20 | 2023-05-02 | Rosemount Aerospace Inc. | System and method for enhanced surveillance using video analytics |
| EP4279982A4 (en) * | 2021-01-14 | 2024-06-19 | Sony Group Corporation | IMAGE DISPLAY DEVICE AND IMAGE DISPLAY SYSTEM |
| US11294475B1 (en) | 2021-02-08 | 2022-04-05 | Facebook Technologies, Llc | Artificial reality multi-modal input switching model |
| US12164741B2 (en) | 2022-04-11 | 2024-12-10 | Meta Platforms Technologies, Llc | Activating a snap point in an artificial reality environment |
Citations (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000148381A (ja) * | 1998-11-05 | 2000-05-26 | Telecommunication Advancement Organization Of Japan | 入力画像処理方法、入力画像処理装置、及び入力画像処理プログラムを記録した記録媒体 |
| WO2009035100A1 (ja) * | 2007-09-14 | 2009-03-19 | National Institute Of Advanced Industrial Science And Technology | バーチャルリアリティ環境生成装置及びコントローラ装置 |
| US20090109795A1 (en) * | 2007-10-26 | 2009-04-30 | Samsung Electronics Co., Ltd. | System and method for selection of an object of interest during physical browsing by finger pointing and snapping |
| JP2009134693A (ja) * | 2007-10-30 | 2009-06-18 | Canon Inc | 画像処理装置、画像処理方法 |
| JP2011022945A (ja) * | 2009-07-17 | 2011-02-03 | Dainippon Printing Co Ltd | 指先操作型情報提供システム、プログラム、記録媒体 |
| JP2011180712A (ja) * | 2010-02-26 | 2011-09-15 | Sanyo Electric Co Ltd | 投写型映像表示装置 |
| JP2013175909A (ja) * | 2012-02-24 | 2013-09-05 | Nikon Corp | 頭部装着装置 |
| JP2013190941A (ja) * | 2012-03-13 | 2013-09-26 | Nikon Corp | 情報入出力装置、及び頭部装着表示装置 |
| JP2013206412A (ja) * | 2012-03-29 | 2013-10-07 | Brother Ind Ltd | ヘッドマウントディスプレイ及びコンピュータプログラム |
| JP2014004154A (ja) * | 2012-06-25 | 2014-01-16 | Omron Corp | 遊技機 |
| WO2014045683A1 (ja) * | 2012-09-21 | 2014-03-27 | ソニー株式会社 | 制御装置および記憶媒体 |
| JP2015119373A (ja) * | 2013-12-19 | 2015-06-25 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
| JP2015141215A (ja) * | 2014-01-27 | 2015-08-03 | 村田機械株式会社 | ヘッドマウントディスプレイ装置 |
| JP2017219911A (ja) * | 2016-06-03 | 2017-12-14 | 京セラドキュメントソリューションズ株式会社 | 印刷システム |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4351599B2 (ja) * | 2004-09-03 | 2009-10-28 | パナソニック株式会社 | 入力装置 |
| JP4679661B1 (ja) * | 2009-12-15 | 2011-04-27 | 株式会社東芝 | 情報提示装置、情報提示方法及びプログラム |
| JP5656457B2 (ja) | 2010-06-01 | 2015-01-21 | シャープ株式会社 | 商品情報提供端末装置および商品情報提供システム |
| US9383895B1 (en) * | 2012-05-05 | 2016-07-05 | F. Vinayak | Methods and systems for interactively producing shapes in three-dimensional space |
| JP6217244B2 (ja) | 2013-08-29 | 2017-10-25 | セイコーエプソン株式会社 | 画像処理装置、これを有する頭部装着型表示装置、画像処理方法およびコンピュータープログラム |
| JP6237000B2 (ja) | 2013-08-29 | 2017-11-29 | セイコーエプソン株式会社 | 頭部装着型表示装置 |
-
2015
- 2015-12-03 JP JP2015236321A patent/JP6786792B2/ja active Active
-
2016
- 2016-11-15 US US15/352,003 patent/US10102676B2/en active Active
Patent Citations (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000148381A (ja) * | 1998-11-05 | 2000-05-26 | Telecommunication Advancement Organization Of Japan | 入力画像処理方法、入力画像処理装置、及び入力画像処理プログラムを記録した記録媒体 |
| WO2009035100A1 (ja) * | 2007-09-14 | 2009-03-19 | National Institute Of Advanced Industrial Science And Technology | バーチャルリアリティ環境生成装置及びコントローラ装置 |
| US20090109795A1 (en) * | 2007-10-26 | 2009-04-30 | Samsung Electronics Co., Ltd. | System and method for selection of an object of interest during physical browsing by finger pointing and snapping |
| JP2009134693A (ja) * | 2007-10-30 | 2009-06-18 | Canon Inc | 画像処理装置、画像処理方法 |
| JP2011022945A (ja) * | 2009-07-17 | 2011-02-03 | Dainippon Printing Co Ltd | 指先操作型情報提供システム、プログラム、記録媒体 |
| JP2011180712A (ja) * | 2010-02-26 | 2011-09-15 | Sanyo Electric Co Ltd | 投写型映像表示装置 |
| JP2013175909A (ja) * | 2012-02-24 | 2013-09-05 | Nikon Corp | 頭部装着装置 |
| JP2013190941A (ja) * | 2012-03-13 | 2013-09-26 | Nikon Corp | 情報入出力装置、及び頭部装着表示装置 |
| JP2013206412A (ja) * | 2012-03-29 | 2013-10-07 | Brother Ind Ltd | ヘッドマウントディスプレイ及びコンピュータプログラム |
| JP2014004154A (ja) * | 2012-06-25 | 2014-01-16 | Omron Corp | 遊技機 |
| WO2014045683A1 (ja) * | 2012-09-21 | 2014-03-27 | ソニー株式会社 | 制御装置および記憶媒体 |
| US20150227222A1 (en) * | 2012-09-21 | 2015-08-13 | Sony Corporation | Control device and storage medium |
| JP2015119373A (ja) * | 2013-12-19 | 2015-06-25 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
| JP2015141215A (ja) * | 2014-01-27 | 2015-08-03 | 村田機械株式会社 | ヘッドマウントディスプレイ装置 |
| JP2017219911A (ja) * | 2016-06-03 | 2017-12-14 | 京セラドキュメントソリューションズ株式会社 | 印刷システム |
Non-Patent Citations (1)
| Title |
|---|
| 栃尾 篤志 他: ""KinectとHMDによるVRユーザ・インタフェイスの試み", FIT2013 第12回情報科学技術フォーラム 講演論文集 第3分冊 査読付き論文・一般論文 画像認, vol. 第3分冊, JPN6019027565, 20 August 2013 (2013-08-20), JP, pages 523 - 526, ISSN: 0004212346 * |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018196596A (ja) * | 2017-05-24 | 2018-12-13 | 株式会社大一商会 | 遊技機 |
| JP2018196592A (ja) * | 2017-05-24 | 2018-12-13 | 株式会社大一商会 | 遊技機 |
| JP2019053603A (ja) * | 2017-09-15 | 2019-04-04 | 富士通株式会社 | 表示制御プログラム、装置、及び方法 |
| WO2019155710A1 (ja) * | 2018-02-09 | 2019-08-15 | ソニー株式会社 | 制御装置、制御方法及びプログラム |
| WO2021005655A1 (ja) * | 2019-07-05 | 2021-01-14 | マクセル株式会社 | ヘッドマウントディスプレイ |
| WO2023095559A1 (ja) * | 2021-11-24 | 2023-06-01 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | ウェアラブル装置、情報処理方法及び情報処理プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| US20170161957A1 (en) | 2017-06-08 |
| US10102676B2 (en) | 2018-10-16 |
| JP6786792B2 (ja) | 2020-11-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6786792B2 (ja) | 情報処理装置、表示装置、情報処理方法、及び、プログラム | |
| CN110647237B (zh) | 在人工现实环境中基于手势的内容共享 | |
| US9898868B2 (en) | Display device, method of controlling the same, and program | |
| US12517575B2 (en) | Object selection based on eye tracking in wearable device | |
| EP3717992B1 (en) | Device for providing augmented reality service, and method of operating the same | |
| US10643390B2 (en) | Head mounted display, method for controlling head mounted display, and computer program | |
| CN103917913B (zh) | 头戴式显示器、控制光学系统的方法及计算机可读介质 | |
| US20140152558A1 (en) | Direct hologram manipulation using imu | |
| US10474226B2 (en) | Head-mounted display device, computer program, and control method for head-mounted display device | |
| JP5295714B2 (ja) | 表示装置、画像処理方法、及びコンピュータプログラム | |
| US20140160157A1 (en) | People-triggered holographic reminders | |
| JP6492531B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
| JP2016507805A (ja) | 複合現実環境のための直接インタラクション・システム | |
| JP2016224086A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
| JP2017016056A (ja) | 表示システム、表示装置、表示装置の制御方法、及び、プログラム | |
| US10437882B2 (en) | Object occlusion to initiate a visual search | |
| WO2014128773A1 (ja) | ジェスチャ登録装置、ジェスチャ登録プログラムおよびジェスチャ登録方法 | |
| US9298256B1 (en) | Visual completion | |
| JP6554948B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
| JP2018084886A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム | |
| JP2014187574A (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
| JP6740613B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
| JP2017079389A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
| US20240393593A1 (en) | Smart contact lens with waveguide display and focusing system | |
| JP2016090853A (ja) | 表示装置、表示装置の制御方法、及び、プログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20180906 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181119 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181126 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190626 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190723 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190830 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190912 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200218 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200406 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200929 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201012 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6786792 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |