JPH0317696A - Cursor controller - Google Patents
Cursor controllerInfo
- Publication number
- JPH0317696A JPH0317696A JP1152873A JP15287389A JPH0317696A JP H0317696 A JPH0317696 A JP H0317696A JP 1152873 A JP1152873 A JP 1152873A JP 15287389 A JP15287389 A JP 15287389A JP H0317696 A JPH0317696 A JP H0317696A
- Authority
- JP
- Japan
- Prior art keywords
- cursor
- screen
- image
- coincidence
- view position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Digital Computer Display Output (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
【発明の詳細な説明】
[概要]
画面に表示するカーソルの位置を制御するカーソル制御
装置に関し、
画面上のカーソルを目標位置へ容易迅速に移動可能にす
ることを目的とし、
画面前方を撮像する撮像装置と、該撮像装置による撮影
画像のなかの目の画像から該画面を含む平面内の目視位
置を算出する目視位置算出手段と、操作キーと、該操作
キーの操作に応答して、該目視位置へカーソルを移動さ
せるカーソル移動手段と、を備えて構戊する。[Detailed Description of the Invention] [Summary] Regarding a cursor control device that controls the position of a cursor displayed on a screen, the object is to easily and quickly move the cursor on the screen to a target position, and to image the front of the screen. an imaging device, a viewing position calculating means for calculating a viewing position in a plane including the screen from an eye image in an image taken by the imaging device, an operation key, and a viewing position calculating means that calculates a viewing position in a plane including the screen from an image of the eye in an image taken by the imaging device; and cursor moving means for moving the cursor to a viewing position.
[産業上の利用分野]
本発明は、画面に表示するカーソルの位置を制御するカ
ーンル制御装置に関する。[Industrial Application Field] The present invention relates to a Kahnle control device that controls the position of a cursor displayed on a screen.
[従来の技術]
計算機やワードプロセッサ等で(ま、入力の速さが使い
勝手を大きく決定する。[Conventional technology] With computers, word processors, etc. (well, input speed largely determines usability.
画面上のカーソルの移動制御は、一般に、左右上下方向
を指示する4個のカーソルコントロールキーを摸作して
行われる。このキー操作では、カーソル移動速度を速く
すると停止制御が容易でなく、また、カーソル移動速度
を遅くすると人力速度が遅くなる。これに対し、マウス
はカーソルの移動速度を自由に制御できるので、キーボ
ードより迅速にカーソルを目標位置に移動させることが
できる。しかし、キーボードの操作が主である場合には
、マウスとキーボードの両者を交互に操作しなければな
らず、操作が煩雑となり入力速度が遅くなる。Movement of the cursor on the screen is generally controlled by imitating four cursor control keys that direct left, right, up, and down directions. In this key operation, if the cursor movement speed is increased, stop control is not easy, and if the cursor movement speed is slowed, the manual speed becomes slow. On the other hand, with a mouse, the moving speed of the cursor can be freely controlled, so the cursor can be moved to a target position more quickly than with a keyboard. However, when the keyboard is the main operation, both the mouse and the keyboard must be operated alternately, making the operation complicated and slowing down the input speed.
[発明が解決しようとする課題]
本発明の目的は、このような問題点に鑑み、画面上のカ
ーソルを目標位置へ容易迅速に移動させることが可能な
カーソル制御装置を提供することにある。[Problems to be Solved by the Invention] In view of the above problems, an object of the present invention is to provide a cursor control device that can easily and quickly move a cursor on a screen to a target position.
[課題を解決するための手段J 第1図は本発明の原理構戒を示す。[Means to solve the problem J FIG. 1 shows the basic structure of the present invention.
図中、1は撮像装置であり、画面2の前方を撮像する。In the figure, 1 is an imaging device, which images the front of the screen 2.
3は目視位置算出手段であり、撮像装置1による撮影画
像のなかの目の画像から、画面2を含む平面内の目視位
置(X, Y)を算出する。Reference numeral 3 denotes a visual position calculation means, which calculates a visual position (X, Y) in a plane including the screen 2 from an eye image in an image captured by the imaging device 1.
4は操作キーであり、制御指令を入力するためのもので
ある。4 is an operation key for inputting control commands.
5はカーソル移動手段であり、操作キー4の操作に応答
して、目視位置(X, Y)へカーソル6を移動させる
。A cursor moving means 5 moves the cursor 6 to the viewing position (X, Y) in response to the operation of the operation key 4.
[作用]
本発明では、操作キー4の操作に応答して、目視位置c
x. y>ヘカーソル6を移動させるので、カーソルを
目標位置へ容易迅速に移動させることができる。[Function] In the present invention, in response to the operation of the operation key 4, the visual position c
x. Since the cursor 6 is moved to y>y, the cursor can be easily and quickly moved to the target position.
「実施例〕 以下、図面に基づいて本発明の実施例を説明する。"Example〕 Embodiments of the present invention will be described below based on the drawings.
(1)第1実施例
第2図はワードプロセッサー等に適用されるカーソル制
御装置の要部構成を示す。(1) First Embodiment FIG. 2 shows the main structure of a cursor control device applied to a word processor or the like.
画面10はハウジングl2の前面に配置され、この前面
の上端左右隅邪には、画面10の前方を撮像する撮像装
置14A,14Bが配置されている。2台の撮像装置を
使用するのは立体的画像をつるためである。撮像装置1
4A,14Bから出力される映像信号は、それぞれA/
D変換器16A,16Bでデジタル変換された後、画像
メモリ18A.18Bに書き込まれる。The screen 10 is disposed on the front surface of the housing l2, and imaging devices 14A and 14B for capturing an image in front of the screen 10 are disposed at the left and right corners of the upper end of the front surface. The reason why two imaging devices are used is to create three-dimensional images. Imaging device 1
The video signals output from 4A and 14B are A/
After being digitally converted by the D converters 16A, 16B, the image memory 18A. Written to 18B.
MPtl20は、画像メモ!I l 8A,1 8Bに
書き込まれた画像のうち、操作者22の目の画像を抽出
し、これを処理して、画面10を含む平面内における操
作者22の目視位置を算出する。以下、画面10の左上
隅を原点とするXY直交座標における目視位置を(X.
Y)で示す。MPU2 0はこのXの値を水平カーソ
ルレジスタ24へ書込み、Yの値を垂直カーソルレジス
タ26へ書き込ム。MPtl20 is an image memo! The image of the operator's 22 eyes is extracted from the images written in I 8A and 1 8B, and is processed to calculate the visual position of the operator 22 within a plane including the screen 10. Hereinafter, the visual position in the XY orthogonal coordinates with the upper left corner of the screen 10 as the origin will be expressed as (X.
Y). The MPU 20 writes the value of X to the horizontal cursor register 24 and the value of Y to the vertical cursor register 26.
一方、画面走査に付随するパルスを周知の如く列カウン
タ28、行カウンタ30で計数して、画面10上の現走
査位置を列カウンタ28、行カウンタ30に保持する。On the other hand, pulses associated with screen scanning are counted by a column counter 28 and a row counter 30, as is well known, and the current scanning position on the screen 10 is held in the column counter 28 and row counter 30.
水平カーソルレジスタ24及び列カウンタ28の内容は
一致回路32へ供給されて両者の一致が判定され、垂直
カーソルレジスタ26及び行カウンタ30の内容は一致
回路34へ供給されて両者の一致が判定される。そして
、一致回路32及び34から両一致信号が出力された時
点での走査位置にカーソル36が表示される。The contents of the horizontal cursor register 24 and column counter 28 are supplied to a match circuit 32 to determine if they match, and the contents of the vertical cursor register 26 and row counter 30 are supplied to a match circuit 34 to determine if they match. . Then, a cursor 36 is displayed at the scanning position at the time when both coincidence signals are output from the coincidence circuits 32 and 34.
このようなカーソル移動制御は操作者22がカーソル浮
遊キー38を押している間のみ行われる。Such cursor movement control is performed only while the operator 22 is pressing the cursor floating key 38.
次に、カーソル36の移動制御を第4図に示すフローチ
ャートに基づいて説明する。Next, movement control of the cursor 36 will be explained based on the flowchart shown in FIG.
この処理は、カーソル浮遊キー38を押すことによりM
Ptl20に割り込みが掛かって、開始される。This process can be performed by pressing the cursor floating key 38.
Ptl20 is interrupted and started.
(50)第3図に示す如く、虹彩40Aの中心にある瞳
孔42Aと画面10との間の距離L,は、撮像装[14
A,14B間の距離、撮像装置14Aから見た瞳孔42
Aの方位及び撮像装置14Bから見た瞳孔42Aの方位
を用いて、三角測量法により測定することができる。虹
彩40Bの中心にある瞳孔42Bと画面10との間の距
#!L2についても同様である。そこで、MPU20は
、画像メモ!J18A及び画像メモ!J18Bに書き込
まれた画像の内、瞳孔42A,42Bの位置を求めて、
撮像装置14A,14Bから見たそれぞれの方位を算出
し、三角測量法により距離LI L,を算出し、これら
の平均値Lを算出する。(50) As shown in FIG. 3, the distance L between the pupil 42A at the center of the iris 40A and the screen 10 is
Distance between A and 14B, pupil 42 seen from imaging device 14A
It can be measured by triangulation using the orientation of A and the orientation of the pupil 42A viewed from the imaging device 14B. Distance # between the pupil 42B at the center of the iris 40B and the screen 10! The same applies to L2. Therefore, MPU20 uses image memo! J18A and image memo! Find the positions of pupils 42A and 42B in the image written in J18B,
The respective azimuths seen from the imaging devices 14A and 14B are calculated, distances LI L, are calculated by triangulation, and the average value L of these is calculated.
(52)次に、第3図において、瞳孔42Aの中心での
法線M,と瞳孔42Bの中心での法線M2とを求める。(52) Next, in FIG. 3, find the normal M at the center of the pupil 42A and the normal M2 at the center of the pupil 42B.
この法線は次のようにして求める。すなわち、瞳孔42
A,42Bは円形であるが、見る方向により異なる楕円
となる。MPU20は画像メモl318A,18Bに書
き込まれている瞳孔42A142Bの画像から立体空間
におけるこの楕円の長袖と短軸を求め、両軸に垂直な直
線を法線として求める。This normal is found as follows. That is, the pupil 42
A and 42B are circular, but they take on different ellipses depending on the viewing direction. The MPU 20 determines the long and short axes of this ellipse in three-dimensional space from the images of the pupils 42A and 142B written in the image memorandums 1318A and 18B, and determines the straight line perpendicular to both axes as the normal line.
(54)次に、法線M,、M,と画面10との交点を求
め、両交点の中点の座標を(X,Y)とする。(54) Next, find the intersection of the normals M, , M, and the screen 10, and set the coordinates of the midpoint of both intersections to (X, Y).
(56)この値Xを水平カーソルレジスタ24へ供給し
、値Yを垂直カーソルレジスタ26へ供給して画面IO
上の位置(X,Y)にカーソル36を表示させる。(56) This value X is supplied to the horizontal cursor register 24, the value Y is supplied to the vertical cursor register 26, and the screen IO
Display the cursor 36 at the upper position (X, Y).
(58)カーソル浮遊キー38がまだ押されていれば、
ステップ52へ戻り上記処理を繰り返す。(58) If the cursor floating key 38 is still pressed,
Returning to step 52, the above processing is repeated.
カーソル浮遊キー38が押されていなければ、以上の割
り込み処理を終了する。これにより、カーソル36の位
置が確定する。If the cursor floating key 38 is not pressed, the above interrupt processing is ended. This fixes the position of the cursor 36.
このようにして、カーソル36を瞬間的に目標位置に移
動させることができる。In this way, the cursor 36 can be instantaneously moved to the target position.
(2)第2実施例
この第2実施例では、撮像装置は1台で充分であり、上
記距離L及び法線Mを用いずに、目の画像を処理して目
視位置(X, Y)を算出する。(2) Second embodiment In this second embodiment, one imaging device is sufficient, and the eye image is processed to determine the viewing position (X, Y) without using the distance L and normal M. Calculate.
すなわち、操作者毎に次のような初期設定を行う。That is, the following initial settings are performed for each operator.
第5図に示す如く、画面10の左端中央に力一ソル36
.を表示させ、操作者22にこれを目視させる。この時
の目の画像を抽出し、上瞼と下瞼で囲まれる領域を、瞳
孔42Aの中心を通る縦方向の左右分割線44で2分割
し、両分割領域の面積A+B+を求め、さらにその比R
+= A ,/B 1を求める。As shown in FIG.
.. is displayed so that the operator 22 can visually check it. The eye image at this time is extracted, the area surrounded by the upper and lower eyelids is divided into two by the vertical left and right dividing line 44 passing through the center of the pupil 42A, the area A+B+ of both divided areas is calculated, and ratio R
Find += A, /B 1.
?に、画面10の右端中央にカーソル362を表示させ
、操作者22にこれを目視させ、上記同様に左右分割線
44で2分割された面積A2、B2を求め、さらにその
比R x” A 2/B 2を求める。? Then, display a cursor 362 at the center of the right end of the screen 10, have the operator 22 visually check it, calculate the areas A2 and B2 divided into two by the left and right dividing line 44 in the same manner as above, and further calculate the ratio R x "A 2 /B Find 2.
次に、画面10の上端中央にカーソル36,を表示させ
、操作者22にこれを目視させる。この時の目の画像を
抽出し、上瞼と下瞼で囲まれる領域を、瞳孔42八の中
心を通る横方向の上下分割線46で2分割し、両分割領
域の面積C,、D1を求め、さらにその比S,=C,/
D,を求める。Next, a cursor 36 is displayed at the center of the upper end of the screen 10, and the operator 22 is allowed to visually check it. The eye image at this time is extracted, and the area surrounded by the upper and lower eyelids is divided into two by a horizontal upper and lower dividing line 46 passing through the center of the pupil 428, and the area of both divided areas C, D1 is calculated. Find the ratio S,=C,/
Find D.
次に、画面10の下端中央にカーソル36,を表示させ
、操作者22にこれを目視させ、上記同様に上下分割l
a46で2分割された領域の面積C■、D2を求め、さ
らにその比S a=C z/D 2を求める。Next, a cursor 36 is displayed at the center of the lower end of the screen 10, and the operator 22 is made to visually check it.
The areas C2 and D2 of the area divided into two by a46 are determined, and the ratio S a =C z/D 2 is determined.
以上の初期設定を行なっておけば、水平方向の任意の目
視位置Xは、左右分割線44で分割された面積の比Rを
用いて、
X=+αR十β ・・・(1)と表される。Once the above initial settings are made, any visual position X in the horizontal direction can be expressed as: Ru.
ここにα、βは定数であり、カーソル36,の位[Xと
面積比R,及びカーソル36,の位置Xと面積比R2に
より決定される。Here, α and β are constants, and are determined by the position [X and area ratio R of the cursor 36, and the position X and area ratio R2 of the cursor 36.
また、垂直方向の任意の目視位置Yは、上下分割線46
で分割された面積の比Sを用いて、Y=rS+δ
・・・(2)と表される。ここにT1δは定数で
あり、カーソル36,の位置Yと面積比SI及びカーソ
ル36.の位置Yと面積比S,により決定される。Further, any visual position Y in the vertical direction is determined by the upper and lower dividing line 46.
Using the ratio S of the areas divided by, Y=rS+δ
...It is expressed as (2). Here, T1δ is a constant, and the position Y of the cursor 36, the area ratio SI, and the cursor 36. It is determined by the position Y and the area ratio S.
次に、カーソル移動制御の手順を第6図に示すフローチ
ャートに基づいて説明する。この処理は、第1実施例と
同様にカーソル浮遊ヰー38を押すことによりMPII
20に割り込みが掛り、開始される。Next, the procedure for controlling cursor movement will be explained based on the flowchart shown in FIG. This process can be performed by pressing the cursor floating key 38 in the same way as in the first embodiment.
20 is interrupted and started.
(60)目の画像から瞼が静止していることをamし、
その目の左右分割線44及び上下分割線46による分割
面積の比R,Sを算出する。(60) Am that the eyelids are stationary from the eye image,
The ratio R and S of the area divided by the left and right dividing lines 44 and the upper and lower dividing lines 46 of the eye is calculated.
(62)これらの比を上式(1) (2)に代入し
て目視位置(L Y)を算出する。(62) Substitute these ratios into the above equations (1) and (2) to calculate the visual position (L Y).
(64)第1実施例と同様に、この値Xを水平カーソル
レジスタ24へ供給し、値Yを垂直カーソルレジスタ2
6へ供給して画面lO上の位置(X. Y)にカーンル
36を表示させる。(64) Similarly to the first embodiment, this value X is supplied to the horizontal cursor register 24, and the value Y is supplied to the vertical cursor register 24.
6 to display the curve 36 at the position (X.Y) on the screen IO.
(66)カーソル浮遊キー38がまだ押されていれば、
ステップ60へ戻り上記処理を繰り返す。(66) If the cursor floating key 38 is still pressed,
Returning to step 60, the above processing is repeated.
カーソル浮遊キー38が押されていなければ、以上の割
り込み処理を終了する。これにより、カーソル36の位
置が確定する。If the cursor floating key 38 is not pressed, the above interrupt processing is ended. This fixes the position of the cursor 36.
このようにして、カーソル36を瞬間的に目標位置に移
動させることができる。In this way, the cursor 36 can be instantaneously moved to the target position.
なお、目視位置が画面10の外であれば、スクロールを
瞬間的に行なうようにすることもできる。Note that if the viewing position is outside the screen 10, scrolling may be performed instantaneously.
また、操作者の額に指向性のある赤外線放射器を配置し
、カーソル浮遊キー38を押している時のみ赤外線を放
射させ、画面側でこの赤外線を受光して目視位置を決定
する構或も考えられるが、本発明は人体に何も配置する
必要がなく、したがって操作中における赤外線放射器の
ずれ等の影響もなく、このような点でも優れている。Another idea is to place a directional infrared radiator on the operator's forehead, emit infrared rays only when the cursor floating key 38 is pressed, and receive this infrared rays on the screen side to determine the viewing position. However, the present invention does not require anything to be placed on the human body, and therefore is free from the effects of displacement of the infrared radiator during operation, and is also superior in this respect.
[発明の効果]
以上説明した如く、本発明に係るカーソル制御装置では
、操作キーの操作に応答して目視位置へカーソルを移動
させるので、カーソルを目標位置へ容易迅速に移動させ
ることができ、ワードプロセッサーや計算機等の使い勝
手が向上するという優れた効果を奏する。[Effects of the Invention] As explained above, in the cursor control device according to the present invention, since the cursor is moved to the viewing position in response to the operation of the operation key, the cursor can be easily and quickly moved to the target position. It has the excellent effect of improving the usability of word processors, calculators, etc.
第I図は本発明の原理構成図、
第2図乃至第4図は本発明の第1実施例に係り、第2図
はカーソル制御装置の構戒図、
第3゛図は目と目視位置との関係を示す目視位置算出説
明図、
第4図はカーソル移動制御の手順を示すフローチャート
である。
第5図及び第6図は本発明の第2実施例に係り、第5図
は目と目視位置との対応付けを示す初期設定説明図、
第6図はカーソル移動制御の手順を示すフローチャート
である。
図中、
10は画面
14A,14Bは撮像装置
16Δ、1. 6 BはA/D変換器
18A,18Bは画像メモリ
20はMP[I
36、361〜36,はカーソル
42A,42Bは瞳孔
第1図
第4図
第5図Figure I is a diagram of the principle configuration of the present invention, Figures 2 to 4 relate to the first embodiment of the present invention, Figure 2 is a composition diagram of the cursor control device, and Figure 3 is the eye and visual position. Fig. 4 is a flowchart showing the procedure of cursor movement control. 5 and 6 relate to the second embodiment of the present invention, FIG. 5 is an initial setting explanatory diagram showing the correspondence between eyes and viewing positions, and FIG. 6 is a flowchart showing the procedure of cursor movement control. be. In the figure, 10 is a screen 14A, 14B is an imaging device 16Δ, 1. 6 B is the A/D converter 18A, 18B is the image memory 20 is MP [I 36, 361 to 36, is the cursor 42A, 42B is the pupil.
Claims (1)
置(1)による撮影画像のなかの目の画像から該画面を
含む平面内の目視位置(X、Y)を算出する目視位置算
出手段(3)と、 操作キー(4)と、 該操作キー(4)の操作に応答して、該目視位置(X、
Y)へカーソル(6)を移動させるカーソル移動手段と
(5)、 を有することを特徴とするカーソル制御装置。[Claims] An imaging device (1) that captures an image in front of the screen (2), and a visual position (X, Y ), a visual position calculation means (3) for calculating the visual position (X,
A cursor control device comprising: (5) a cursor moving means for moving a cursor (6) to Y).
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP1152873A JPH0317696A (en) | 1989-06-14 | 1989-06-14 | Cursor controller |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP1152873A JPH0317696A (en) | 1989-06-14 | 1989-06-14 | Cursor controller |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH0317696A true JPH0317696A (en) | 1991-01-25 |
Family
ID=15549987
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP1152873A Pending JPH0317696A (en) | 1989-06-14 | 1989-06-14 | Cursor controller |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH0317696A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04309996A (en) * | 1991-04-08 | 1992-11-02 | Hitachi Ltd | Man-machine device |
| US5325133A (en) * | 1991-10-07 | 1994-06-28 | Konami Co., Ltd. | Device for measuring a retina reflected light amount and a gaze detecting apparatus using the same |
| US5617312A (en) * | 1993-11-19 | 1997-04-01 | Hitachi, Ltd. | Computer system that enters control information by means of video camera |
| US5686942A (en) * | 1994-12-01 | 1997-11-11 | National Semiconductor Corporation | Remote computer input system which detects point source on operator |
| US6158232A (en) * | 1998-03-13 | 2000-12-12 | Nec Corporation | Advanced liquid cooling apparatus |
| US6184863B1 (en) | 1998-10-13 | 2001-02-06 | The George Washington University | Direct pointing apparatus and method therefor |
-
1989
- 1989-06-14 JP JP1152873A patent/JPH0317696A/en active Pending
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04309996A (en) * | 1991-04-08 | 1992-11-02 | Hitachi Ltd | Man-machine device |
| US5325133A (en) * | 1991-10-07 | 1994-06-28 | Konami Co., Ltd. | Device for measuring a retina reflected light amount and a gaze detecting apparatus using the same |
| US5617312A (en) * | 1993-11-19 | 1997-04-01 | Hitachi, Ltd. | Computer system that enters control information by means of video camera |
| US5686942A (en) * | 1994-12-01 | 1997-11-11 | National Semiconductor Corporation | Remote computer input system which detects point source on operator |
| US6158232A (en) * | 1998-03-13 | 2000-12-12 | Nec Corporation | Advanced liquid cooling apparatus |
| US6184863B1 (en) | 1998-10-13 | 2001-02-06 | The George Washington University | Direct pointing apparatus and method therefor |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US6445364B2 (en) | Portable game display and method for controlling same | |
| USRE42336E1 (en) | Intuitive control of portable data displays | |
| US5483261A (en) | Graphical input controller and method with rear screen image detection | |
| JP4278979B2 (en) | Single camera system for gesture-based input and target indication | |
| US6198485B1 (en) | Method and apparatus for three-dimensional input entry | |
| US5512920A (en) | Locator device for control of graphical objects | |
| US10290155B2 (en) | 3D virtual environment interaction system | |
| JP3114813B2 (en) | Information input method | |
| US10627917B2 (en) | Object-sensing apparatus and object-sensing method | |
| CN117472189B (en) | Method for realizing typing or touching with physical feeling | |
| JPH0317696A (en) | Cursor controller | |
| TW201913298A (en) | Virtual reality system capable of showing real-time image of physical input device and controlling method thereof | |
| CN103558914A (en) | Single-camera virtual keyboard based on geometric correction and optimization | |
| JPS5856152B2 (en) | 3D figure reading display device | |
| JPH04205617A (en) | Input/output interface device | |
| US20260030854A1 (en) | Display control apparatus, method, and program | |
| JPH01191923A (en) | Display device for three-dimensional direction input | |
| JPH02186419A (en) | image display device | |
| JPH05108252A (en) | Cursor position control system | |
| JPH11197358A5 (en) | ||
| JPH01134521A (en) | Input/correction device for three-dimensional coordinate | |
| JPS6023889A (en) | How to display multi-cursors | |
| JPS58211242A (en) | Three-dimensional coordinate input device | |
| JPS63172384A (en) | perspective projection method | |
| JPH0546707A (en) | Information processor |