JPH0926850A - User interface device - Google Patents

User interface device

Info

Publication number
JPH0926850A
JPH0926850A JP17384295A JP17384295A JPH0926850A JP H0926850 A JPH0926850 A JP H0926850A JP 17384295 A JP17384295 A JP 17384295A JP 17384295 A JP17384295 A JP 17384295A JP H0926850 A JPH0926850 A JP H0926850A
Authority
JP
Japan
Prior art keywords
pointing device
mouse
user
user interface
feedback
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP17384295A
Other languages
Japanese (ja)
Inventor
Tsutomu Ozaka
勉 尾坂
Tadashi Naganuma
正 長沼
Makoto Yomo
誠 四方
Tomoyuki Isonuma
伴幸 磯沼
Koji Kawamura
興二 川村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP17384295A priority Critical patent/JPH0926850A/en
Publication of JPH0926850A publication Critical patent/JPH0926850A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

(57)【要約】 【目的】 マウス、トラックボール、タブレットなどの
ポインティングデバイスを用いたグラフィカルユーザイ
ンターフェースの操作性を向上する。 【構成】 ホストコンピュータ110およびマウス11
4から成るシステムにおいて、マウス114は、従来ど
おりの移動量検知部115およびボタン検知部116の
ほか、マウスの移動に関して使用者の手に反力を与える
反力制御部1を有し、グラフィカルユーザインターフェ
ースを用いる操作環境において、ポインティングデバイ
スによって操作されるポインタがオブジェクトあるいは
その近傍を通過・接近する際、ポインティングデバイス
の操作に関する情報を反力制御部1を介して、使用者に
フィードバックするとともに、ホストコンピュータ11
0において、反力制御部1のフィードバックに応じて生
じる使用者の操作情報を加工する。
(57) [Abstract] [Purpose] To improve the operability of the graphical user interface using a pointing device such as a mouse, trackball, or tablet. [Configuration] Host computer 110 and mouse 11
In the system consisting of four, the mouse 114 has a reaction amount control unit 1 and a button detection unit 116 as in the past, and a reaction force control unit 1 that applies a reaction force to the user's hand with respect to the movement of the mouse. In the operating environment using the interface, when the pointer operated by the pointing device passes or approaches the object or its vicinity, the information on the operation of the pointing device is fed back to the user via the reaction force control unit 1, and the host Computer 11
At 0, the operation information of the user generated in response to the feedback of the reaction force control unit 1 is processed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はユーザインターフェース
装置、特にマウス、タブレット、トラックボールなどの
ユーザインターフェース装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a user interface device, and more particularly to a user interface device such as a mouse, tablet or trackball.

【0002】[0002]

【従来の技術】従来より、コンピュータを操作したりデ
ータを入力するために、キーボード、タブレット、マウ
ス、トラックボールなどの入力装置が用いられている。
特に、モニタを観ながら座標情報や軌跡の情報をコンピ
ュータに入力できるタブレットやマウスは、グラフィカ
ルユーザインターフェースとともに用いられることが多
く、コンピュータの操作性を向上させることができる。
2. Description of the Related Art Conventionally, input devices such as a keyboard, a tablet, a mouse and a trackball have been used to operate a computer and input data.
In particular, a tablet or a mouse that can input coordinate information and trajectory information to a computer while observing a monitor is often used with a graphical user interface, which can improve the operability of the computer.

【0003】特に、マウスは、近年のいわゆるグラフィ
カルユーザインターフェース方式との関係が深く、アイ
コンやウインドウをクリック、ドラッグすることによ
り、直感的な操作が可能となり、一般ユーザにも広く受
けいれられている。
In particular, the mouse has a close relationship with the so-called graphical user interface system of recent years, and an intuitive operation is possible by clicking and dragging an icon or a window, which is widely accepted by general users.

【0004】図12は、従来のマウスの外観図で、符号
100はマウスの筺体、101と102は使用者が操作
するマウスボタン、103はホストコンピュータとデー
タ入出力および電源供給を受けるためのリード線であ
る。
FIG. 12 is an external view of a conventional mouse. Reference numeral 100 is a mouse housing, 101 and 102 are mouse buttons operated by a user, and 103 is a lead for receiving data input / output and power supply from a host computer. It is a line.

【0005】図13は、図12の側面を、また図14は
図12の底面を示しており、符号104はマウスの位置
を検出するための球形状をした検知ボールを示してい
る。図示のように検知ボール104はマウスの底面の開
口部104aから突出しており、マウスの移動の方向お
よび量に応じて自由に回転できるよう、不図示の支持機
構により支持される。符号105と106はマウスの滑
りを安定させる摺動部材で、ポリアセタールやテフロン
などの樹脂部材から構成される。
FIG. 13 shows the side surface of FIG. 12 and FIG. 14 shows the bottom surface of FIG. 12, and reference numeral 104 denotes a spherical detection ball for detecting the position of the mouse. As shown, the detection ball 104 projects from the opening 104a on the bottom surface of the mouse, and is supported by a support mechanism (not shown) so that the detection ball 104 can freely rotate depending on the direction and amount of movement of the mouse. Reference numerals 105 and 106 denote sliding members for stabilizing the sliding of the mouse, which are made of resin members such as polyacetal and Teflon.

【0006】図15は、マウス114を用いるシステム
全体を示している。ここで符号110はホストコンピュ
ータで、OS(オペレーションシステム)111、OS
あるいはアプリケーションレベルで実装され、マウスに
対する入出力制御を行なうためのマウスドライバ11
2、マウスとのハードウェア接続を行なうためのマウス
インターフェース113などを含み、種々のアプリケー
ションソフトを実行できるように構成されている。
FIG. 15 shows the entire system using the mouse 114. Here, reference numeral 110 is a host computer, which is an operating system (OS) 111, an OS.
Alternatively, a mouse driver 11 implemented at the application level for controlling input / output to / from the mouse
2. It includes a mouse interface 113 for hardware connection with a mouse, and is configured to execute various application software.

【0007】図15において、符号114はマウスで、
115の移動量検出部やマウスボタン101、102の
ON/OFF状態を検知するボタン検知部116を有し
ている。
In FIG. 15, reference numeral 114 is a mouse,
It has a movement amount detection unit 115 and a button detection unit 116 that detects the ON / OFF state of the mouse buttons 101 and 102.

【0008】図16はマウスの移動量検知部の代表的な
方式を示している。図示のように、マウス内部におい
て、検知ボール104には、一軸方向に回転してかつ光
学的なディスク状のスリットを具備する検知ローラ12
0と121が接触している。検知ローラ120、121
にはエンコーダ板120a、121aの回転を検知セン
サ122と123により、マウスの載置平面における移
動のうち、2本の直行座標軸のそれぞれの方向における
成分を検知する。符号124は検知ローラに摩擦力を生
じさせるための圧力ローラである。
FIG. 16 shows a typical method of a mouse movement amount detecting section. As shown in the figure, inside the mouse, the detection ball 104 has a detection roller 12 that rotates in one axial direction and has an optical disk-shaped slit.
0 and 121 are in contact. Detection rollers 120, 121
For detecting the rotation of the encoder plates 120a and 121a, the components of the movement of the mouse on the placement plane in the respective directions of the two orthogonal coordinate axes are detected by the detection sensors 122 and 123. Reference numeral 124 is a pressure roller for generating a frictional force on the detection roller.

【0009】ここでは、ボールの機械的な動きを光学エ
ンコーダを介して移動量を検出する構成を示したが、こ
の他にも検知手段としてマウス載置平面のパターンを光
学的に直接読み取る方式、磁気的な変化を用いたものな
ど、様々な方式が提案されている。
Here, a configuration has been shown in which the mechanical movement of the ball is detected by an optical encoder to detect the amount of movement. In addition to this, a method of directly reading the pattern of the mouse placement plane optically as a detection means, Various methods have been proposed, such as those using magnetic changes.

【0010】[0010]

【発明が解決しようとする課題】上記のような従来のマ
ウスは、ユーザインターフェースの手段であって、使用
者の意志をホストコンピュータに伝えるために使用され
る。
The conventional mouse as described above is a means of a user interface and is used to convey the user's intention to the host computer.

【0011】つまり、従来のマウスは、使用者からコン
ピュータへ一方通行で情報入力を行なうものであり、入
力した情報を使用者にフィードバックするためにはディ
スプレイなどが不可欠であって、以下のような問題があ
る。
That is, the conventional mouse is one-way information input from the user to the computer, and a display or the like is indispensable for feeding back the input information to the user. There's a problem.

【0012】1)アイコンやウインドウのドラッグ(マ
ウスボタンを押下した状態で、マウスを移動させ、アイ
コンやウインドウなどのオブジェクトをディスプレイ上
で引っ張る動作)などのモニタ上でオブジェクトを操作
している時に、ディスプレイを観る以外の確認手段がな
い。
1) When operating an object on a monitor such as dragging an icon or a window (moving the mouse while the mouse button is pressed and pulling an object such as an icon or window on the display). There is no other confirmation method than looking at the display.

【0013】2)アイコンやウインドウを選択する際に
はポインタを正確にオブジェクト上に置く必要がある。
2) When selecting an icon or window, it is necessary to place the pointer exactly on the object.

【0014】このような問題は、マウス、トラックボー
ル、タブレットなどのポインティングデバイスで上記同
様のグラフィカルユーザインターフェースを構成しよう
とした場合でも同様である。
Such a problem also occurs when an attempt is made to configure a similar graphical user interface with a pointing device such as a mouse, trackball or tablet.

【0015】本発明の課題は、以上の問題を解決し、マ
ウス、トラックボール、タブレットなどのポインティン
グデバイスを用いてグラフィカルユーザインターフェー
スを構成する場合、操作性を大きく向上できるユーザイ
ンターフェース装置を提供することにある。
An object of the present invention is to solve the above problems and provide a user interface device which can greatly improve the operability when a graphical user interface is constructed using a pointing device such as a mouse, a trackball or a tablet. It is in.

【0016】[0016]

【課題を解決するための手段】以上の課題を解決するた
めに、本発明においては、使用者のポインティングデバ
イスの操作に対して、ポインティングデバイスに反力、
振動、衝撃などの機械的作用により使用者に情報をフィ
ードバックするフィードバック手段と、ディスプレイ上
にアイコン、ウインドウ、ポップアップメニューなどの
オブジェクトを配置して成るグラフィカルユーザインタ
ーフェースを用いる操作環境において、ポインティング
デバイスによって操作されるポインタが操作対象のオブ
ジェクトあるいはその近傍を通過・接近する際、ポイン
ティングデバイスの操作に関する情報を前記フィードバ
ック手段を介して、使用者にフィードバックするととも
に、このフィードバックに応じた使用者の前記ポインテ
ィングデバイスの操作に関する情報を処理する制御手段
を設けた構成を採用した。
In order to solve the above problems, in the present invention, a reaction force to the pointing device with respect to the operation of the pointing device by the user,
Operate with a pointing device in an operating environment that uses a feedback means that feeds back information to the user by mechanical action such as vibration or shock, and a graphical user interface that arranges objects such as icons, windows, and pop-up menus on the display. When the pointer to be passed or approaches an object to be operated or its vicinity, the information about the operation of the pointing device is fed back to the user via the feedback means, and the pointing device of the user according to the feedback. The configuration provided with the control means for processing the information regarding the operation of was adopted.

【0017】[0017]

【作用】以上の構成によれば、ポインティングデバイス
の操作に関する情報を前記フィードバック手段を介し
て、使用者にフィードバックするとともに、このフィー
ドバックに応じた使用者の前記ポインティングデバイス
の操作に関する情報を処理する制御手段を設けているた
めに、可視表示以外の手段を介してのユーザインターフ
ェースが可能となる。
According to the above construction, the control for feeding back the information on the operation of the pointing device to the user through the feedback means and for processing the information on the operation of the pointing device by the user according to the feedback. The provision of the means enables the user interface through means other than the visual display.

【0018】[0018]

【実施例】以下、図面に示す実施例に基づき、本発明を
詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail based on embodiments shown in the drawings.

【0019】本発明では、使用者がポインティングデバ
イスを操作する際に、振動・反力・衝撃などの機械的作
用を発生させることにより、その手応えや感触を制御し
て、この手応えや感触を介してポインティングデバイス
の操作、ないしポインティングデバイスから入力された
情報を使用者にフィードバックする。なお、以下では主
にマウスを実施例として示す。
According to the present invention, when the user operates the pointing device, a mechanical action such as vibration, reaction force, and impact is generated to control the response and feel of the pointing device. The operation of the pointing device or the information input from the pointing device is fed back to the user. In the following, a mouse will be mainly shown as an example.

【0020】<第1実施例>図1はこのような動作が可
能なコンピュータシステムの構造を示しており、図12
の従来例と異なるのは、マウス114に反力制御部1が
設けられている点である。
<First Embodiment> FIG. 1 shows the structure of a computer system capable of performing such operations.
The difference from the conventional example is that the mouse 114 is provided with the reaction force control unit 1.

【0021】図2はマウス114の構造を示す。ここで
は、図示のように、符号10〜14の各部材から構成さ
れた反力制御部1をマウスに設ける。
FIG. 2 shows the structure of the mouse 114. Here, as shown in the figure, the reaction force control unit 1 including the members 10 to 14 is provided in the mouse.

【0022】この反力制御部1は、検知ボール104と
摺動してこれを制動するための適当な摩擦係数を有する
摩擦パッド10、摩擦パッド10を支持すべく回転中心
12に回転自在に支持されたアーム11、アーム11先
端に固定された磁石13、および磁石13と対抗すべく
マウス内に配置された電流値において磁場を発生する電
磁コイル14からなる。
The reaction force control section 1 is rotatably supported on a rotation center 12 to support the friction pad 10 and the friction pad 10 having an appropriate friction coefficient for sliding and braking the detection ball 104. The arm 11 includes a fixed arm 11, a magnet 13 fixed to the tip of the arm 11, and an electromagnetic coil 14 that generates a magnetic field at a current value arranged in the mouse so as to oppose the magnet 13.

【0023】反力制御部1は、電磁コイル14と磁石1
3との吸引力により、回転中心12を支点に、摩擦パッ
ド10と、マウスの移動を検出するための検知ボール1
04の間に圧力を生じさせる。その時に生じる摩擦力に
より、反力を生成する。
The reaction force control unit 1 includes an electromagnetic coil 14 and a magnet 1.
The frictional pad 10 and the detection ball 1 for detecting the movement of the mouse with the center of rotation 12 as the fulcrum by the attraction force with the friction pad 3.
A pressure is created during 04. The frictional force generated at that time generates a reaction force.

【0024】この時の反力の強さは電磁コイルに流す電
流値によって制御できる。また、反力制御部1の制御を
解除するには、予めバネなどで付勢するか、電磁コイル
14と磁石13が反発する方向に電磁コイル14の電流
を流す。
The strength of the reaction force at this time can be controlled by the value of the current passed through the electromagnetic coil. Further, in order to release the control of the reaction force control unit 1, a spring or the like is urged in advance, or a current of the electromagnetic coil 14 is caused to flow in a direction in which the electromagnetic coil 14 and the magnet 13 repel each other.

【0025】この時に反力を制御する手段としては、電
磁コイルと磁石を用いる方法に限ることなく、圧電素子
やピエゾ素子などのいずれの電気機械変換素子を用いて
もよい。
At this time, the means for controlling the reaction force is not limited to the method using the electromagnetic coil and the magnet, and any electromechanical conversion element such as a piezoelectric element or a piezo element may be used.

【0026】反力制御部1は、ホストコンピュータ11
0からの制御により適宜作動させ、マウスの操作やマウ
スからの情報を使用者にフィードバックするために使用
することができる。このために、マウスインターフェー
スにはホストコンピュータから反力制御部を制御するた
めの信号線を追加しておく。
The reaction force control unit 1 includes a host computer 11
It can be appropriately operated by control from 0, and can be used to feed back information from the mouse operation or mouse to the user. Therefore, a signal line for controlling the reaction force control unit from the host computer is added to the mouse interface.

【0027】図3は本実施例で動作しているグラフィカ
ルユーザインターフェースの例である。図3はホストコ
ンピュータに接続されたモニタテレビの画面を表す図面
で、符号30はウインドウの最も外側の境界の外枠、3
1はウインドウのタイトルバー、32はメニューバー、
33はウインドウ、34a、34b、34c、34dと
34eはディスクファイルや入出力デバイスを仮想的に
使用者に表示するためのオブジェクトであるアイコン、
35はマウスのポインタである。
FIG. 3 is an example of a graphical user interface operating in this embodiment. FIG. 3 is a diagram showing a screen of a monitor television connected to a host computer, and reference numeral 30 is an outer frame of the outermost boundary of the window, 3
1 is the title bar of the window, 32 is the menu bar,
33 is a window, 34a, 34b, 34c, 34d and 34e are icons which are objects for virtually displaying a disk file or an input / output device to the user,
Reference numeral 35 is a mouse pointer.

【0028】このようにアイコン、ウインドウ、メニュ
ーなどのオブジェクトを用いるインターフェースでは、
ファイルの移動、コピー、削除、周辺装置との入出力、
また、ディスプレイ上でそのような作業を行なうための
場所をデスクトップのウィンドウ上に空けるなどの目的
で、ファイルシステム上のディレクトリや、アプリケー
ションソフトウェアなどに関連づけられたアイコン、ウ
インドウ、メニューなどのオブジェクトを移動したりす
ることがある。
As described above, in an interface using objects such as icons, windows, and menus,
Move, copy, delete files, input and output with peripherals,
Also, move objects such as icons, windows, and menus associated with directories on the file system or application software to make room on the display for windows on your desktop. There is something to do.

【0029】本実施例のマウスは、このような移動操作
において、次のような用途に使用できる。
The mouse of this embodiment can be used for the following purposes in such a moving operation.

【0030】1)アイコンやウインドウ上をポインタが
通過するときに反力を発生する。たとえば、図3におい
て、使用者はメニューバー32、ウインドウ33、アイ
コン34a〜34eにポインタ35の位置をマウスで移
動させ、マウスボタン101または102で選択し操作
することで移動などを行なう。
1) A reaction force is generated when the pointer passes over the icon or the window. For example, in FIG. 3, the user moves the menu bar 32, the window 33, and the icons 34a to 34e by moving the position of the pointer 35 with the mouse, and selects and operates with the mouse button 101 or 102 to move the pointer.

【0031】この時、たとえば、図中のアイコン34b
にポインタ35で選択するためにポインタ35を移動さ
せるときに、ポインタがアイコン上にあれば反力制御部
1を動作させ、通常より操作時のマウスの使用感を重く
することで、使用者にアイコンを選択できる位置にポイ
ンタがあることを認識させる。
At this time, for example, the icon 34b in the figure is displayed.
When the pointer 35 is moved in order to select with the pointer 35, if the pointer is on the icon, the reaction force control unit 1 is operated, and the feeling of use of the mouse during operation is made heavier than usual, so that Make the pointer recognize that the icon can be selected.

【0032】アイコンのみでなく他のオブジェクト、た
とえばウインドウ33などをドラッグするときにも同様
の反力制御を行なうことができる。
Similar reaction force control can be performed when dragging not only the icon but also another object such as the window 33.

【0033】2)画面の表示を認識したり、選択するこ
とが困難であるような小さなオブジェクトの近傍を通過
するときに反力を発生することも考えられる。たとえ
ば、画像処理系のアプリケーションにおいては、図4の
ように使用者はウインドウ33のなかでマウスを操作
し、たとえば、ポインタ35を移動させることで点60
から線61に垂線62を引くことがある。
2) It may be considered that a reaction force is generated when passing the vicinity of a small object which is difficult to recognize or select the display on the screen. For example, in an image processing application, the user operates the mouse in the window 33 as shown in FIG.
A vertical line 62 may be drawn from the line 61 to the line 61.

【0034】この時、たとえば、図中の点60を選択し
て線を引く際に、この点60は他のオブジェクトに対し
てきわめて小さく認識しにくいので、この点60の近傍
の所定距離内にある時に、反力制御部1を動作させて、
その間マウスボタン101あるいは102が押された
ら、この点60を認識したものとみなす。本例にあるよ
うに点のみではなく、たとえば線などで小さくて認識し
にくいオブジェクトに対しても同様に反力制御を行なう
ことができる。
At this time, for example, when selecting a point 60 in the figure and drawing a line, this point 60 is extremely small and difficult to recognize with respect to other objects, so that it is within a predetermined distance in the vicinity of this point 60. At a certain time, the reaction force control unit 1 is operated,
If the mouse button 101 or 102 is pressed during that time, it is considered that this point 60 is recognized. As in this example, the reaction force control can be similarly performed not only on points but also on small objects such as lines that are difficult to recognize.

【0035】このようにして、マウスの反力発生によ
り、フィードバックを行ない、画面の表示を認識した
り、選択することが困難であるような小さなオブジェク
トの操作を容易にすることができる。
In this way, by the reaction force generated by the mouse, it is possible to give feedback to facilitate the operation of a small object which is difficult to recognize or select the display on the screen.

【0036】このような反力発生によるフィードバック
を行なうか否かは、オブジェクトの大きさによって決定
しておくことができる。たとえば、オブジェクトの面積
や、それを構成する水平あるいは垂直方向のドット数が
一定値以下の場合、そのオブジェクトに対して反力発生
を行なうようにすることが考えられる。これによりある
大きさや太さよりも小さいオブジェクトに対してのみ反
力制御を行なうことができるようになる。
Whether or not the feedback due to the generation of such a reaction force is performed can be determined in advance depending on the size of the object. For example, when the area of an object or the number of dots in the horizontal or vertical direction forming the object is less than or equal to a certain value, it is possible to generate a reaction force for the object. As a result, the reaction force control can be performed only on an object smaller than a certain size or thickness.

【0037】3)メニュー反転時に反力を生成すること
により、メニューの操作状態をフィードバックすること
もできる。
3) It is also possible to feed back the operating state of the menu by generating a reaction force when the menu is inverted.

【0038】たとえば、図5に示すようなグラフィカル
ユーザインターフェースでは、メニューバー32のエン
トリをドラッグする事により、メニュー選択を行なうこ
とがある。図5ではマウスにより操作されるポインタ3
5によりあるメニュー(ここでは”edit”)をドラ
ッグ(あるいはクリック)する事により図示のようなプ
ルダウンメニュー内の項目を選択する。このドラッグ中
に、メニュー上のcut,copy,paste,cl
earのエントリを通過するに従って各エントリが順次
反転位置が移動していき、所望の位置でマウスボタンの
押下を解放することなどにより項目が選択される。
For example, in the graphical user interface as shown in FIG. 5, a menu selection may be made by dragging an entry on the menu bar 32. In FIG. 5, the pointer 3 operated by the mouse
An item in the pull-down menu as shown in the figure is selected by dragging (or clicking) a certain menu (here, "edit") according to 5. While dragging, cut, copy, paste, cl on the menu
As the entry passes through the ear, the inversion position of each entry moves in sequence, and the item is selected by releasing the depression of the mouse button at the desired position.

【0039】また、このような環境では、通常、入出力
デバイスが接続されていない、アプリケーションの動作
モードによりプルダウンメニューの中で選択不可能なエ
ントリが存在する場合があるが、このような選択不可能
なエントリの表示を暗くするなどの手段で使用者に認識
させている。
In such an environment, there may be an entry that cannot be selected in the pull-down menu depending on the operation mode of the application to which an input / output device is not connected. The user is made aware of it by such means as darkening the display of possible entries.

【0040】このように選択可能なものと不可能なもの
が混在するプルダウンメニューを操作する場合、エント
リが選択可能な時にマウスの反力制御部1で反力を加え
ることが考えられる。
When operating the pull-down menu in which selectable and non-selectable items coexist, it is conceivable that the reaction force control unit 1 of the mouse applies a reaction force when the entry is selectable.

【0041】このようにすれば、従来の表示のみのフィ
ードバックよりも確実にプルダウンメニューの中の選択
不可能なエントリを使用者に認識させることができる。
In this way, it is possible to make the user recognize the unselectable entry in the pull-down menu more reliably than the conventional display-only feedback.

【0042】このようにして、図1、図2に示したよう
な反力制御部を持つマウスにより、アイコンやウインド
ウなどのオブジェクトを操作するグラフィカルユーザイ
ンターフェース環境において、ポインタがオブジェクト
あるいは近傍にある時や、プルダウンの操作可能な場所
にある時に、マウスに反力を生じさせることにより、使
用者に視覚以外の情報をフィードバックすることができ
る。
In this way, when the pointer is located at or near an object in a graphical user interface environment for operating an object such as an icon or a window with a mouse having a reaction force control unit as shown in FIGS. Alternatively, by generating a reaction force in the mouse when the pull-down operation is possible, information other than visual information can be fed back to the user.

【0043】すなわち、マウス(あるいはそれにより操
作されるポインタの)位置情報に基づき、ポインタがオ
ブジェクトあるいは近傍にある時や、プルダウンの操作
可能な場所にある時に、反力制御により操作・入力情報
のフィードバックを行なうことにより、マウスの操作や
マウスからの入力情報を使用者にフィードバックするこ
とができ、従来ディスプレイを介してのみ行われていた
マウスの操作やマウスからの情報のフィードバックを補
助し、使用者の負担を軽減することができる。
That is, based on the position information of the mouse (or of the pointer operated by the mouse), when the pointer is in the object or in the vicinity thereof or in a pull-down operable position, the operation / input information is controlled by reaction force control. By providing feedback, it is possible to give feedback to the user about the mouse operation and the input information from the mouse, which assists the operation of the mouse and the feedback of information from the mouse, which has been done only through the conventional display. The burden on the person can be reduced.

【0044】また、操作や選択が不可能なオブジェクト
に対して反力発生を行なうのではなく、逆に選択可能な
オブジェクトに対して反力発生を行なうようにしてもよ
い(後述の実施例を参照のこと)。たとえば、上記のプ
ルダウンメニューの場合、選択可能なエントリを通過す
る際に反力発生を行なうようにしてもよい。
Further, the reaction force may not be generated for an object that cannot be operated or selected, but may be generated for a selectable object (the embodiment described later). See). For example, in the case of the pull-down menu described above, reaction force may be generated when passing through a selectable entry.

【0045】反力制御を作用させるポインタやオブジェ
クトは、OSやアプリケーションソフトウェアのレベル
で任意に設定すればよい。
The pointer and the object for effecting the reaction force control may be arbitrarily set at the level of the OS and application software.

【0046】<第2実施例>以上では、マウス(あるい
はそれにより操作されるポインタの)位置情報に基づき
反力制御により操作・入力情報のフィードバックを行な
う例を示したが、さらに、マウス(あるいはそれにより
操作されるポインタの)と、マウス移動速度に応じた制
御を追加することも考えられる。
<Second Embodiment> In the above, an example in which the operation / input information is fed back by reaction force control based on the position information of the mouse (or of the pointer operated by the mouse) has been shown. It is also conceivable to add a control according to the pointer operated thereby) and a mouse movement speed.

【0047】図6は第2実施例のコンピュータシステム
の構造を示しており、図1の第1実施例と異なる点はマ
ウスドライバ112の中にマウス移動速度検知部2が設
けられている点である。
FIG. 6 shows the structure of the computer system of the second embodiment. The difference from the first embodiment of FIG. 1 is that the mouse moving speed detecting section 2 is provided in the mouse driver 112. is there.

【0048】このマウス移動速度検知部2はマウスから
の位置情報、通常はパルス信号を所定の時間内で計数す
ることにより、マウスの移動速度が検知でき、この信号
は常にホストコンピュータ内で利用できるようにしてあ
る。
The mouse moving speed detecting unit 2 can detect the moving speed of the mouse by counting the position information from the mouse, usually a pulse signal within a predetermined time, and this signal can always be used in the host computer. Is done.

【0049】第1実施例では、使用者がマウスを操作し
ポインタを移動させて、その移動中に位置情報に応じて
反力を生成させるものであり、反力制御が設定されてい
る全てのオブジェクトの近傍で常時、反力が生成される
ため、使用者の使用感を著しく低下させることがある。
第2実施例はこの問題点を解決するものである。
In the first embodiment, the user operates the mouse to move the pointer to generate a reaction force according to the position information during the movement, and all the reaction force control is set. Since a reaction force is constantly generated near the object, the user's feeling of use may be significantly reduced.
The second embodiment solves this problem.

【0050】第2実施例で特徴的なのは使用者がマウス
の操作をするときのその動作に着目している点である。
A characteristic of the second embodiment is that the user pays attention to the operation of the mouse when it is operated.

【0051】通常、図3のようなグラフィカルユーザイ
ンターフェース上でポインタ35を用いてアイコン34
bを選択する場合、使用者はポインタがアイコンから遠
いときには早くポインタを動かし、近づくとその速度を
遅くすることが知られている。
Usually, an icon 34 is displayed by using a pointer 35 on a graphical user interface as shown in FIG.
When selecting b, it is known that the user moves the pointer quickly when the pointer is far from the icon and slows down the speed when the pointer approaches.

【0052】第2実施例では、このように使用者がポイ
ンタの移動速度を変える特性から、そのオブジェクトは
使用者の目的のオブジェクトか否かを判断する。
In the second embodiment, it is judged from the characteristics that the user changes the moving speed of the pointer as described above, whether or not the object is the object intended by the user.

【0053】図7は本第2実施例のホストコンピュータ
110におけるマウス入出力制御の様子を示した流れ図
である。この制御はホストコンピュータ110のCPU
により実行される。
FIG. 7 is a flow chart showing the state of mouse input / output control in the host computer 110 of the second embodiment. This control is performed by the CPU of the host computer 110
Is executed by

【0054】ステップS71はマウスの移動速度が所定
値以下か否かをマウス移動速度検知部2から得られた値
を比較して判断する速度判断手段であり、所定値以下で
あれば真(true)、所定値以上であれば偽(false)と
判定する。
Step S71 is a speed judging means for judging whether or not the moving speed of the mouse is less than or equal to a predetermined value by comparing the values obtained from the mouse moving speed detecting unit 2. If the speed is less than or equal to the predetermined value, it is true (true). ), If it is greater than or equal to the predetermined value, it is determined to be false.

【0055】ステップS72は、ポインタの位置とアイ
コンやウインドウなどのオブジェクトの位置の関係を判
断するマウス位置判断手段であり、ポインタの位置がオ
ブジェクト内あるいは近傍であれば真、ある所定位置離
れていれば偽と判定する。
Step S72 is a mouse position judging means for judging the relationship between the position of the pointer and the position of an object such as an icon or a window. If the position of the pointer is within or near the object, it is true that it is a certain predetermined distance away. If false.

【0056】ステップS73はマウス114の反力制御
部1に実際に反力を発生させる反力制御手段である。
Step S73 is a reaction force control means for actually generating a reaction force in the reaction force control section 1 of the mouse 114.

【0057】図7から明らかなように、第2実施例で
は、マウス速度判断手段71の結果が所定速度以下で、
かつ、ポインタの位置がオブジェクト内あるいは近傍に
あるときに反力制御手段は作動し、反力制御部1により
反力を生成する。
As is apparent from FIG. 7, in the second embodiment, the result of the mouse speed judging means 71 is below the predetermined speed,
In addition, when the position of the pointer is within or near the object, the reaction force control means operates, and the reaction force control unit 1 generates a reaction force.

【0058】つまり、ポインタの位置がオブジェクト内
あるいは近傍であっても、その時の移動速度が所定速度
を越えていれば、使用者がそのオブジェクトの操作を目
的としていないと判断することになり、この場合には反
力制御が行なわれなくなる。
That is, even if the position of the pointer is inside or near the object, if the moving speed at that time exceeds the predetermined speed, it is judged that the user does not intend to operate the object. In that case, the reaction force control is not performed.

【0059】第1実施例では、位置情報のみに基づき、
反力制御を行なっているために、反力制御が設定されて
いる全てのオブジェクトの近傍で常時、反力が生成され
るため、使用者の使用感を損なうが、本実施例ではこの
ような問題を回避できる。
In the first embodiment, based on only the position information,
Since the reaction force control is performed, the reaction force is always generated in the vicinity of all the objects to which the reaction force control is set, which impairs the user's feeling of use. You can avoid the problem.

【0060】なお、図7のマウス速度判断手段とマウス
位置判断手段の処理の手順は逆であってもよい。
The processing procedure of the mouse speed determination means and the mouse position determination means of FIG. 7 may be reversed.

【0061】<第3実施例>本実施例は、第2実施例に
さらにオブジェクトの近傍でマウスのボタンが操作され
た場合に、オブジェクト(近傍)位置を通過し、反力を
発生した時からの時間情報を用いて操作の生じた位置情
報を補正する処理を加えたものである。
<Third Embodiment> This embodiment is different from the second embodiment in that when a mouse button is operated in the vicinity of the object, the object (nearby) position is passed and a reaction force is generated. This is a process in which the position information in which the operation has occurred is corrected by using the time information of.

【0062】具体的には、第2実施例に反力制御を始め
た後にマウスボタンが押された場合、オブジェクト近傍
において反力制御を始めてからマウスボタンが押された
時点までの時間を計測し、それが所定の時間内であれ
ば、使用者がそのオブジェクトの選択の意志があったも
のと解釈し、ポインタの位置を反力制御を始めた位置に
置き換えて、ホストコンピュータの処理を行なう。
Specifically, when the mouse button is pressed after starting the reaction force control in the second embodiment, the time from the start of the reaction force control in the vicinity of the object to the time when the mouse button is pressed is measured. If it is within a predetermined time, it is interpreted that the user has an intention to select the object, the position of the pointer is replaced with the position where the reaction force control is started, and the processing of the host computer is performed.

【0063】図8は本実施例3の特徴を示した流れ図で
あり、ステップS71〜S73は第2実施例と同じであ
るが、ステップS72でポインタの位置がオブジェクト
内あるいは近傍であれば、ステップS74においてその
位置(すなわちステップS73で反力制御を始める位
置)を記憶する。
FIG. 8 is a flow chart showing the characteristics of the third embodiment. Steps S71 to S73 are the same as those in the second embodiment, but if the position of the pointer is in or near the object in step S72, the step is executed. In S74, the position (that is, the position where the reaction force control is started in step S73) is stored.

【0064】すなわち、ステップS74は反力制御が開
始された時のポインタの位置を一時的に記憶する座標位
置記憶手段であり、通常はホストコンピュータ110に
実装されているメモリに記憶される。
That is, step S74 is a coordinate position storage means for temporarily storing the position of the pointer when the reaction force control is started, and is normally stored in the memory mounted on the host computer 110.

【0065】ステップS75はマウスボタンが押された
か判断するボタン判断手段であり、ボタンが押されれば
真、押されなければ偽と判定する。
Step S75 is a button determining means for determining whether or not the mouse button has been pressed. If the button is pressed, it is determined to be true, and if not, it is determined to be false.

【0066】ステップS76は時間判断手段であり、反
力制御からボタン判断手段としてのステップS75が真
になるまでの時間と予め設定された所定の時間とを比較
し、それが所定値以下ならば真、所定値以上であれば偽
と判定する。
Step S76 is a time judgment means, and compares the time from the reaction force control until step S75 as the button judgment means becomes true with a preset predetermined time, and if it is less than a predetermined value. True, if it is equal to or greater than a predetermined value, it is determined to be false.

【0067】ステップS77は、使用現在のマウスの座
標位置をステップS74で記憶された座標値に置き換え
る(補正する)座標処理手段である。
Step S77 is a coordinate processing means for replacing (correcting) the coordinate position of the mouse currently in use with the coordinate value stored in step S74.

【0068】図9は本実施例で動作する例で、ここでは
ウインドウの操作の例を示している。
FIG. 9 shows an example of operation in this embodiment, and here shows an example of window operation.

【0069】90はオブジェクトであるウインドウ、9
1はウインドウ90の大きさ、形状などを変更するため
のサイズ可変ボックスで、通常はマウスでクリックしド
ラッグすることで、使用者が任意にウインドウの大きさ
や形状を可変することができる。通常このようにサイズ
可変ボックスが右下にあり、これをドラッグ操作した場
合にはウィンドウの左上角の位置が固定され、ウインド
ウ90の大きさ、ないし形状が最終的なサイズ可変ボッ
クスの座標ウィンドウの左上角の座標により画成される
対角線を有する矩形に決定される(サイズ可変ボックス
そのものの形状、ウィンドウ上の位置などはこれに限定
されず、種々の方式が用いられている)。
90 is a window which is an object, 9
Reference numeral 1 denotes a size variable box for changing the size, shape, etc. of the window 90. Normally, the user can arbitrarily change the size and shape of the window by clicking and dragging with a mouse. In general, the variable size box is located at the lower right as described above, and when the drag operation is performed, the position of the upper left corner of the window is fixed, and the size or shape of the window 90 is the coordinate window of the final variable size box. It is determined to be a rectangle having a diagonal line defined by the coordinates of the upper left corner (the shape of the size-variable box itself, the position on the window, etc. are not limited to this, and various methods are used).

【0070】さて、ウインドウは通常の場合、表示する
内容をより多くするために中の表示部を大きくするよう
に配慮・デザインされ、このウインドウのサイズ可変ボ
ックスも例外ではなく、なるべく小さな形状に設計され
るのが普通である。しかしながら、マウスで操作するに
はサイズ可変ボックスが大きい方が使い勝手がよく、前
述したことと矛盾が生じ、ウィンドウ内の表示領域を大
きく取れば取るほどサイズ可変ボックスの操作は困難に
なってくる。
Normally, the window is designed and designed so that the inside display portion is enlarged in order to increase the contents to be displayed, and the variable size box of this window is no exception, and is designed to have a small shape as much as possible. It is usually done. However, it is more convenient to operate the mouse with a large size variable box, which is inconsistent with the above, and the larger the display area in the window, the more difficult it becomes to operate the size variable box.

【0071】このような矛盾は本実施例により解決する
ことができる。
Such a contradiction can be solved by this embodiment.

【0072】図8の制御から明らかなように、図9のウ
インドウのサイズを変える場合、ポインタ35がサイズ
可変ボックス91を通過、あるいは近傍を通過すること
により(ステップS72)、マウスからの反力が発生さ
れる(ステップS73)ので、使用者がこの反力フィー
ドバック(感触)に反応してボタンのクリックあるいは
ドラッグなどの操作を行ない(ステップS76で検
出)、その操作時点での反力発生からの(つまりサイズ
可変ボックスの通過、あるいは近傍通過からの)経過時
間が所定時間内であれば、ステップS74で記憶した座
標情報にボタン操作時の座標を置き換える(ステップS
77)。
As is apparent from the control of FIG. 8, when changing the size of the window of FIG. 9, the pointer 35 passes through the variable size box 91 or passes in the vicinity thereof (step S72), so that the reaction force from the mouse. Is generated (step S73), the user performs an operation such as clicking or dragging a button in response to the reaction force feedback (feeling) (detected in step S76), and the reaction force is generated at the time of the operation. If the elapsed time of (i.e., passing the variable size box or passing in the vicinity) is within a predetermined time, the coordinate at the time of button operation is replaced with the coordinate information stored in step S74 (step S74).
77).

【0073】したがって、反力発生により、この反力に
応じて所定時間内に使用者の反応(ボタン操作)が得ら
れれば、その反応が対象オブジェクトを外れていても対
象オブジェクトを操作したものと看倣し、対象オブジェ
クトを操作したときと同じように操作位置の座標を補正
するため、対象オブジェクトを操作した場合と同様の効
果を得ることができる。
Therefore, if the reaction (button operation) of the user is obtained within a predetermined time according to the reaction force due to the reaction force generation, it is determined that the target object is operated even if the reaction is outside the target object. Since the coordinates of the operation position are corrected in the same manner as when the target object is operated by scanning, the same effect as when the target object is operated can be obtained.

【0074】これにより、サイズ可変ボックスの場合、
なかにポインタを置いてドラッグ、クリックを行なった
ときと同じ効果が得られ、使用者が正確にポインタをサ
イズ可変ボックスに位置決めする操作が不必要になり、
使用者にとって使い勝手のよいユーザインターフェース
装置となる。
Therefore, in the case of a variable size box,
It has the same effect as placing the pointer inside and dragging and clicking, eliminating the need for the user to accurately position the pointer in the variable size box.
The user interface device is convenient for the user.

【0075】つまり、本実施例によれば、使用者が完全
にオブジェクト上にポインタを配置しなくても、1度、
その上あるいは近傍を通過させ、使用者に反力を生じさ
せ、その反力の手応えや感触によって、マウスボタンを
押下すればよく、従来ほど画面の表示に注意を集中する
必要が無くなり、使用者がグラフィカルユーザインター
フェースを操るときに、その使用者の眼の負担を軽減で
きる。
That is, according to this embodiment, even if the user does not completely position the pointer on the object, once,
Passing on or near it, a reaction force is generated on the user, and the response and feel of the reaction force can be achieved by pressing the mouse button, which eliminates the need to concentrate attention on the screen display as in the past. Can reduce the burden on the eyes of the user when operating the graphical user interface.

【0076】なお、本実施例では、ステップS71の速
度判断は座標位置の補正に関しては本質的に必要な要件
ではなく、第1実施例のように位置検出のみを行なう場
合でもステップS74〜S77の処理を組み合せること
ができる。
In the present embodiment, the speed judgment in step S71 is not an essential requirement for correction of the coordinate position, and steps S74 to S77 are executed even if only position detection is performed as in the first embodiment. The treatments can be combined.

【0077】<第4実施例>上述の実施例1〜3ではマ
ウスに反力制御部で、マウスの検知ボールに対して摩擦
力を発生させ、マウスの進行に制動力をかけ、使用者に
たいしてのホストコンピュータからの情報をフィードバ
ックしている。
<Fourth Embodiment> In the above-described first to third embodiments, the reaction force control unit causes the mouse to generate a frictional force with respect to the detection ball of the mouse to apply a braking force to the progress of the mouse, and to the user. We are feeding back information from our host computer.

【0078】しかしながら、使用者に情報をフィードバ
ックする手段は、上述の反力制御部に限定されるもので
はない。本実施例ではマウスを機械的に振動させる加振
手段を設け、使用者に対して情報をフィードバックする
構成を例示する。
However, the means for feeding back information to the user is not limited to the above-mentioned reaction force control section. The present embodiment exemplifies a configuration in which a vibrating means for mechanically vibrating the mouse is provided and information is fed back to the user.

【0079】図10は本実施例のマウスの部分破断側面
図で、ここでは第1実施例の図2との差異のみについて
説明する。
FIG. 10 is a partially cutaway side view of the mouse of this embodiment. Here, only the differences from FIG. 2 of the first embodiment will be described.

【0080】図10において、符号201は電流を流す
ことにより回転制御可能な直流モータ、202は直流モ
ータ201の回転軸に対して意図的に偏芯させて取り付
けられている偏芯分銅で、直流モータ201を回転制御
することによりマウス全体を加振できる。200は直流
モータと偏芯分銅を具備した加振制御部である。
In FIG. 10, reference numeral 201 is a DC motor whose rotation can be controlled by passing an electric current, and 202 is an eccentric weight which is intentionally eccentrically attached to the rotating shaft of the DC motor 201. By controlling the rotation of the motor 201, the entire mouse can be vibrated. Reference numeral 200 denotes a vibration control unit equipped with a DC motor and an eccentric weight.

【0081】既に説明した実施例1〜3の反力制御部1
と、この加振制御部200を置き換えることで、同様の
結果が得られる。
The reaction force control unit 1 of the first to third embodiments already described.
By replacing the vibration control unit 200, the same result can be obtained.

【0082】また、加振制御部200で用いられる加振
手段としては、直流モータと偏芯分銅を用いる方式の他
に、 1)ボイスコイルで重りを振動させる。
As the vibrating means used in the vibrating control section 200, in addition to the method of using a DC motor and an eccentric weight, 1) a weight is vibrated by a voice coil.

【0083】2)マウスの内側を機械的に叩く。2) Mechanically hit the inside of the mouse.

【0084】3)実施例1〜3の反力制御を頻繁に繰り
返す。
3) The reaction force control of Examples 1 to 3 is frequently repeated.

【0085】4)マウスは通常、マウスパッド(マウス
の下に敷くもの)と共に使用されることが多いので、そ
のマウスパッドに加振源を設ける。
4) Since a mouse is usually used together with a mouse pad (which is laid under the mouse), a vibration source is provided on the mouse pad.

【0086】などの構成が考えられ、要するに使用者の
手に振動をフィードバックすることができる手段であれ
ばどのようなものを採用してもよい。
The configuration described above is conceivable, and any means may be adopted as long as it can feed back the vibration to the user's hand.

【0087】さらに、これらの加振手段を用いることに
より、図3で示したグラフィカルユーザインターフェー
ス上で使用する際、 1)使用者がアイコンやウインドウなどのオブジェクト
をドラッグするときに加振させる。
Further, by using these vibrating means, when using on the graphical user interface shown in FIG. 3, 1) When the user drags an object such as an icon or a window, it is vibrated.

【0088】2)本加振手段に加振の強度を可変する手
段を設けることにより、オブジェクトの特性、たとえ
ば、オブジェクトに関連づけられたファイルの種類や容
量によって、加振の強度を変えるなどの応用が可能とな
る。第1〜第3実施例における反力によるフィードバッ
クは、本実施例の加振によるフィードバックに完全に置
換可能であることはいうまでもない。
2) By providing the vibrating means with means for varying the vibrating intensity, the vibrating intensity is changed according to the characteristics of the object, for example, the type and capacity of the file associated with the object. Is possible. It goes without saying that the feedback by reaction force in the first to third embodiments can be completely replaced with the feedback by vibration in this embodiment.

【0089】<第5実施例>上記の各従来例では、マウ
スをポインティングデバイスとして用いる場合の構成を
述べてきた。マウス以外のポインティングデバイスにお
いても同様の構成を実施できるのはいうまでもない。
<Fifth Embodiment> In each of the conventional examples described above, the configuration in which the mouse is used as the pointing device has been described. Needless to say, a similar configuration can be implemented in a pointing device other than a mouse.

【0090】図11は、近年普及しているラップトップ
(ノートないしサブノート)型のコンピュータを示して
おり、このようなコンピュータ300では、球状のボー
ルを操作することにより座標入力を行なういわゆるトラ
ックボール301を設けるものがある。
FIG. 11 shows a laptop (notebook or sub-notebook) type computer that has become widespread in recent years. In such a computer 300, a so-called trackball is used for inputting coordinates by operating a spherical ball. There is one which provides 301.

【0091】図11において、300は本実施例のコン
ピュータ、301はトラックボールで、座標検知手段と
制御手段あるいは加振手段などの機械的作用により使用
者に情報をフィードバックするフィードバック手段(不
図示)を有している。トラックボールの構造は、マウス
の検知ボールを直接手で操作するようにしたもの、と考
えて良く、トラックボール用のフィードバック手段には
上述したマウスのフィードバック手段とほぼ同様の構造
を用いることができる。
In FIG. 11, reference numeral 300 is a computer of this embodiment, and 301 is a trackball, which is a feedback means (not shown) for feeding back information to the user by mechanical action such as coordinate detection means and control means or vibration means. have. It can be considered that the structure of the trackball is such that the detection ball of the mouse is directly operated by hand, and the feedback means for the trackball may have almost the same structure as the above-mentioned mouse feedback means. .

【0092】符号302は図3のグラフィカルユーザイ
ンターフェースを表示する液晶ディスプレイ、303は
キャラクタコードを入力するキーボードである。
Reference numeral 302 is a liquid crystal display for displaying the graphical user interface shown in FIG. 3, and reference numeral 303 is a keyboard for inputting a character code.

【0093】トラックボール301に第1実施例で述べ
た反力制御部1と同様な反力手段または実施例4で述べ
た加振制御部3と同様な加振手段などのフィードバック
手段を用い、上述の制御を行なうようにすれば、今まで
述べてきた効果と同様の効果が得られる。
For the trackball 301, a reaction force means similar to the reaction force control section 1 described in the first embodiment or a feedback means such as a vibration means similar to the vibration control section 3 described in the fourth embodiment is used. If the above-mentioned control is performed, the same effect as the effect described so far can be obtained.

【0094】本実施例で加振手段を用いる場合は、トラ
ックボールのボール自体を加振させるか、コンピュータ
の操作で手が触れられるトラックボール近くか、または
キーボードを加振させてもよい。
When the vibrating means is used in the present embodiment, the ball itself of the trackball may be vibrated, the trackball may be touched by the operation of the computer, or the keyboard may be vibrated.

【0095】その他、タブレットや、アキュポイント、
ジョイスティックなど使用者が手で操作するポインティ
ングデバイスであれば、上述のように使用者の体に機械
的作用によりフィードバックを行なう手段を設けること
ができ、上記実施例と同様の効果を達成できる。
In addition, tablets, AccuPoint,
If it is a pointing device such as a joystick that is operated by the user's hand, it is possible to provide a means for giving feedback to the user's body by a mechanical action as described above, and it is possible to achieve the same effect as the above-mentioned embodiment.

【0096】今まで、人間の手によるユーザインターフ
ェースに関するものについて述べてきたが、手以外の部
位、たとえば足などを使用しても、同様の装置構成は可
能である。
Up to now, the description has been made on the user interface by the human hand, but the same device configuration is possible by using a part other than the hand, such as a foot.

【0097】[0097]

【発明の効果】以上から明らかなように、本発明によれ
ば、使用者のポインティングデバイスの操作に対して、
ポインティングデバイスに反力、振動、衝撃などの機械
的作用により使用者に情報をフィードバックするフィー
ドバック手段と、ディスプレイ上にアイコン、ウインド
ウ、ポップアップメニューなどのオブジェクトを配置し
て成るグラフィカルユーザインターフェースを用いる操
作環境において、ポインティングデバイスによって操作
されるポインタが操作対象のオブジェクトあるいはその
近傍を通過・接近する際、ポインティングデバイスの操
作に関する情報を前記フィードバック手段を介して、使
用者にフィードバックするとともに、このフィードバッ
クに応じた使用者のポインティングデバイスの操作に関
する情報を処理する制御手段を設けた構成を採用してい
るので、ポインティングデバイスの操作に関する情報を
前記フィードバック手段を介して、使用者にフィードバ
ックするとともに、このフィードバックに応じた使用者
のポインティングデバイスの操作に関する情報を処理す
る制御手段を設けているために、可視表示以外の手段を
介してのユーザインターフェースが可能となり、使用者
は従来のようにディスプレイに注意を集中してポインタ
の位置を正確に管理する必要がなくなるので、操作性に
優れたユーザインターフェースを実現することができ
る。
As is apparent from the above, according to the present invention, when the user operates the pointing device,
An operating environment that uses a feedback device that feeds back information to the user by mechanical action such as reaction force, vibration, and impact on a pointing device, and a graphical user interface that arranges objects such as icons, windows, and pop-up menus on the display. In, when the pointer operated by the pointing device passes or approaches the operation target object or its vicinity, the information about the operation of the pointing device is fed back to the user through the feedback means, and the feedback is responded to. Since the control means for processing the information about the operation of the pointing device of the user is provided, the information about the operation of the pointing device is provided to the feedback device. By providing a control means for feeding back information to the user via the means and processing information on the operation of the pointing device by the user in response to the feedback, the user interface via means other than the visual display is Since it is not necessary for the user to focus his attention on the display and accurately manage the position of the pointer as in the conventional case, a user interface with excellent operability can be realized.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施例を採用したコンピュータシ
ステムのブロック図である。
FIG. 1 is a block diagram of a computer system that employs a first embodiment of the present invention.

【図2】図1の装置で用いられるマウスの部分破断側面
図である。
FIG. 2 is a partially cutaway side view of a mouse used in the device of FIG.

【図3】図1および図2の構成を適用したグラフィカル
ユーザインターフェースを示す説明図である。
FIG. 3 is an explanatory diagram showing a graphical user interface to which the configurations of FIGS. 1 and 2 are applied.

【図4】第1実施例で小さなアイコンを操作する場合の
制御を示した説明図である。
FIG. 4 is an explanatory diagram showing control when operating a small icon in the first embodiment.

【図5】第1実施例でプルダウンメニューを操作する場
合の制御を示した説明図である。
FIG. 5 is an explanatory diagram showing control when a pull-down menu is operated in the first embodiment.

【図6】本発明の第2実施例を採用したコンピュータシ
ステムのブロック図である。
FIG. 6 is a block diagram of a computer system adopting a second embodiment of the present invention.

【図7】本第2実施例の特徴とその処理を示した流れ図
である。
FIG. 7 is a flowchart showing the characteristics of the second embodiment and the processing thereof.

【図8】本第3実施例の特徴とその処理を示した流れ図
である。
FIG. 8 is a flowchart showing the features of the third embodiment and its processing.

【図9】第3実施例をウインドウオブジェクトに適用し
た場合の説明図である。
FIG. 9 is an explanatory diagram when the third embodiment is applied to a window object.

【図10】第4実施例のマウスの部分破断側面図であ
る。
FIG. 10 is a partially cutaway side view of the mouse of the fourth embodiment.

【図11】第5実施例のトラックボールを用いたときの
説明図である。
FIG. 11 is an explanatory diagram when the trackball of the fifth embodiment is used.

【図12】従来のマウスの外観図である。FIG. 12 is an external view of a conventional mouse.

【図13】図12のマウスの側面図である。FIG. 13 is a side view of the mouse of FIG.

【図14】図12のマウスの底面図である。FIG. 14 is a bottom view of the mouse of FIG.

【図15】従来のマウスを用いたコンピュータシステム
のブロック図である。
FIG. 15 is a block diagram of a conventional computer system using a mouse.

【図16】従来のマウスの移動量検知部の構成を示す説
明図である。
FIG. 16 is an explanatory diagram showing a configuration of a conventional mouse movement amount detection unit.

【符号の説明】[Explanation of symbols]

1 反力制御部 2 マウス移動速度検知部 10 摩擦パッド 11 アーム 12 回転中心 13 磁石 14 電磁コイル 30 外枠 31 タイトルバー 32 メニューバー 33 ウインドウ 34a〜34e アイコン 35 ポインタ 60 点 61 線 62 垂線 71 マウス移動速度判断手段 72 マウス位置判断手段 73 反力制御手段 74 座標位置記憶手段 75 ボタン判断手段 76 時間判断手段 77 座標処理手段 90 ウインドウ 91 サイズ可変ボックス 100 マウス筺体 101 マウスボタン 102 マウスボタン 103 リード線 104 検知ボール 105 摺動部材 106 摺動部材 110 ホストコンピュータ 111 オペレーションシステム 112 マウスドライバ 113 マウスインターフェース 114 マウス 115 移動量検知部 116 ボタン検知部 120 検知ローラ 121 検知ローラ 122 検知センサ 123 検知センサ 124 圧力センサ 200 加振制御部 201 直流モータ 202 偏芯分銅 300 コンピュータ 301 トラックボール 302 液晶ディスプレイ 303 キーボード 1 Reaction Force Control Section 2 Mouse Movement Speed Detection Section 10 Friction Pad 11 Arm 12 Rotation Center 13 Magnet 14 Electromagnetic Coil 30 Outer Frame 31 Title Bar 32 Menu Bar 33 Window 34a-34e Icon 35 Pointer 60 Points 61 Line 62 Perpendicular 71 Mouse Movement Speed determination means 72 Mouse position determination means 73 Reaction force control means 74 Coordinate position storage means 75 Button determination means 76 Time determination means 77 Coordinate processing means 90 Window 91 Variable size box 100 Mouse housing 101 Mouse button 102 Mouse button 103 Lead wire 104 Detection Ball 105 Sliding member 106 Sliding member 110 Host computer 111 Operation system 112 Mouse driver 113 Mouse interface 114 Mouse 115 Movement amount detection unit 116 Button detection unit 120 Detection roller 121 Detection roller 122 Detection sensor 123 Detection sensor 124 Pressure sensor 200 Vibration control unit 201 DC motor 202 Eccentric weight 300 Computer 301 Trackball 302 Liquid crystal display 303 Keyboard

───────────────────────────────────────────────────── フロントページの続き (72)発明者 磯沼 伴幸 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 (72)発明者 川村 興二 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inoue, Banyuki Isonuma 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (72) Kouji Kawamura 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc.

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 所定の平面上で移動させることにより、
その移動量に関する情報を入力するポインティングデバ
イスを用いるユーザインターフェース装置において、 使用者のポインティングデバイスの操作に対して、ポイ
ンティングデバイスに反力、振動、衝撃などの機械的作
用により使用者に情報をフィードバックするフィードバ
ック手段と、 ディスプレイ上にアイコン、ウインドウ、ポップアップ
メニューなどのオブジェクトを配置して成るグラフィカ
ルユーザインターフェースを用いる操作環境において、
ポインティングデバイスによって操作されるポインタが
前記オブジェクトあるいはその近傍を通過・接近する
際、ポインティングデバイスの操作に関する情報を前記
フィードバック手段を介して、使用者にフィードバック
するとともに、このフィードバックに応じた使用者のポ
インティングデバイスの操作に関する情報を処理する制
御手段を設けたことを特徴とするユーザインターフェー
ス装置。
1. By moving on a predetermined plane,
In a user interface device that uses a pointing device to input information about the amount of movement, when the pointing device is operated by the user, the information is fed back to the user by mechanical action such as reaction force, vibration, or impact on the pointing device. In an operating environment that uses a feedback means and a graphical user interface that arranges objects such as icons, windows, and popup menus on the display,
When the pointer operated by the pointing device passes or approaches the object or the vicinity thereof, the information on the operation of the pointing device is fed back to the user through the feedback means, and the pointing of the user according to the feedback. A user interface device comprising a control means for processing information related to device operation.
【請求項2】 機械的作用によるフィードバック手段と
して、反力の生成や加振などを発生する手段の構成の一
部に電気機械変換素子を用いたことを特徴とする請求項
1に記載のユーザインターフェース装置。
2. The user according to claim 1, wherein an electromechanical conversion element is used as a part of the configuration of a means for generating a reaction force or generating a vibration as a feedback means by a mechanical action. Interface device.
【請求項3】 前記アイコン、ウインドウ、ポップアッ
プメニューなどのオブジェクト上または近傍を、ポイン
ティングデバイスの操作により移動されるポインタが通
過あるいは接近した際に、前記フィードバック手段を介
して前記機械的作用による情報フィードバックを行なう
ことを特徴とする請求項1に記載のユーザインターフェ
ース装置。
3. Information feedback by the mechanical action via the feedback means when a pointer moved by operating a pointing device passes or approaches an object such as the icon, window, or pop-up menu, or in the vicinity thereof. The user interface device according to claim 1, wherein:
【請求項4】 対象のオブジェクトが所定の大きさ以下
の時のみ近傍を通過あるいは接近した時に前記フィード
バック手段を介して前記機械的作用による情報フィード
バックを行なうことを特徴とする請求項3に記載のユー
ザインターフェース装置。
4. The information feedback by the mechanical action is performed via the feedback means when the target object passes or approaches the vicinity only when the size of the target object is smaller than or equal to a predetermined size. User interface device.
【請求項5】 前記オブジェクトがメニューバーであ
り、このメニューバーがポインティングデバイスのドラ
ッグおよびボタンの解放により選択されるプルダウンに
より操作される環境において、前記メニューバー中に選
択可能なエントリと不可能なエントリが混在する場合、
選択可能なエントリと不可能なエントリのいずれかまた
はその近傍を、ポインティングデバイスの操作により移
動されるポインタが通過あるいは接近した際に、前記フ
ィードバック手段を介して前記機械的作用による情報フ
ィードバックを行なうことを特徴とする請求項1に記載
のユーザインターフェース装置。
5. In the environment where the object is a menu bar and the menu bar is operated by a pull-down selected by dragging a pointing device and releasing a button, selectable entries and non-selectable entries in the menu bar are performed. If the entries are mixed,
When the pointer moved by the operation of the pointing device passes or approaches any one of the selectable entry and the non-selectable entry or the vicinity thereof, the information feedback by the mechanical action is performed via the feedback means. The user interface device according to claim 1, wherein:
【請求項6】 ポインティングデバイスにより操作され
るポインタの前記オブジェクトに対する接近速度を検出
する手段を設け、 この検出手段を用いてオブジェクト、またはその近傍を
通過あるいは接近する場合に、そのオブジェクトが使用
者の目的のオブジェクトか否かを判定し、 この判定結果に基づき使用者に前記フィードバック手段
を介して前記機械的作用による情報フィードバックを行
なうか否かを決定することを特徴とする請求項3に記載
のユーザインターフェース装置。
6. A means for detecting the approaching speed of a pointer operated by a pointing device to the object is provided, and when the object is passed or approaches the object or its vicinity by using the detecting means, the object is detected by the user. 4. The method according to claim 3, wherein it is determined whether or not the object is a target object, and based on the determination result, whether or not to perform information feedback by the mechanical action to the user via the feedback means. User interface device.
【請求項7】 ポインティングデバイスのポインタの接
近速度によりオブジェクトが使用者の目的のオブジェク
トか否かを判定し、その判定結果に応じて前記フィード
バック手段を介して前記機械的作用による情報フィード
バックを行なう場合、 前記機械的作用による情報フィードバックを行なってか
らポインティングデバイスがオブジェクトを選択するた
めに使用するポインティングデバイスのボタンが押され
るまでの時間を計測する手段を有し、 この計測手段の時間が所定の時間以内であれば、当該オ
ブジェクトが選択されたと看倣す制御を行なうことを特
徴とする請求項6に記載のユーザインターフェース装
置。
7. A method for determining whether or not an object is an object intended by a user by the approaching speed of a pointer of a pointing device, and performing information feedback by the mechanical action via the feedback means according to the determination result. , A means for measuring the time from the feedback of the information by the mechanical action until the button of the pointing device used by the pointing device to select an object is pressed, and the time of the measuring means is a predetermined time. The user interface device according to claim 6, wherein if it is within the range, control is performed to consider that the object is selected.
【請求項8】 ポインティングデバイスで操作されるポ
インタの前記機械的作用を始めた時点、すなわちポイン
タがオブジェクト、またはその近傍に通過あるいは接近
した時点における座標位置を一時的に記憶する手段を有
し、 前記計測手段の計測時間が所定時間以内のうちにポイン
ティングデバイスのボタンが押された場合、前記記憶手
段に一時的に記憶された座標情報によってポインティン
グデバイスのボタンが押された時に取得したポインタの
座標情報を置換することにより前記看倣し制御を行なう
ことを特徴とする請求項7に記載のユーザインターフェ
ース装置。
8. A means for temporarily storing a coordinate position at the time when the mechanical operation of the pointer operated by the pointing device is started, that is, when the pointer passes or approaches the object or its vicinity, When the button of the pointing device is pressed within the predetermined time measured by the measuring means, the coordinates of the pointer obtained when the button of the pointing device is pressed by the coordinate information temporarily stored in the storage means. The user interface device according to claim 7, wherein the copying control is performed by replacing information.
【請求項9】 使用者がオブジェクトの中でウインドウ
などで、その中でウインドウの大きさを変えたりするた
めに、ポインティングデバイスのクリックまたはドラッ
グによりオブジェクトを操作する場合、前記フィードバ
ック手段を介して前記機械的作用による情報フィードバ
ック制御を行なうことを特徴とする請求項1〜請求項8
に記載のユーザインターフェース装置。
9. When the user operates an object by clicking or dragging a pointing device in order to change the size of the window in the object or the like in the object, the feedback means is used to operate the object. Information feedback control by a mechanical action is performed, Claims 1-8.
The user interface device according to 1.
【請求項10】 前記機械的作用がポインティングデバ
イスを加振するものであり、回転制御可能なモータに偏
芯加重をモータ回転軸に設ける、またはボイスコイルに
よって重りを振動させる、または圧電素子あるいはソレ
ノイドなどの能動素子によってポインティングデバイス
の筺体内側を叩くことにより加振作用を生じることを特
徴とする請求項1〜請求項9に記載のユーザインターフ
ェース装置。
10. The mechanical action vibrates a pointing device, and an eccentric weight is provided on a motor rotation shaft for a rotation controllable motor, or a weight is vibrated by a voice coil, or a piezoelectric element or a solenoid. 10. The user interface device according to claim 1, wherein the vibrating action is generated by hitting the inside of the housing of the pointing device with an active element such as.
【請求項11】 アイコンやウインドウなどのオブジェ
クトをドラッグする際に、前記フィードバック手段を介
して前記機械的作用による情報フィードバックを行なう
ことを特徴とする請求項10に記載のユーザインターフ
ェース装置。
11. The user interface device according to claim 10, wherein, when an object such as an icon or a window is dragged, information is fed back by the mechanical action via the feedback unit.
【請求項12】 アイコンやウインドウなどのオブジェ
クトの特性、たとえば、ファイルの容量や種類などに応
じて、前記フィードバック手段の作用の強度を変更する
ことを特徴とした請求項10に記載のユーザインターフ
ェース装置。
12. The user interface device according to claim 10, wherein the strength of action of the feedback means is changed according to the characteristics of an object such as an icon or a window, for example, the size or type of a file. .
【請求項13】 前記ポインティングデバイスが同デバ
イスの移動を検出する手段、および入力ボタンを有する
マウス装置であることを特徴とする請求項1〜請求項1
2のいずれか1項に記載のユーザインターフェース装
置。
13. The mouse according to claim 1, wherein the pointing device is a mouse device having means for detecting movement of the device and an input button.
2. The user interface device according to any one of 2 above.
【請求項14】 前記ポインティングデバイスが球状の
ボールを使用者が手によって回転させることで、コンピ
ュータに座標情報を入力するとともに入力ボタンを有す
るトラックボール装置であることを特徴とする請求項1
〜請求項12のいずれか1項に記載のユーザインターフ
ェース装置。
14. The pointing device is a trackball device which has a button for inputting coordinate information to a computer by a user rotating a spherical ball by hand and having an input button.
~ The user interface device according to claim 12.
JP17384295A 1995-07-11 1995-07-11 User interface device Pending JPH0926850A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17384295A JPH0926850A (en) 1995-07-11 1995-07-11 User interface device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17384295A JPH0926850A (en) 1995-07-11 1995-07-11 User interface device

Publications (1)

Publication Number Publication Date
JPH0926850A true JPH0926850A (en) 1997-01-28

Family

ID=15968178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17384295A Pending JPH0926850A (en) 1995-07-11 1995-07-11 User interface device

Country Status (1)

Country Link
JP (1) JPH0926850A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149721A (en) * 1998-11-09 2000-05-30 Alpine Electronics Inc Operation device for on-vehicle apparatus
JP2000197774A (en) * 1999-01-08 2000-07-18 Alps Electric Co Ltd Controller for game machine
WO2002095625A1 (en) * 2001-05-18 2002-11-28 Sony Computer Entertainment Inc. Display apparatus for accessing desired web site
JP2005100151A (en) * 2003-09-25 2005-04-14 Denso Corp Display operation system
JP2008033945A (en) * 2007-08-22 2008-02-14 Sony Corp E-book, progress sensation notification method, progress sensation notification program, and progress sensation notification program storage medium
JP2008512881A (en) * 2004-08-24 2008-04-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Object discovery method and system, device control method and system, interface, and pointing device
JP2008152361A (en) * 2006-12-14 2008-07-03 Tokai Rika Co Ltd Remote control input device
US7409441B2 (en) 2001-05-18 2008-08-05 Sony Computer Entertainment Inc. Display apparatus for accessing desired web site
US7423631B2 (en) * 1998-06-23 2008-09-09 Immersion Corporation Low-cost haptic mouse implementations
US7456821B2 (en) 2004-11-30 2008-11-25 Immersion Corporation User interface device
JP2009116823A (en) * 2007-11-09 2009-05-28 Canon Inc Display device, method and program
US7564444B2 (en) 1998-03-26 2009-07-21 Immersion Corporation System and method of applying force feedback to a manipulandum wheel utilized with a graphical user interface
JP2009241924A (en) * 2008-03-28 2009-10-22 Denso Internatl America Inc Interface system for driver of automobile
US7770470B2 (en) 2006-09-05 2010-08-10 Denso Corporation Pointer operation apparatus and program for controlling same
JP2010541026A (en) * 2007-10-05 2010-12-24 トムソン ライセンシング Pointer control unit
US9227137B2 (en) 2009-11-24 2016-01-05 Immersion Corporation Handheld computer interface with haptic feedback
US9360937B2 (en) 2001-03-09 2016-06-07 Immersion Corporation Handheld devices using tactile feedback to deliver silent status information
US9492847B2 (en) 1999-09-28 2016-11-15 Immersion Corporation Controlling haptic sensations for vibrotactile feedback interface devices
JP2017097623A (en) * 2015-11-24 2017-06-01 レノボ・シンガポール・プライベート・リミテッド Information processing apparatus, information processing method, and program
US10007345B2 (en) 2001-03-09 2018-06-26 Immersion Corporation Handheld devices configured to output haptic effects based on fingerprints

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7564444B2 (en) 1998-03-26 2009-07-21 Immersion Corporation System and method of applying force feedback to a manipulandum wheel utilized with a graphical user interface
US7423631B2 (en) * 1998-06-23 2008-09-09 Immersion Corporation Low-cost haptic mouse implementations
JP2000149721A (en) * 1998-11-09 2000-05-30 Alpine Electronics Inc Operation device for on-vehicle apparatus
JP2000197774A (en) * 1999-01-08 2000-07-18 Alps Electric Co Ltd Controller for game machine
US9492847B2 (en) 1999-09-28 2016-11-15 Immersion Corporation Controlling haptic sensations for vibrotactile feedback interface devices
US9360937B2 (en) 2001-03-09 2016-06-07 Immersion Corporation Handheld devices using tactile feedback to deliver silent status information
US10007345B2 (en) 2001-03-09 2018-06-26 Immersion Corporation Handheld devices configured to output haptic effects based on fingerprints
US7409441B2 (en) 2001-05-18 2008-08-05 Sony Computer Entertainment Inc. Display apparatus for accessing desired web site
JP2003050824A (en) * 2001-05-18 2003-02-21 Sony Computer Entertainment Inc Display apparatus and display method
WO2002095625A1 (en) * 2001-05-18 2002-11-28 Sony Computer Entertainment Inc. Display apparatus for accessing desired web site
US10198079B2 (en) 2001-10-23 2019-02-05 Immersion Corporation Handheld devices configured to output haptic effects based on fingerprints
JP2005100151A (en) * 2003-09-25 2005-04-14 Denso Corp Display operation system
US8284989B2 (en) 2004-08-24 2012-10-09 Koninklijke Philips Electronics N.V. Method for locating an object associated with a device to be controlled and a method for controlling the device
JP2008512881A (en) * 2004-08-24 2008-04-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Object discovery method and system, device control method and system, interface, and pointing device
US7456821B2 (en) 2004-11-30 2008-11-25 Immersion Corporation User interface device
US7770470B2 (en) 2006-09-05 2010-08-10 Denso Corporation Pointer operation apparatus and program for controlling same
JP2008152361A (en) * 2006-12-14 2008-07-03 Tokai Rika Co Ltd Remote control input device
JP2008033945A (en) * 2007-08-22 2008-02-14 Sony Corp E-book, progress sensation notification method, progress sensation notification program, and progress sensation notification program storage medium
US8482521B2 (en) 2007-10-05 2013-07-09 Gvbb Holdings S.A.R.L. Pointer controlling apparatus
JP2010541026A (en) * 2007-10-05 2010-12-24 トムソン ライセンシング Pointer control unit
US8400476B2 (en) 2007-11-09 2013-03-19 Canon Kabushiki Kaisha Display device, method and program
JP2009116823A (en) * 2007-11-09 2009-05-28 Canon Inc Display device, method and program
JP2013149289A (en) * 2008-03-28 2013-08-01 Denso Internatl America Inc Interface system for driver of vehicle
US9056549B2 (en) 2008-03-28 2015-06-16 Denso International America, Inc. Haptic tracking remote control for driver information center system
JP2009241924A (en) * 2008-03-28 2009-10-22 Denso Internatl America Inc Interface system for driver of automobile
US9227137B2 (en) 2009-11-24 2016-01-05 Immersion Corporation Handheld computer interface with haptic feedback
JP2017097623A (en) * 2015-11-24 2017-06-01 レノボ・シンガポール・プライベート・リミテッド Information processing apparatus, information processing method, and program
US10540011B2 (en) 2015-11-24 2020-01-21 Lenovo (Singapore) Pte. Ltd. Apparatus, method, and program product to reduce noise

Similar Documents

Publication Publication Date Title
JPH0926850A (en) User interface device
US12153791B2 (en) Special lock mode user interface
US12045451B2 (en) Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US11922584B2 (en) Devices, methods, and graphical user interfaces for displaying objects in 3D contexts
US20220164152A1 (en) Systems and Methods for Initiating and Interacting with a Companion-Display Mode for an Electronic Device with a Touch-Sensitive Display
EP3963433B1 (en) Generating tactile output sequences associated with an object
US10884592B2 (en) Control of system zoom magnification using a rotatable input mechanism
US20250141858A1 (en) Credential entry and management
EP2939095B1 (en) Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
JP5295328B2 (en) User interface device capable of input by screen pad, input processing method and program
JP2020038681A (en) System and method for force-based object manipulation and tactile sensation
KR20180041049A (en) Contextual pressure sensing haptic responses
US10007418B2 (en) Device, method, and graphical user interface for enabling generation of contact-intensity-dependent interface responses
US10037217B2 (en) Device, method, and user interface for integrating application-centric libraries and file browser applications
JP2002236550A (en) Method and device for screen position input
JPH09282094A (en) Man-machine interface device and pointing device
JPH0850534A (en) User interface device