WO2016201465A2 - Optischer triangulationssensor zur entfernungsmessung - Google Patents

Optischer triangulationssensor zur entfernungsmessung Download PDF

Info

Publication number
WO2016201465A2
WO2016201465A2 PCT/AT2016/050179 AT2016050179W WO2016201465A2 WO 2016201465 A2 WO2016201465 A2 WO 2016201465A2 AT 2016050179 W AT2016050179 W AT 2016050179W WO 2016201465 A2 WO2016201465 A2 WO 2016201465A2
Authority
WO
WIPO (PCT)
Prior art keywords
carrier
sensor
light source
optical triangulation
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/AT2016/050179
Other languages
English (en)
French (fr)
Other versions
WO2016201465A3 (de
Inventor
Vladimir Alexandrov
Harold Artes
Christoph Freudenthaler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robart GmbH
Original Assignee
Robart GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robart GmbH filed Critical Robart GmbH
Priority to EP16741218.8A priority Critical patent/EP3311197A2/de
Priority to CN201680035323.1A priority patent/CN107750341A/zh
Priority to US15/737,510 priority patent/US11550054B2/en
Publication of WO2016201465A2 publication Critical patent/WO2016201465A2/de
Publication of WO2016201465A3 publication Critical patent/WO2016201465A3/de
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Program-controlled manipulators
    • B25J9/16Program controls
    • B25J9/1674Program controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Definitions

  • the invention relates to an optical triangulation sensor for
  • autonomous robots are increasingly being used in the household sector, for example for cleaning or for monitoring an apartment or other premises.
  • Autonomous robots include sensors that enable them to detect obstacles (such as walls, furniture, people, etc.) and thereby measure the environment. This allows the robot to respond appropriately to obstacles.
  • the obstacles can be detected for example by a sensor (crash sensors), which reacts to collisions of the robot with objects. If the robot detects such an obstacle, it can turn around or choose another route to its destination. For more demanding tasks such an approach is not enough. If, for example, the robot is to plan a route from one room of an apartment to another room in the apartment, then he must also be able to capture distant objects.
  • the robot can optically detect obstacles without contact.
  • the achievable accuracy is strongly dependent on the geometric arrangement of the individual sensor components relative to one another. Even slight displacements of a transmitter unit (e.g., light source) or one
  • Receiver unit e.g., camera
  • Receiver unit can lead to measurement errors. This applies to both the manufacture, as well as the operation of the sensors. In operation, for example, temperature fluctuations and resulting thermal expansions
  • the object underlying the invention is to provide a
  • the device comprises a light source for generating structured light, a receiving optical system, at least one fastening element and a carrier having a first groove on a side surface of the carrier, the light source and / or the receiving optical system being arranged at least partially in the first groove and is fixed by the fastener on the carrier.
  • the device comprises a light source for generating structured light having a first optical axis, a receiving optical system having a second optical axis and a carrier, through which a light channel passes.
  • a photosensitive sensor is arranged on a rear side of the carrier such that light incident through the light channel at least partially falls on the sensor, wherein the sensor is connected to the carrier only at two or more contact surfaces along a fastening line.
  • Triangulation sensor for measuring distances, a light source for generating structured light, a receiving optics and a sensor board with two or more juxtaposed photosensitive sensor chips.
  • Another embodiment relates to optical triangulation sensor with a light source for the production of structured light, a receiving optics, a sensor board and with one or more photosensitive sensor chips.
  • a diaphragm is arranged so that stray light emitted by the light source is shielded. Furthermore, a mobile robot will be described. According to one
  • the robot has an optical triangulation sensor, which is installed in a closed installation chamber of the robot.
  • the mounting chamber has at least one window through which light emitted by the triangulation sensor can emerge and reflected light can enter, wherein the at least one window is internally provided with an antireflection coating.
  • Figure 1 shows the physical principle of a distance measurement using an electro-optical triangulation sensor.
  • Figure 2 shows an embodiment of an apparatus according to the present invention in an exploded view.
  • Figure 3 shows an embodiment of a groove in a carrier for receiving a radiation source.
  • FIG. 4-7 show different examples of fasteners for attachment of a radiation source to the carrier of FIG. 3.
  • FIG. 8 shows a shield structure on a carrier.
  • Figure 9 shows an embodiment of a carrier for attachment of a receiving optics.
  • Figure 10 shows an embodiment of a camera board with a photosensitive sensor.
  • FIG. 11 shows an embodiment of a working machine.
  • a structured light source 20 e.g., a light emitting diode or a light emitting diode
  • Laser diode possibly with optics
  • a suitable receiving optics 23 and a sensor 30 eg an active pixel sensor, also CMOS sensor
  • a distance d to an object 90 can be determined.
  • the light source 20 emits a (structured, for example fanned out to a line) light beam 91, which at an object 90 (obstacle) at least partially reflected in the direction of the receiving optics 23 (or backscattered) is.
  • the reflected beams 92, 93, 94 are from the
  • the angle of incidence ⁇ can be determined.
  • the distance d can be calculated.
  • the predefined distance h is through the
  • Specified sensor structure and may for example be in a range of 1 cm to 10 cm, for example in a range of 2cm to 7cm.
  • h is the normal distance of the optical axes of light source 20 and receiving optics 23.
  • FIGS. 2A and 2B show the same example of an optical
  • the triangulation sensor includes one (e.g.
  • the carrier 10 has on a first side surface a first groove 12 referred to recess.
  • the carrier 10 may further consist of a material with a low coefficient of thermal expansion, for example plastic, ceramic or metal.
  • the carrier 10 may be made by plastic injection molding.
  • the carrier 10 can also be made of a material with a high coefficient of thermal expansion
  • the light source 20 is arranged in the first groove 12.
  • the structured light source 20 may include an (adapter) housing 21, a
  • Radiation source 22 e.g., a laser diode or a light emitting diode
  • a laser diode or a light emitting diode e.g., a laser diode or a light emitting diode
  • the housing 21 prevents the radiation source 22 is damaged by external influences.
  • the light source 20 may, for example (at least in sections) a round
  • the light source 20 may have any other cross-sections, such as an oval, a rectangular, a polygonal or diamond-shaped cross-section. In general, the light source 20 is thus cylindrical or prismatic.
  • the cross section of the light source 20 does not have to be along its entire length Length (ie along its optical axis) be the same.
  • the housing 21 of the light source 20 may, for example, at one end have a bulge, in the example of a
  • Collimator lens is arranged. Different embodiments of the
  • Fastener 24 will be described later.
  • an adhesive for fixing the light source 20 to the carrier 10 see FIG. 2A, adhesive layer 24 '.
  • the fastener 24 is only needed temporarily until the adhesive has cured and can then be removed.
  • the light source 20 for structured light can emit focused, point-shaped, linear (or any differently structured) light 91.
  • the light source 20 can continuously emit light 91.
  • the light source 20 may emit light 91 only at intervals or after special control.
  • the light 91 may have a wavelength between e.g. 400nm and 100nm. Larger and smaller wavelengths are possible.
  • the carrier 10 may have a second groove designated as 13 recess.
  • the receiving optics 23 or the entire camera module (which includes the receiving optics 23) can be arranged and also fixed in or on the groove 13 with the aid of a fastening element 25.
  • the groove 13 is symmetrical to the groove 12.
  • the grooves 12 and 13 are arranged on opposite side surfaces of the carrier 10. Another arrangement e.g. on a common side surface is also possible.
  • the receiving optics 23 may be, for example, an optical lens. This receiving optical system 23 collects and concentrates the reflected radiation (beams 92, 93, 949.
  • the receiving optical system 23 can consist of glass or plastic, for example, and can also consist of a plurality of individual lenses Sensor 30. In addition to or as an alternative to lenses, the receiving optics 23 may also comprise other optical components, such as one or more mirrors.
  • the sensor 30 may be configured to detect at least a portion of the reflected radiation 92, 93, 94.
  • CMOS Sensor Active Pixel Sensor
  • CCD sensor Charge-Coupled Device
  • some types of photodiodes eg, a position sensitive device, PSD, and a quadrant photodiode, QPD may also be considered as the sensor 30.
  • receiving optics 23 and sensor 30 are combined in a camera module.
  • the receiving optics 23 and the sensor 30 may be mounted separately from each other. This case is also shown in Figs. 2A and 2B.
  • the receiving optics 23 is arranged in the second groove 13, wherein the groove 13 does not extend over the entire thickness of the carrier 10. So that the receiving optics 23 can pass on the reflected radiation to the sensor 30, the sensor is arranged behind the receiving optics 23.
  • the receiving optics 23 and the sensor 30 may be mounted one behind another on two opposing major surfaces of the carrier 10 (front and back) and aligned with each other, the groove 13 being disposed on a stepped shoulder of the carrier 10 and thus does not extend over the entire thickness of the carrier 10.
  • Front of the carrier 10 is reset in the lower region.
  • the groove 12 thus extends in a side surface from the front of the carrier 10 to the recessed front, wherein the groove 13 is referred to as a light channel opening through the recessed front connects by the light to the back of the carrier (on which the sensor 30 is arranged ) can fall.
  • the mounting of the sensor 30 i.e., a sensor board on which a photosensitive chip is disposed
  • FIG. 3 shows a possible embodiment of the groove 12 arranged in the upper side surface (upper side) of the carrier 10.
  • FIG. 3A is a perspective view
  • FIG. 3B is a plan view.
  • the cross section of the groove 12 may be triangular, rectangular, trapezoidal or diamond-shaped. Other shapes are possible.
  • the cross section of the groove 12 and the light source 20 ie, its housing
  • the cross section of the groove 12 and the light source 20 is so shaped that the inserted into the groove 12 light source 20 rests on the support areas 11, which are formed by side walls of the groove 12, only along two lines A and B (lines of contact).
  • the illustrated embodiment are the
  • Recess 14 may be increased, whereby the support areas 11 are interrupted, so that the light source 20 only in two sections (AI, A2, and Bl, B2) of the contact lines A and B rest.
  • the remaining bearing surfaces 11 may be relatively short (about 1 mm) along the contact line, resulting in a total of four approximately "point-shaped" bearing areas where the light source 20 is in contact with the carrier 10.
  • Thermally induced stresses may be caused by such a configuration of the carrier
  • the position of the transmitting unit changes only minimally and in a defined, reversible manner as a result of thermal expansion of the carrier
  • the accuracy of the measurement increases
  • the statements about the groove 12 apply equally to the slot 13 and the receiving optics 23 fastened therein.
  • FIGS. 4 to 7 show, by way of example, various types
  • the fastening element 24 can be designed either in one, two or more parts.
  • the fastening elements 24 are designed so that they press the light source 20 against the carrier 10 and fix it so non-positively on the carrier 10.
  • the details of the fasteners 24 apply in the same way for the attachment of the transmitting unit 20 in the groove 12 as well as for the attachment of the receiving optics 23 in the groove 13.
  • the force effect of the fasteners 24 on the light source 20 and the receiving optics 23 can in the direction of respective linear
  • the fastening elements 24 are resilient and can therefore yield to a thermal expansion of the light source 20. In addition, they can apply a predefined force to the light source 20 (eg in a Direction normal to the longitudinal axis of the light source 20), a slipping of the
  • Radiation unit 20 prevents shock or vibration. At the same time, the force can be defined so that the operation of the light source 20 is not
  • FIG. 4 shows a one-part fastening element 24, which by means of
  • Screw is screwed to the carrier 10.
  • the fastening element 24 can be screwed to the side surface of the carrier 10, on which the groove 12 is located.
  • the fastener 24 may be formed from a pre-bent sheet or suitably shaped (e.g.
  • Fastener 24 is biased on the carrier 10 and the transmitting unit 20 fixed in the groove 12.
  • Fastener 24 made in two parts. The two parts of the
  • Fastener 24 consist of two pre-bent sheets or suitably shaped plastic parts which are spaced from each other on the carrier 10 (on opposite sides of the groove 12) are mounted. The two fasteners 24 do not necessarily have to be in mechanical contact with each other.
  • FIG. 6 shows a further exemplary embodiment. Here it is
  • Fastener 24 made in one piece and at least partially positively connected to the carrier 10.
  • the fastener 24 forms a kind of clip that can snap on the carrier (snap-in connection).
  • the fastening element 24 in FIG. 6 can be pre-bent or shaped in a suitable manner so that it is prestressed when the light source 20 is mounted and exerts a force on the transmitting unit 20 and presses it against the carrier 10.
  • Figure 7 shows a fastener 24 which is cohesively with the carrier 10 in connection.
  • the cohesive connection can be produced for example by means of gluing, welding or soldering.
  • the carrier 10 may be integrally formed with the fastener 24 (eg, by injection molding). The fastener 24 may be biased so that when mounted
  • Sending unit 20 exerts a force on the transmitting unit 20 and presses it against the carrier 10.
  • Fig. 8 shows a further embodiment.
  • the sensor 30 with the receiving optics 23 form an assembly (camera module).
  • the sensor 30 is independent of the assembly
  • Receiving optics 23 is attached to the carrier 10. The attachment of the sensor 30
  • the attachment line X with the "attachment points" defined by the support surfaces is, for example, but not necessarily symmetrical to a light channel 43, which extends through the support 10 and can reach the sensor 30 by the light from the receiving optics (not shown in FIG. 8) ,
  • the support portions 41, 42 may protrude from the surface of the carrier 10 (e.g., in the form of pins, sleeves, etc.), resulting in assembly of the carrier
  • Sensor 30 parallel to the surface of the carrier allows.
  • the sensor is located only on the at least two support areas 41, 42, which are arranged along the attachment line X, wherein the attachment line X is normal to that plane which is formed by the optical axes of light source 20 and receiving optics 23.
  • the sensor 30 and the carrier 10 can consequently thermally expand independently of one another without significant mechanical stresses and associated strains occurring in the sensor 30, at least not in the direction which is relevant for the distance measurement. That is, a thermal expansion of the sensor 30 relative to the carrier 10 is in a direction perpendicular to Fixing line X and normal to the optical axis of the receiving optics not hindered.
  • a shielding structure 40 may be arranged on a side surface of the carrier 10 which faces the sensor 30, which at least partially surrounds the light channel 43 and likewise protrudes from the surface of the carrier.
  • this shielding structure 40 may be annular, but it is also possible to make the shielding structure 40 rectangular, for example.
  • the shielding structure 40 may be as high or lower (based on the
  • the bearing areas 41, 42 may have a predefined normal distance to the underlying side surface of the carrier 10.
  • the distance of the sensor 30 to the carrier 10 and the focal length of the receiving optics 23 are matched.
  • the position of the attachment line X ie, its distance from the optical axis of the light source 20
  • This area (large distances) requires the highest accuracy.
  • the position at which the reflected radiation 92, 93, 94 enters the receiving optics converges to a limit value.
  • “Large distances” designate distances at the remote end of the distance measuring range, for example in the range from 5 to 10 m
  • the attachment line X can then be at the level where rays impinge on the sensor which are reflected by distant objects 96 of the receiving optics 23 extends approximately parallel to the optical axis 97 of the light source 20, the attachment line X is at the level of the optical axis 96 of the receiving optics 23rd
  • Figure 9 shows an exploded view of the carrier 10 of FIG. 8, including bearing surfaces 41, 42 and the shielding structure 40 and the sensor 30, which is attached along a line X to the fastening elements 41, 42.
  • the senor 30 is arranged on a circuit board. On this circuit board can also be an evaluation, and other electronic
  • the circuit board is designed so that it consists of two or more parts that are connected together so that no significant forces can be transferred from one part to another.
  • the connection between the two parts is elastic or resilient.
  • the resilient connections between the circuit board parts may be designed to contain electrical connections. Smaller, relative displacements between the individual circuit board parts can thus be done without great mechanical stresses. A complex connection of two separate boards in the production by means of cables can thus be avoided.
  • FIG. 10 shows an example of a sensor 30 with a board 37, in which two recesses 38 and 38 'are formed, wherein the recesses 38, 38' are formed so that in between a sensor board 34 for the photosensitive sensor chip 31 remains, which is connected to the surrounding board only by one or more thin, resilient webs.
  • the recess can be produced for example by milling, punching or cutting.
  • the sensor board 34 is connected by the two webs 35 and 36 with the surrounding circuit board 37.
  • the attachment line X (see FIGS. 2 and 8) is again shown, along which the sensor board 34 is connected at points 41 'and 42' to the support regions 41 and 42 (see FIG.
  • the circuit board 37 surrounding the sensor board 34 can contain further electronic components 33 and be fastened to the carrier 10 at a plurality of locations 32.
  • the thin, resilient webs 35 and 36 cause a mechanical decoupling (no or only a very small Power transmission in a direction transverse to the attachment line) of the sensor board 34 from the surrounding board 37).
  • the senor 30 may also have a plurality of (along the attachment line X) adjacent sensor chips 31.
  • the individual sensor chips 31 can be made smaller than the entire image areas of the receiving optics 23.
  • the sensor chips 31 can be arranged in predefined (for example horizontally adjacent) parts of the image area of the receiving optics 23. Even with large (lying in a horizontal plane) radiation angles of the light source 20, for example, 120 °, thereby the detection of the reflected light 92, 93, 94 can be ensured using small, commercially available sensor chips, which are much cheaper than a large sensor chip it would.
  • a calibration may be necessary. This calibration can be carried out, for example, at average operating temperatures of the device. Alternatively, it can be carried out for different operating temperatures.
  • temperature-dependent calibration data can optionally be stored in a memory unit of the sensor 30.
  • FIG 11 shows a work machine 80 (e.g., a cleaning robot) having an optical triangulation sensor which may be constructed as described above with reference to Figures 1-10.
  • the triangulation sensor for distance measurement is attached to the work machine 80 in a suitable manner and can from the
  • Work machine 80 are used for distance measurement.
  • Work machine 80 may be arranged. Furthermore, the device for
  • the device for measuring distance inside the Working machine 80 may be arranged in an installation chamber.
  • the device for distance measurement is thus protected from dust and other external influences.
  • the device may be located behind one or more windows. These windows are at least partially transparent to the emitted radiation 91 and the reflected radiation 92, 93, 94. The windows can simultaneously serve as filters. Radiation with a wavelength that depends on the wavelength of the
  • the installation chamber can be coated for reflection or painted dark or be formed of a material with a small reflection coefficient.
  • the windows of the installation chamber may consist of a material which reflects the light emitted by the light source 91 91 as little as possible, and be provided for example with an anti-reflection coating.
  • the reflectance of parts of the installation chamber may be less than 10%, for example.
  • an aperture 15 may be arranged either on the carrier 10 or on the work machine 80 in such a way that unwanted scattered light emitted by the light source 20 (see light beam 91 'running upwards) is shielded.
  • the light source 20 emits light substantially in a (eg horizontal) plane E.
  • the diaphragm 15 can be designed and arranged in such a way that stray light which is scattered towards a point P that lies above the plane E is shielded In this way, no unwanted, caused by the scattered light reflections on highly reflective objects in the
  • the aperture 15 may e.g. be a slit. Since scattered down light scattered usually does not bother, also satisfies a "half
  • Slit diaphragm " i.e. a reed having a horizontally extending edge, whereby a (e.g., horizontally radiated main beam 91 is not obstructed but the upwardly radiated stray light is shielded
  • Embodiments of the triangulation sensor described here can be used. ⁇

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Es wird ein optischer Triangulationssensor zur Entfernungsmessung beschrieben. Gemäß einem Ausführungsbeispiel der Erfindung umfasst die Vorrichtung eine Lichtquelle zur Erzeugung von strukturiertem Licht, eine Empfangsoptik, zumindest ein Befestigungselement und einen Träger mit einer ersten Nut an einer Seitenfläche des Trägers, wobei die Lichtquelle und/oder die Empfangsoptik zumindest teilweise in der ersten Nut angeordnet und durch das Befestigungselement am Träger fixiert wird.

Description

Optischer Triangulationssensor zur Entfernungsmessung
[0001] Die Erfindung betrifft einen optischen Triangulationssensor zur
berührungslosen Messung von Entfernungen. [0002] In den letzten Jahren finden autonome Roboter zunehmend Verwendung im Haushaltsbereich, beispielsweise zur Reinigung oder zur Überwachung einer Wohnung oder anderen Räumlichkeiten. Autonome Roboter verfügen unter anderem über Sensoren, die es ihnen ermöglichen, Hindernisse (z.B. Wände, Möbel, Personen, etc.) zu detektieren und dadurch die Umgebung zu vermessen. Dadurch wird es dem Roboter ermöglicht, auf Hindernisse in geeigneter Weise zu reagieren. Die Hindernisse können beispielsweise durch eine Sensorik (crash sensors) erkannt werden, die auf Kollisionen des Roboters mit Gegenständen reagiert. Detektiert der Roboter ein solches Hindernis, kann er umdrehen oder einen anderen Weg zu seinem Ziel wählen. Für anspruchsvollere Aufgaben reicht ein solches Vorgehen nicht aus. Soll der Roboter beispielsweise eine Route von einem Raum einer Wohnung in einer anderen Raum der Wohnung planen, dann muss er auch in der Lage sein, weiter entfernte Objekte zu erfassen.
Beispielsweise kann der Roboter Hindernisse berührungslos optisch erfassen. Bei der Erfassung mittels optischer Triangulation ist die erreichbare Genauigkeit stark von der geometrischen Anordnung der einzelnen Sensorkomponenten zueinander abhängig. Bereits geringe Verschiebungen einer Sendereinheit (z.B. Lichtquelle) oder einer
Empfängereinheit (z.B. Kamera) können zu Messfehlern führen. Dies betrifft sowohl die Herstellung, als auch den Betrieb der Sensoren. Im Betrieb können beispielsweise Temperaturschwankungen und daraus resultierende thermische Dehnungen zu
Verschiebungen einzelner Komponenten des Sensors und folglich zu einer
Verfälschung der Messergebnisse führen. Aus dem Stand der Technik sind Lösungen bekannt, die ein derartiges Verfälschen der Messergebnisse verhindern sollen. Meist geschieht dies auf Grundlage einer möglichst präzisen Anordnung der
Sensorkomponenten relativ zueinander. Eine derartige Anordnung kann nur durch sehr geringe Toleranzen in der Fertigung und den damit verbundenen Kosten erreicht werden. Bei Temperaturschwankungen kommt es dennoch zu Messfehlern. [0003] Die der Erfindung zugrunde liegende Aufgabe besteht darin, eine
Vorrichtung zur optischen Entfernungsmessung bereit zu stellen, die eine
wiederholgenaue Messung ermöglicht und einfach herzustellen ist.
[0004] Diese Aufgabe wird durch einen optischen Triangulationssensor gemäß den Ansprüchen 1, 12, 21 und 22 sowie durch einen mobilen Roboter gemäß Anspruch 19. Unterschiedliche Ausgestaltungen und Weiterbildungen sind Gegenstand der abhängigen Ansprüche.
[0005] Es wird ein optischer Triangulationssensor zur Entfernungsmessung beschrieben. Gemäß einem Ausführungsbeispiel der Erfindung umfasst die Vorrichtung eine Lichtquelle zur Erzeugung von strukturiertem Licht, eine Empfangsoptik, zumindest ein Befestigungselement und einen Träger mit einer ersten Nut an einer Seitenfläche des Trägers, wobei die Lichtquelle und/oder die Empfangsoptik zumindest teilweise in der ersten Nut angeordnet und durch das Befestigungselement am Träger fixiert wird.
[0006] Gemäß einem weiteren Ausführungsbeispiel umfasst die Vorrichtung eine Lichtquelle zur Erzeugung von strukturiertem Licht, die eine erste optische Achse aufweist, eine Empfangsoptik mit einer zweiten optischen Achse sowie einen Träger, durch den ein Lichtkanal verläuft. Ein lichtempfindlicher Sensor ist derart auf einer Rückseite des Trägers angeordnet, dass durch den Lichtkanal einfallendes Licht zumindest teilweise auf den Sensor fällt, wobei der Sensor lediglich an zwei oder mehr Auflageflächen entlang einer Befestigungslinie mit dem Träger verbunden ist.
[0007] Gemäß einem weiteren Ausführungsbeispiel umfasst ein optischer
Triangulationssensor zur Messung von Entfernungen eine Lichtquelle zur Erzeugung von strukturiertem Licht, eine Empfangsoptik sowie eine Sensorplatine mit zwei oder mehrere nebeneinander angeordneten lichtempfindlichen Sensorchips.
[0008] Ein weiteres Ausführungsbeispiel betrifft optischen Triangulationssensor mit einer Lichtquelle zur Erzeugung von strukturiertem Licht, einer Empfangsoptik, einer Sensorplatine und mit einem oder mehreren lichtempfindlichen Sensorchips. Eine Blende ist angeordnet, dass von der Lichtquelle emittiertes Streulicht abgeschirmt wird. [0009] Des Weiteren wird ein mobiler Roboter beschrieben. Gemäß einem
Ausführungsbeispiel weist der Roboter einen optischen Triangulationssensor auf, der in einer abgeschlossenen Einbaukammer des Roboters eingebaut ist. Die Einbaukammer weist mindestens ein Fenster auf, durch die vom Triangulationssensor ausgesandtes Licht austreten und reflektiertes Licht eintreten kann, wobei das mindestens eine Fenster innen mit einer Antireflexbeschichtung versehen ist.
[0010] Figur 1 zeigt das physikalische Prinzip einer Entfernungsmessung mithilfe eines elektrooptischen Triangulationssensors.
[0011] Figur 2 zeigt ein Ausführungsbeispiel einer Vorrichtung gemäß der vorliegenden Erfindung in Explosionsdarstellung.
[0012] Figur 3 zeigt ein Ausführungsbeispiel einer Nut in einem Träger zur Aufnahme einer Strahlungsquelle.
[0013] Figuren 4-7 zeigen unterschiedliche Beispiele von Befestigungselementen zur Befestigung einer Strahlungsquelle an dem Träger gemäß Fig. 3. [0014] Figur 8 zeigt eine Ab schirm struktur auf einem Träger.
[0015] Figur 9 zeigt ein Ausführungsbeispiel eines Trägers zur Befestigung einer Empfangsoptik.
[0016] Figur 10 zeigt ein Ausführungsbeispiel einer Kameraplatine mit einem lichtempfindlichen Sensor. [0017] Figur 11 zeigt ein Ausführungsbeispiel einer Arbeitsmaschine.
[0018] In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder ähnliche Komponenten mit jeweils gleicher oder ähnlicher Bedeutung.
[0019] In Figur 1 ist das Prinzip der optischen Triangulation dargestellt. Mit Hilfe einer Lichtquelle 20 für strukturiertes Licht (z.B. eine Leuchtdiode oder eine
Laserdiode, ggf. mit Optik), einer geeigneten Empfangsoptik 23 und einem Sensor 30 (z.B. ein Active-Pixel-Sensor, auch CMOS-Sensor) kann eine Distanz d zu einem Objekt 90 ermittelt werden. Die Lichtquelle 20 sendet einen (strukturierten, z.B. zu einer Linie aufgefächerten) Lichtstrahl 91 aus, die an einem Objekt 90 (Hindernis) zumindest teilweise in Richtung der Empfangsoptik 23 reflektiert (bzw. zurückgestreut) wird. Die reflektierten Strahlen 92, 93, 94 (nur eine Auswahl) werden von der
Empfangsoptik 23 auf den Sensor gelenkt. Mit Hilfe des Sensors 30 kann insbesondere der Einfallswinkel α ermittelt werden. Mit Hilfe des Einfallswinkel α und einem vordefinierten Abstand h zwischen der Lichtquelle 20 und der Empfangsoptik 23 kann die Distanz d berechnet werden. Der vordefinierte Abstand h ist durch den
Sensoraufbau vorgegeben und kann beispielsweise in einem Bereich von 1 cm bis 10 cm, beispielsweise in einem Bereich von 2cm bis 7cm liegen. Im vorliegenden Beispiel ist h der Normalabstand der optischen Achsen von Lichtquelle 20 und Empfangsoptik 23.
[0020] Figur 2A und 2B zeigen dasselbe Beispiel eines optischen
Triangulationssensors in perspektivischer Darstellung aus unterschiedlichen
Blickwinkeln. Der Triangulationssensor umfasst einen (z.B. annähernd
prismenförmigen) Träger 10, eine Lichtquelle 20 und eine Empfangsoptik 23, die zusammen mit einem CMOS-Sensor 30 in einem Kamera-Modul zusammengefasst sein kann. Der Träger 10 weist an einer ersten Seitenfläche eine ersten als Nut 12 bezeichnete Ausnehmung auf. Der Träger 10 kann des Weiteren aus einem Material mit geringem Wärmeausdehnungskoeffizienten, beispielsweise Kunststoff, Keramik oder Metall, bestehen. Beispielsweise kann der Träger 10 durch Kunststoffspritzgießen hergestellt sein. Der Träger 10 kann außerdem aus einem Material mit einem hohen
Elastizitätsmodul bestehen. Die Lichtquelle 20 ist in der ersten Nut 12 angeordnet. Die Lichtquelle 20 für strukturiertes Licht kann ein (Adapter-) Gehäuse 21, eine
Strahlungsquelle 22 (z.B. eine Laserdiode oder eine Leuchtdiode) sowie eine
Kollimatorlinse und/oder einen Liniengenerator aufweisen.. Durch das Gehäuse 21 wird verhindert, dass die Strahlungsquelle 22 durch äußere Einflüsse beschädigt wird. Die Lichtquelle 20 kann beispielsweise (zumindest Abschnittsweise) einen runden
Querschnitt aufweisen und mithilfe eines Befestigungselementes 24 am Träger 10 fixiert werden. Alternativ kann die Lichtquelle 20 beliebige andere Querschnitte aufweisen, beispielsweise einen ovalen, einen rechteckigen, einen vieleckigen oder rautenförmigen Querschnitt. In der Regel ist die Lichtquelle 20 also zylinder- oder prismenförmig. Der Querschnitt der Lichtquelle 20 muss nicht entlang ihrer gesamten Länge (d.h. entlang ihrer optischen Achse) gleich sein. Das Gehäuse 21 der Lichtquelle 20 kann z.B. an einem Ende eine Ausbuchtung aufweisen, in der z.B. eine
Kollimatorlinse angeordnet ist. Unterschiedliche Ausführungsbeispiele des
Befestigungselementes 24 werden später noch beschrieben. Alternativ oder zusätzlich zu dem Befestigungselement 24 kann auch ein Klebstoff zur Fixierung der Lichtquelle 20 an dem Träger 10 verwendet werden (siehe Fig. 2A, Klebstoffschicht 24'). In manchen Ausführungsbeispielen wird das Befestigungsmittel 24 nur vorübergehend benötigt, bis der Kleber ausgehärtet ist und kann dann entfernt werden.
[0021] Die Lichtquelle 20 für strukturiertes Licht kann gebündeltes punktförmiges, linienförmiges (oder auch beliebig anders strukturiertes) Licht 91 emittieren. Im Betrieb der Vorrichtung kann die Lichtquelle 20 kontinuierlich Licht 91 aussenden. Wahlweise kann die Lichtquelle 20 auch nur intervallweise oder nach spezieller Ansteuerung Licht 91 aussenden. Das Licht 91 kann eine Wellenlänge zwischen z.B. 400nm und lOOOnm aufweisen. Größere und kleinere Wellenlängen sind möglich. [0022] In einem weiteren Ausführungsbeispiel kann der Träger 10 eine zweite als Nut 13 bezeichnete Ausnehmung aufweisen. Darin kann die Empfangsoptik 23 oder das ganze Kameramodul (das die Empfangsoptik 23 beinhaltet) angeordnet und mit Hilfe eines Befestigungselements 25 ebenfalls in oder an der Nut 13 fixiert sein. Im dargestellten Beispiel liegt die Nut 13 symmetrisch zur Nut 12. Die Nuten 12 und 13 sind an gegenüberliegenden Seitenflächen des Trägers 10 angeordnet. Eine andere Anordnung z.B. an einer gemeinsamen Seitenfläche ist ebenfalls möglich.
[0023] Die Empfangsoptik 23 kann beispielsweise eine optische Linse sein. Diese Empfangsoptik 23 sammelt und bündelt die reflektierte Strahlung (Strahlen 92, 93, 949. Die Empfangsoptik 23 kann beispielsweise aus Glas oder aus Kunststoff bestehen und auch aus mehreren Einzellinsen bestehen. Die reflektierte Strahlung 92, 93, 94 wird von der Empfangsoptik 23 an den Sensor 30 weitergeleitet. Zusätzlich oder als Alternative zu Linsen kann die Empfangsoptik 23 auch andere optische Bauelemente wie z.B. einen oder mehrere Spiegel aufweisen.
[0024] Der Sensor 30 kann so ausgeführt sein, dass er zumindest einen Teil der reflektierten Strahlung 92, 93, 94 detektieren kann. Üblicherweise wird ein CMOS- Sensor (Active-Pixel-Sensor) oder ein CCD-Sensor (Charge-Coupled Device) verwendet. Alternative kommen auch manche Arten von Fotodioden (z.B. ein Position Sensitive Device, PSD, und eine Quadrantenfotodiode, QPD) als Sensor 30 in Betracht.
[0025] In dem oben erläuterten Beispiel sind Empfangsoptik 23 und Sensor 30 in einem Kameramodul zusammengefasst. In einem weiteren Ausführungsbeispiel können die Empfangsoptik 23 und der Sensor 30 getrennt voneinander angebracht sein. Dieser Fall ist auch in den Fig. 2A und 2B dargestellt. Die Empfangsoptik 23 ist dabei in der zweiten Nut 13 angeordnet, wobei die Nut 13 sich nicht über die gesamte Dicke des Trägers 10 erstreckt. Damit die Empfangsoptik 23 die reflektierte Strahlung an den Sensor 30 weiterleiten kann, ist der Sensor hinter der Empfangsoptik 23 angeordnet.
Wie in Fig. 2A und 2B dargestellt, können die Empfangsoptik 23 und der Sensor 30 an zwei gegenüberliegenden Hauptflächen des Trägers 10 (Vorder- und Rückseite) hintereinander angebracht sein und miteinander fluchten, wobei die Nut 13 auf einem stufenförmigen Absatz des Trägers 10 angeordnet ist und sich folglich nicht über die gesamte Dicke des Trägers 10 erstreckt. Der Absatz entsteht dadurch, dass die
Vorderseite des Trägers 10 in dessen unteren Bereich zurückgesetzt ist. Die Nut 12 verläuft also in einer Seitenfläche von der Vorderseite des Trägers 10 bis zur zurückgesetzten Vorderseite, wobei an die Nut 13 eine als Lichtkanal bezeichnete Öffnung durch die zurückgesetzte Vorderseite anschließt durch die Licht bis zur Rückseite des Trägers (an der der Sensor 30 angeordnet ist) fallen kann. Die Montage des Sensors 30 (d.h einer Sensorplatine, auf der ein lichtempfindlicher Chip angeordnet ist) wird später unter Bezugnahme auf Fig. 8 und 9 noch näher erläutert.
[0026] In Figur 3 ist eine mögliche Ausgestaltung der in der oberen Seitenfläche (Oberseite) des Trägers 10 angeordneten Nut 12 dargestellt. Die Figur 3A zeigt eine perspektivische Darstellung, Fig. 3B eine Draufsicht. Durch die spezifische Form der Nut 12 werden Auflagebereiche 11 zwischen der Lichtquelle 20 und dem Träger 10 definiert, die einen linienförmige Kontakt zwischen der Lichtquelle 20 und dem Träger 10 ermöglichen. Beispielsweise kann der Querschnitt der Nut 12 dreieckig, rechteckig, trapezförmig oder rautenförmig ausgebildet sein. Andere Formen sind möglich. Im Allgemeinen ist der Querschnitt der Nut 12 und die Lichtquelle 20 (d.h. ihr Gehäuse) so geformt, dass die in die Nut 12 eingelegte Lichtquelle 20 an den Auflagebereichen 11, die durch Seitenwände der Nut 12 gebildet werden, lediglich entlang zweier Linien A und B (Kontaktlinien) aufliegt. Im dargestellten Ausführungsbeispiel liegen die
Kontaktlinien A, B parallel zur Längsachse (optischen Achse) der Lichtquelle 20. Den Fig. 3 A und 3B ist außerdem zu entnehmen, dass sich der Querschnitt der Nut 12 nicht entlang der gesamten Nut gleich ist. Der Querschnitt der Nut 12 ist z.B. nur an den beiden Enden der Nut 12 annähernd dreieckig, dazwischen (in Längsrichtung der Nut) jedoch rechteckig. Das heißt, die Nut 12 kann im mittleren Bereich durch die
Ausnehmung 14 vergrößert sein, wodurch die Auflagebereiche 11 unterbrochen werden, sodass die Lichtquelle 20 nur mehr in jeweils zwei Abschnitten (AI, A2, sowie Bl, B2) der Kontaktlinien A und B aufliegen. Die verbleibenden Auflageflächen 11 können entlang der Kontaktlinie verhältnismäßig kurz sein (ca. 1mm), wodurch insgesamt vier annähernd„punktförmige" Auflagebereiche entstehen, an denen die Lichtquelle 20 mit dem Träger 10 Kontakt hat. Thermisch induzierte Spannungen können sich durch eine derartige Ausgestaltung des Trägers 10 nicht so leicht auf die Lichtquelle 20 übertragen. Durch eine Wärmedehnung des Trägers verändert sich die Position der Sendeeinheit nur minimal und in definierter, reversibler Weise. Die Genauigkeit der Messung steigt. Die Aussagen über die Nut 12 gelten in gleicher Weise auch für die Nut 13 und die darin befestigte Empfangsoptik 23. [0027] In den Figuren 4 bis 7 sind beispielhaft verschiedenartige
Befestigungselemente 24 dargestellt. Wie den Figuren 4 bis 7 zu entnehmen ist, kann das Befestigungselement 24 entweder ein-, zwei- oder auch mehrteilig ausgeführt sein. Die Befestigungselemente 24 sind dabei so ausgeführt, dass sie die Lichtquelle 20 gegen den Träger 10 drücken und ihn so kraftschlüssig am Träger 10 fixieren. Die Angaben zu den Befestigungselementen 24 gelten in gleicher Weise für die Befestigung der Sendeeinheit 20 in der Nut 12 sowie auch für die Befestigung der Empfangsoptik 23 in der Nut 13. Die Kraftwirkung der Befestigungselemente 24 auf die Lichtquelle 20 und die Empfangsoptik 23 kann in Richtung der jeweiligen linienförmigen
Auflagebereiche 11 gerichtet sein. Die Befestigungselemente 24 sind federnd und können daher einer thermischen Ausdehnung der Lichtquelle 20 nachgeben. Außerdem können sie eine vordefinierte Kraft auf die Lichtquelle 20 aufbringen (z.B. in einer Richtung normal zur Längsachse der Lichtquelle 20), die ein Verrutschen der
Strahlungseinheit 20 bei Stößen oder Vibrationen verhindert. Gleichzeitig kann die Kraft so definiert werden, dass die Funktionsweise der Lichtquelle 20 nicht
beeinträchtigt wird. Zusätzlich kann an den Verbindungsstellen zwischen Lichtquelle 20 und Träger 10 und/oder zwischen Lichtquelle 20 und Befestigungselement 24 ein
Klebstoff eingebracht werden. Generell weist der Träger eine höhere Steifigkeit auf, als die federnden Befestigungselemente. Das heißt, im Falle einer thermischen Dehnung wird in erster Linie das Befestigungselement nachgeben, wodurch sich ein gut definiertes (vorhersehbares) Verhalten des Trägers ergibt. [0028] Figur 4 zeigt ein einteiliges Befestigungselement 24, welches mittels
Schraubverbindungen mit dem Träger 10 verschraubt wird. Das Befestigungselement 24 kann an der Seitenfläche des Trägers 10 angeschraubt werden, an der sich auch die Nut 12 befindet. Wie der Figur 4 zu entnehmen ist, kann das Befestigungselement 24 aus einem vorgebogenen Blech oder einem geeignet geformten (z.B. durch
Spritzgießen) Kunststoffteil bestehen, das nach Anschrauben des
Befestigungselementes 24 am Träger 10 vorgespannt ist und die Sendeeinheit 20 in der Nut 12 fixiert.
[0029] In einem weiteren Ausführungsbeispiel in Figur 5, ist das
Befestigungselement 24 zweiteilig ausgeführt. Die beiden Teile des
Befestigungselementes 24 bestehen aus zwei vorgebogenen Blechen oder geeignet geformten Kunststoffteilen, die voneinander beabstandet am Träger 10 (an gegenüber liegenden Seiten der Nut 12) angebracht sind. Die beiden Befestigungselemente 24 müssen nicht zwangsläufig miteinander in mechanischem Kontakt stehen.
[0030] Figur 6 zeigt ein weiteres Ausführungsbeispiel. Hierbei ist das
Befestigungselement 24 einteilig ausgeführt und zumindest teilweise formschlüssig mit dem Träger 10 verbunden. Das Befestigungselement 24 bildet eine Art Klammer, die am Träger einrasten kann (Snap-In- Verbindung). Wie bereits in den vorangehenden Abbildungen erwähnt, kann das Befestigungselement 24 in Figur 6 auf geeignete Weise vorgebogen oder geformt sein, so dass es bei montierter Lichtquelle 20 vorgespannt ist und eine Kraft auf die Sendeeinheit 20 ausübt und diese gegen den Träger 10 drückt. [0031] Figur 7 zeigt ein Befestigungselement 24, welches stoffschlüssig mit dem Träger 10 in Verbindung steht. Die stoffschlüssige Verbindung kann beispielsweise mittels Kleben, Schweißen oder Löten hergestellt sein. Alternativ kann der Träger 10 mit dem Befestigungselement 24 einstückig (z.B. durch Spritzgießen) hergestellt sein. Das Befestigungselement 24 kann vorgespannt sein, so dass es bei montierter
Sendeeinheit 20 eine Kraft auf die Sendeeinheit 20 ausübt und diese gegen den Träger 10 drückt.
[0032] Fig. 8 zeigt ein weiteres Ausführungsbeispiel. Wie vorangehend erwähnt, kann der Sensor 30 mit der Empfangsoptik 23 eine Baugruppe (Kameramodul) bilden. Alternativ ist es jedoch auch möglich, dass der Sensor 30 unabhängig von der
Empfangsoptik 23 am Träger 10 befestigt ist. Die Befestigung des Sensors 30
(Sensorchip inkl. Sensorplatine) am Träger 10 erfolgt ebenfalls an definierten
Auflageflächen 41, 42 entlang einer als Befestigungslinie X bezeichneten Linie (z.B. mittels Schrauben). Die Befestigungslinie X mit den durch die Auflageflächen definierten„Befestigungspunkten" liegt beispielsweise, jedoch nicht notwendigerweise symmetrisch zu einem Lichtkanal 43, welcher durch den Träger 10 verläuft und durch den Licht von der Empfangsoptik (in Fig. 8 nicht dargestellt) zum Sensor 30 gelangen kann.
[0033] Die Auflagebereiche 41, 42 können beispielsweise von der Oberfläche des Trägers 10 abstehen (z.B. in Form von Stiften, Hülsen, etc), was eine Montage des
Sensors 30 parallel zur Oberfläche des Trägers ermöglicht. Der Sensor liegt dabei nur an den mindestens zwei Auflagebereichen 41, 42, auf, die entlang der Befestigungslinie X angeordnet sind, wobei die Befestigungslinie X normal auf jener Ebene steht, die durch die optischen Achsen von Lichtquelle 20 und Empfangsoptik 23 gebildet wird. Der Sensor 30 und der Träger 10 können sich folglich unabhängig voneinander thermisch ausdehnen ohne dass es im Sensor 30 zu nennenswerten mechanischen Spannungen und damit verbundenen Dehnungen kommt, zumindest nicht in jene Richtung welche für die Entfernungsmessung relevant ist. Das heißt, eine thermische Dehnung des Sensors 30 relativ zum Träger 10 wird in eine Richtung rechtwinklig zur Befestigungslinie X und normal zur optischen Achse der Empfangsoptik nicht behindert.
[0034] Durch die erhöhte Befestigung des Sensors 30 entsteht ein Spalt zwischen dem lichtempfindlichen Sensor 30 und der Oberfläche des Trägers 10, durch den unerwünschtes Streulicht die Sensormessung negativ beeinflussen kann. Um dem entgegenzuwirken, kann auf einer Seitenfläche des Trägers 10, die dem Sensor 30 zugewandt ist, eine Abschirmstruktur 40 angeordnet sein, die den Lichtkanal 43 zumindest teilweise umgibt und ebenfalls von der Oberfläche des Trägers absteht. Beispielsweise kann diese Abschirmstruktur 40 ringförmig ausgeführt sein, es ist jedoch auch möglich, die Abschirmstruktur 40 beispielsweise rechteckig auszuführen. Die Abschirmstruktur 40 kann genauso hoch oder niedriger sein (bezogen auf die
Oberfläche des Trägers) als die Auflagebereiche 41, 42
[0035] Die Auflagebereiche 41, 42 können einen vordefinierten Normalabstand zur darunterliegenden Seitenfläche des Trägers 10 aufweisen. Der Abstand des Sensors 30 zum Träger 10 und die Brennweite der Empfangsoptik 23 sind aufeinander abgestimmt. Die Position der Befestigungslinie X (d.h. deren Abstand von der optischen Achse der Lichtquelle 20) kann so gewählt werden, dass reflektierte Strahlung 92, 93, 94 eines weit (theoretisch unendlich weit) entfernten Objektes 90 auf die Befestigungslinie X trifft. Dieser Bereich (große Abstände) erfordert die höchste Messgenauigkeit. Bei größer werdenden Abständen konvergiert die Position, an der die reflektierte Strahlung 92, 93, 94 in die Empfangsoptik einfällt zu einem Grenzwert.„Große Abstände" bezeichnen Abstände am entfernten Ende des Entfernungsmessbereichs z.B. im Bereich von 5 bis 10 m. Durch die beschriebene Wahl der Befestigungslinie wird der Einfluss einer thermischen Ausdehnung des Sensors 30 relativ zum Träger 10 in diesem Bereich minimiert. Die Befestigungslinie X kann dann auf jener Höhe liegen, in der Strahlen auf den Sensor auftreffen, die von weit entfernten Objekten reflektiert werden. Wenn die optische Achse 96 der Empfangsoptik 23 annähernd parallel zur optischen Achse 97 der Lichtquelle 20 verläuft, liegt die Befestigungslinie X auf Höhe der optischen Achse 96 der Empfangsoptik 23. [0036] Figur 9 zeigt eine Explosionsdarstellung mit dem Träger 10 aus Fig. 8 samt Auflagefl ächen 41, 42 sowie der Abschirmstruktur 40 und dem Sensor 30, der entlang einer Linie X an den Befestigungselementen 41, 42 befestigt wird. In einem
Ausführungsbeispiel ist der Sensor 30 auf einer Leiterplatte angeordnet. Auf dieser Leiterplatte können auch eine Auswerteeinheit, sowie weitere elektronische
Komponenten montiert sein. Dies kann dazu führen, dass die Leiterplatte eine Größe erreicht, die nicht hinreichend mechanisch stabil entlang der Befestigungslinie X befestigt werden kann. Damit trotzdem weiterhin mechanische Spannungen, welche die Messgenauigkeit beeinträchtigen können, vermieden werden, wird die Leiterplatte so ausgestaltet, dass sie aus zwei oder mehr Teilen besteht, welche derart miteinander verbunden sind, dass keinen nennenswerten Kräfte von einem Teil auf den anderen übertragen werden können. Beispielsweise ist die Verbindung zwischen den beiden Teilen elastisch oder federnd. Die elastischen (federnden) Verbindungen zwischen den Leiterplattenteilen können so gestaltet werden, dass sie elektrische Verbindungen enthalten. Kleinere, relative Verschiebungen zwischen den einzelnen Leiterplattenteilen können so ohne große mechanische Spannungen von statten gehen. Eine in der Produktion aufwändige Verbindung zweier separater Platinen mittels Kabeln kann so vermieden werden.
[0037] Figur 10 zeigt ein Beispiel eines Sensors 30 mit einer Platine 37, in welche zwei Ausnehmungen 38 und 38' geformt sind, wobei die Ausnehmungen 38, 38' so geformt sind, dass dazwischen eine Sensorplatine 34 für den lichtempfindlichen Sensorchip 31 übrigbleibt, welche mit der umgebenden Platine nur durch einen oder mehrere dünne, federnde Stege verbunden ist. Die Ausnehmung kann beispielsweise durch fräsen, stanzen oder schneiden erzeugt werden. Im vorliegenden Beispiel ist die Sensorplatine 34 durch die beiden Stege 35 und 36 mit der umgebenden Platine 37 verbunden. In Fig. 10 ist auch wieder die Befestigungslinie X (vgl. Abb. 2 und 8) dargestellt, entlang der die Sensorplatine 34 an den Stellen 41 ' und 42' mit den Auflagebereichen 41 bzw. 42 (siehe Fig. 9) verbunden ist. Die die Sensorplatine 34 umgebende Platine 37 kann weitere Elektronikkomponenten 33 enthalten und an mehreren Stellen 32 mit dem Träger 10 befestigt sein. Die dünnen, federnden Stege 35 und 36 bewirken eine mechanische Entkopplung (keine oder nur eine sehr geringe Kraftübertragung in einer Richtung quer zur Befestigungslinie) der Sensorplatine 34 von der umgebenden Platine 37).
[0038] In weiteren Ausführungsbeispielen kann der Sensor 30 auch mehrere (entlang der Befestigungslinie X) nebeneinander liegende Sensorchips 31 aufweisen. In diesem Fall können die einzelnen Sensorchips 31 kleiner ausgeführt sein als der gesamte Bildbereichen der Empfangsoptik 23. Insbesondere können die Sensorchips 31 in vordefinierten (z.B. horizontal nebeneinander liegenden) Teilen des Bildbereichs der Empfangsoptik 23 angeordnet sein. Selbst bei großen (in einer horizontalen Ebene liegenden) Abstrahlwinkeln der Lichtquelle 20, beispielsweise 120°, kann dadurch die Erfassung des reflektierten Lichts 92, 93, 94 mithilfe von kleinen, handelsüblichen Sensorchips gewährleistet werden, die wesentlich günstiger sind, als ein großer Sensorchip es wäre.
[0039] Im Anschluss an die Herstellung einer Vorrichtung zur Abstandsmessung kann eine Kalibrierung notwendig sein. Diese Kalibrierung kann beispielsweise bei mittleren Betriebstemperaturen der Vorrichtung durchgeführt werden. Alternativ kann sie für verschieden Betriebstemperaturen durchgeführt werden. Die (ggf.
temperaturabhängigen) Kalibrierdaten können optional in einer Speichereinheit des Sensors 30 gespeichert werden.
[0040] Figur 11 zeigt eine Arbeitsmaschine 80 (z.B. einen Reinigungsroboter) mit einem optischen Triangulationssensor, der wie oben unter Bezugnahme auf die Fig. 1 bis 10 aufgebaut sein kann. Der Triangulationssensor zur Entfernungsmessung ist dabei auf geeignete Weise an der Arbeitsmaschine 80 befestigt und kann von der
Arbeitsmaschine 80 zur Entfernungsmessung eingesetzt werden. Beispielsweise kann die Vorrichtung zur Entfernungsmessung an der Front der Arbeitsmaschine 80, in der Mitte der Arbeitsmaschine 80 oder aber auch am Heck oder einer Seite der
Arbeitsmaschine 80 angeordnet sein. Ferner kann die Vorrichtung zur
Entfernungsmessung derart angeordnet sein, dass sie die Arbeitsmaschine 80 zumindest teilweise überragt, damit die Entfernungsmessung nicht durch weitere Komponenten der Arbeitsmaschine 80 behindert wird. In einem weiteren Ausführungsbeispiel der Arbeitsmaschine 80 kann die Vorrichtung zur Entfernungsmessung im Inneren der Arbeitsmaschine 80 in einer Einbaukammer angeordnet sein. Die Vorrichtung zur Entfernungsmessung ist dadurch vor Staub und anderen äußeren Einflüssen geschützt. Beispielsweise kann sich die Vorrichtung hinter einem oder mehreren Fenstern befinden. Diese Fenster sind zumindest teilweise für die ausgesandte Strahlung 91 und die reflektierte Strahlung 92, 93, 94 durchlässig. Die Fenster können gleichzeitig als Filter dienen. Strahlung mit einer Wellenlänge, die von der Wellenlänge der
ausgesandten Strahlung der Lichtquelle 20 verschieden ist, wird dadurch zumindest teilweise herausgefiltert.
[0041] Darüber hinaus können die Reflexionen im Inneren der Arbeitsmaschine 80 durch verschiedene Maßnahmen reduziert werden. Die Einbaukammer kann dafür reflexionsarm beschichtet oder dunkel lackiert sein oder aus einem Material mit einem kleinen Reflexionskoeffizient ausgeformt sein. Die Fenster der Einbaukammer können aus einem Material bestehen, welches das von der Lichtquelle 20 ausgesandte Licht 91 möglichst wenig reflektiert, und beispielsweise mit einer Antireflexbeschichtung versehen sein. Der Reflexionsgrad von Teilen der Einbaukammer kann beispielsweise weniger als 10% betragen. Ganz allgemein kann entweder an dem Träger 10 oder an dem Arbeitsmaschine 80 eine Blende 15 derart angeordnet sein, dass unerwünschtes von der Lichtquelle 20 emittiertes Streulicht (siehe nach oben verlaufender Lichtstrahl 91 ') abgeschirmt wird. Die Lichtquelle 20 emittiert Licht im Wesentlichen in einer (z.B. horizontalen) Ebene E. Die Blende 15 kann in diesem Fall derart ausgestaltet und angeordnet sein, dass Streulicht, welches zu einem Punkt P hin gestreut wird, der über der Ebene E liegt, abgeschirmt wird Auf diese Weise können keine unerwünschten, vom Streulicht verursachten Reflexionen an stark reflektierenden Objekten in die
Empfangsoptik gelangen. Die Blende 15 kann z.B. eine Schlitzblende sein. Da nach unten abgestrahltes Streulicht in der Regel nicht stört, genügt auch eine„halbe
Schlitzblende", d.h. ein Schilf mit einer horizontal verlaufenden Kante, wobei ein (z.B. horizontal abgestrahlter Hauptstrahl 91 nicht behindert wird, das nach oben abgestrahlte Streulicht jedoch abgeschirmt wird. Die Blende 15 kann bei beliebigen
Ausführungsbeispielen des hier beschriebenen Triangulationssensors verwendet werden. 

Claims

Patentansprüche:
1. Optischer Triangulationssensor zur Messung von Entfernungen, der folgendes aufweist:
eine Lichtquelle (20) zur Erzeugung von strukturiertem Licht, die eine erste optische Achse (95) aufweist;
eine Empfangsoptik (23) mit einer zweiten optischen Achse (96);
einen Träger (10) durch den ein Lichtkanal (43) verläuft,
ein lichtempfindlicher Sensor (30), der derart auf einer Rückseite des Trägers (10) angeordnet ist, dass durch den Lichtkanal (43) einfallendes Licht zumindest teilweise auf den Sensor (30) fällt,
wobei der Sensor (30) lediglich an zwei oder mehr Auflageflächen (41, 42) entlang einer Befestigungslinie (X) mit dem Träger (10) verbunden ist.
2. Optischer Triangulationssensor gemäß Anspruch 1, bei dem die Auflageflächen (41, 42) von der Rückseite des Trägers (10) abgesetzt sind.
3. Optischer Triangulationssensor gemäß Anspruch 1 oder 2, bei dem die
Befestigungslinie (X) normal auf eine Ebene steht, die durch die erste und die zweite optische Achse (95, 96) definiert wird.
4. Optischer Triangulationssensor gemäß einem der vorangehenden Ansprüche, bei dem die Position der Befestigungslinie (X) am Träger (10) so gewählt wird, dass an sehr weit entfernten Objekten reflektiertes Licht der Lichtquelle (20) annähernd auf die
Befestigungslinie (X) einfällt.
5. Optischer Triangulationssensor gemäß einem der vorangehenden Ansprüche, bei dem der Sensor (30) eine Sensorplatine (34) aufweist, auf der mindestens ein
lichtempfindlicher Chip (31) angeordnet ist,
wobei die Sensorplatine (34) über federnde Stege (35, 36) mit einer weiteren
Elektronikplatine (37) verbunden ist, wobei die Sensorplatine (34) lediglich an den Aufläget! ächen (41, 42) entlang der Befestigungslinie (X) mit dem Träger (10) verbunden ist, und
wobei die weitere Elektronikplatine (37) ebenfalls mit dem Träger (10) verbunden ist.
6. Optischer Triangulationssensor gemäß Anspruch 5, bei dem die Sensorplatine (34) abgesehen von den Stegen (35, 36) durch Aussparungen von der weiteren
Elektronikplatine (37) getrennt ist.
7. Optischer Triangulationssensor gemäß einem der vorangehenden Ansprüche, bei dem auf der Sensorplatine (34) zwei oder mehrere lichtempfindliche Chips (31) aufweist, die nebeneinander angeordnet sind.
8. Optischer Triangulationssensor zur Messung von Entfernungen, der folgendes aufweist:
eine Lichtquelle (20) zur Erzeugung von strukturiertem Licht;
eine Empfangsoptik (23);
zumindest ein Befestigungselement (24, 25) oder ein Klebstoff;
einen Träger (10) mit einer ersten Nut (12) an einer Seitenfläche des Trägers (10),
wobei die Lichtquelle (20) und/oder die Empfangsoptik (23) zumindest teilweise in der ersten Nut (12) angeordnet und durch das Befestigungselement (24, 25) bzw. den Klebstoff am Träger (10) fixiert wird.
9. Optischer Triangulationssensor gemäß Anspruch 8, wobei die erste Nut (12) sowie die Lichtquelle (2) und/oder die Empfangsoptik (23) derartig geformt sind, dass die Lichtquelle (12) und/oder die Empfangsoptik (23) nur entlang zweier Kontaktlinien (A, B) am Träger (10) aufliegt.
10. Optischer Triangulationssensor gemäß Anspruch 9, wobei der Träger (10) im mittleren Bereich der ersten Nut (12) mindestens eine Ausnehmung (14) aufweist, sodass die Lichtquelle (20) und/oder die Empfangsoptik (23) nur in zwei oder mehr voneinander unterbrochenen Abschnitten (AI, A2; Bl, B2) der Kontaktlinien (A, B) aufliegen.
11. Optischer Triangulationssensor gemäß Anspruch 9 oder 10, wobei die erste Nut (12) zwei Seitenflächen aufweist, welche Kontaktflächen (11) bilden auf denen die
Lichtquelle (20) und/oder die Empfangsoptik (23) entlang der Kontaktlinien (A, B) aufliegt.
12. Optischer Triangulationssensor gemäß einem der Ansprüche 8 bis 11,
wobei in der ersten Nut (12) zumindest teilweise die Lichtquelle (20) angeordnet ist, und
wobei der Träger (10) eine zweite Nut (13) aufweist, in der zumindest teilweise die Empfangsoptik (23) angeordnet ist.
13. Optischer Triangulationssensor gemäß Anspruch 12, wobei die zweite Nut (13) sowie die Empfangsoptik (23) derartig geformt sind, dass die Empfangsoptik (23) nur entlang zweier Kontaktlinien (A, B) am Träger (10) aufliegt.
14. Optischer Triangulationssensor gemäß Anspruch 13, wobei der Träger (10) im mittleren Bereich der zweiten Nut (13) mindestens eine Ausnehmung (14) aufweist, sodass die Empfangsoptik (23) nur in zwei oder mehr voneinander unterbrochenen Abschnitten (AI, A2; B1,B2) der Kontaktlinien (A, B) aufliegen.
15. Optischer Triangulationssensor gemäß Anspruch 13 oder 14, wobei die zweite Nut (13) zwei Seitenflächen aufweist, welche Kontaktflächen (11) bilden auf denen die Lichtquelle (20) und/oder die Empfangsoptik (23) entlang der Kontaktlinien (A, B) aufliegt.
16. Optischer Triangulationssensor gemäß Anspruch 12, wobei ein Teil einer
Vorderseite des Trägers (10) zurückgesetzt ist, und die zweite Nut (13) in der zweiten Seitenfläche von der Vorderseite des Trägers (10) bis zu dem zurückgesetzten Teil der Vorderseite verläuft.
17. Optischer Triangulationssensor gemäß Anspruch 16,
wobei an die zweite Nut (13) ein Lichtkanal (43) anschließt, der von dem zurückgesetzten Teil der Vorderseite des Trägers (10) hin zu dessen Rückseite verläuft, und
wobei an der Rückseite des Trägers (10) ein lichtempfindlicher Sensor angeordnet ist.
18. Optischer Triangulationssensor gemäß einem der Ansprüche 8 bis 17, bei dem der Träger 10 eine höhere Steifigkeit aufweist als das Befestigungselement (24, 25).
19. Mobiler Roboter mit einem optischen Triangulationssensor, der in einer
abgeschlossenen Einbaukammer eingebaut ist,
wobei die Einbaukammer mindestens ein Fenster aufweist, durch die vom Triangulationssensor ausgesandtes Licht austreten und reflektiertes Licht eintreten kann, wobei das mindestens eine Fenster innen mit einer Antireflexbeschichtung versehen ist.
20. Mobiler Roboter gemäß Anspruch 19, bei dem das Innere der Einbaukammer mit einer lichtabsorbierenden Schicht mit einem Reflexionsfaktor von weniger als 0, 1 beschichtet ist.
21. Optischer Triangulationssensor zur Messung von Entfernungen, der folgendes aufweist:
eine Lichtquelle (20) zur Erzeugung von strukturiertem Licht;
eine Empfangsoptik (23);
eine Sensorplatine (34) mit zwei oder mehrere nebeneinander angeordneten lichtempfindlichen Sensorchips.
22. Optischer Triangulationssensor zur Messung von Entfernungen, der folgendes aufweist:
eine Lichtquelle (20) zur Erzeugung von strukturiertem Licht;
eine Empfangsoptik (23);
eine Sensorplatine (34) mit einem oder mehreren lichtempfindlichen
Sensorchips, und
eine Blende (15), die derart angeordnet ist, dass von der Lichtquelle emittiertes Streulicht abgeschirmt wird.
23. Optischer Triangulationssensor gemäß Anspruch 22, wobei die Lichtquelle (20) Licht in einer Ebene emittiert und die Blende (15), derart ausgestaltet und angeordnet ist, dass Streulicht (9 ), welches oberhalb die Ebene gestreut wird, abgeschirmt wird.
PCT/AT2016/050179 2015-06-18 2016-06-06 Optischer triangulationssensor zur entfernungsmessung Ceased WO2016201465A2 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP16741218.8A EP3311197A2 (de) 2015-06-18 2016-06-06 Optischer triangulationssensor zur entfernungsmessung
CN201680035323.1A CN107750341A (zh) 2015-06-18 2016-06-06 用于距离测量的光学三角测量传感器
US15/737,510 US11550054B2 (en) 2015-06-18 2016-06-06 Optical triangulation sensor for distance measurement

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015109775.3 2015-06-18
DE102015109775.3A DE102015109775B3 (de) 2015-06-18 2015-06-18 Optischer Triangulationssensor zur Entfernungsmessung

Publications (2)

Publication Number Publication Date
WO2016201465A2 true WO2016201465A2 (de) 2016-12-22
WO2016201465A3 WO2016201465A3 (de) 2017-02-09

Family

ID=56497504

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/AT2016/050179 Ceased WO2016201465A2 (de) 2015-06-18 2016-06-06 Optischer triangulationssensor zur entfernungsmessung

Country Status (5)

Country Link
US (1) US11550054B2 (de)
EP (1) EP3311197A2 (de)
CN (1) CN107750341A (de)
DE (1) DE102015109775B3 (de)
WO (1) WO2016201465A2 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102070283B1 (ko) * 2018-05-16 2020-01-28 엘지전자 주식회사 청소기 및 그 제어방법
CN111121651A (zh) 2018-10-31 2020-05-08 财团法人工业技术研究院 光学测量稳定性控制系统
US11448731B2 (en) 2019-08-30 2022-09-20 Banner Engineering Corp. Triangulation sensor with a first metal lens barrel disposed in a first barrel mounting channel
EP4488620A1 (de) * 2023-07-06 2025-01-08 Sick IVP AB Bildgebungssystem und verfahren in bezug auf dreidimensionale bildgebung auf der basis von lichttriangulation

Family Cites Families (273)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3478824D1 (en) 1983-10-26 1989-08-03 Automax Kk Control system for mobile robot
JPS61251809A (ja) * 1985-05-01 1986-11-08 Hitachi Ltd 自動焦点調節装置
US4777416A (en) 1986-05-16 1988-10-11 Denning Mobile Robotics, Inc. Recharge docking system for mobile robot
US5377106A (en) 1987-03-24 1994-12-27 Fraunhofer Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Process for navigating an unmanned vehicle and a vehicle for the same
JPH0313611A (ja) 1989-06-07 1991-01-22 Toshiba Corp 自動清掃装置
US5109566A (en) 1990-06-28 1992-05-05 Matsushita Electric Industrial Co., Ltd. Self-running cleaning apparatus
US5260710A (en) * 1991-01-31 1993-11-09 Stanley Electric Co., Ltd. Vehicular optical-radar apparatus
JP3198532B2 (ja) 1991-05-14 2001-08-13 松下電器産業株式会社 自走式掃除機
JPH0680203A (ja) 1992-03-24 1994-03-22 East Japan Railway Co 床面洗浄ロボットの制御方法
CA2115859C (en) * 1994-02-23 1995-12-26 Brian Dewan Method and apparatus for optimizing sub-pixel resolution in a triangulation based distance measuring device
DE4421805C1 (de) 1994-06-22 1995-08-17 Siemens Ag Verfahren zur Orientierung, Fahrwegplanung und Steuerung einer autonomen mobilen Einheit
JP3346513B2 (ja) 1994-07-01 2002-11-18 ミノルタ株式会社 マップ記憶方法及びそのマップを使用する経路作成方法
BE1008470A3 (fr) 1994-07-04 1996-05-07 Colens Andre Dispositif et systeme automatique de depoussierage de sol et engin y adapte.
US5995884A (en) 1997-03-07 1999-11-30 Allen; Timothy P. Computer peripheral floor cleaning system and navigation method
FR2763726B1 (fr) 1997-05-20 2003-01-17 Bouchaib Hoummadi Procede de gestion de la circulation routiere par camera video
EP1049964B1 (de) 1997-11-27 2002-03-13 Solar & Robotics Verbesserungen bei beweglichen robotern und bei ihren steuerungssystemen
US6532404B2 (en) 1997-11-27 2003-03-11 Colens Andre Mobile robots and their control system
CN1292878A (zh) 1998-03-10 2001-04-25 西门子公司 探测目标位置的光探测器系统
IL124413A (en) 1998-05-11 2001-05-20 Friendly Robotics Ltd System and method for area coverage with an autonomous robot
BR9912304A (pt) 1998-07-20 2001-05-02 Procter & Gamble Sistema robótico
WO2000078410A1 (fr) 1999-06-17 2000-12-28 Solar & Robotics S.A. Dispositif automatique de ramassage d'objets
GB9917232D0 (en) 1999-07-23 1999-09-22 Notetry Ltd Method of operating a floor cleaning device
JP4207336B2 (ja) 1999-10-29 2009-01-14 ソニー株式会社 移動ロボットのための充電システム、充電ステーションを探索する方法、移動ロボット、コネクタ、及び、電気的接続構造
US6594844B2 (en) 2000-01-24 2003-07-22 Irobot Corporation Robot obstacle detection system
US7155308B2 (en) 2000-01-24 2006-12-26 Irobot Corporation Robot obstacle detection system
JP2002085305A (ja) 2000-09-12 2002-03-26 Toshiba Tec Corp ロボットクリーナ及びロボットクリーナシステム
US6972834B1 (en) 2000-12-11 2005-12-06 Mitsubishi Denki Kabushiki Kaisha Optical distance sensor
US6883201B2 (en) 2002-01-03 2005-04-26 Irobot Corporation Autonomous floor-cleaning robot
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
JP3594016B2 (ja) 2001-01-30 2004-11-24 日本電気株式会社 ロボットのプログラム実行方法、ロボットシステムおよびプログラム処理装置
RU2220643C2 (ru) 2001-04-18 2004-01-10 Самсунг Гванджу Электроникс Ко., Лтд. Автоматическое чистящее устройство, автоматическая чистящая система и способ управления этой системой (варианты)
WO2002096184A1 (fr) 2001-05-28 2002-12-05 Solar & Robotics Sa Amelioration a une tondeuse robotique
US7663333B2 (en) 2001-06-12 2010-02-16 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
EP2330473B2 (de) 2001-06-12 2019-06-19 iRobot Corporation Verfahren und System zur multimodalen Bedeckung für einen autonomen Roboter
US6667592B2 (en) 2001-08-13 2003-12-23 Intellibot, L.L.C. Mapped robot system
KR100427356B1 (ko) * 2001-08-14 2004-04-13 삼성전기주식회사 광마우스용 서브 칩 온 보드
AU2002341358A1 (en) 2001-09-26 2003-04-07 Friendly Robotics Ltd. Robotic vacuum cleaner
DE10204223B4 (de) * 2002-01-31 2004-05-06 Infineon Technologies Ag Gehäuse für eine Koppelanordnung zum Ein- und/oder Auskoppeln optischer Signale
JP2004133882A (ja) 2002-05-10 2004-04-30 Royal Appliance Mfg Co 自律性マルチプラットフォーム・ロボットシステム
JP2003330543A (ja) 2002-05-17 2003-11-21 Toshiba Tec Corp 充電式自律走行システム
JP4085697B2 (ja) * 2002-05-29 2008-05-14 住友電気工業株式会社 光リンクモジュール
AU2002335204A1 (en) 2002-10-04 2004-04-23 Fujitsu Limited Robot system and autonomously traveling robot
US7272467B2 (en) 2002-12-17 2007-09-18 Evolution Robotics, Inc. Systems and methods for filtering potentially unreliable visual data for visual simultaneous localization and mapping
DE10262191A1 (de) 2002-12-23 2006-12-14 Alfred Kärcher Gmbh & Co. Kg Mobiles Bodenbearbeitungsgerät
KR100561855B1 (ko) 2002-12-30 2006-03-16 삼성전자주식회사 로봇용 로컬라이제이션 시스템
US7805220B2 (en) 2003-03-14 2010-09-28 Sharper Image Acquisition Llc Robot vacuum with internal mapping system
US20050010331A1 (en) 2003-03-14 2005-01-13 Taylor Charles E. Robot vacuum with floor type modes
JP4016275B2 (ja) * 2003-06-25 2007-12-05 富士電機デバイステクノロジー株式会社 測距装置
US7756322B2 (en) 2003-08-18 2010-07-13 Honda Motor Co., Ltd. Picture taking mobile robot
US20070061041A1 (en) 2003-09-02 2007-03-15 Zweig Stephen E Mobile robot with wireless location sensing apparatus
EP1533629A3 (de) 2003-11-21 2006-05-24 Siemens Aktiengesellschaft Entfernungsmessung mit einem mobilen Endgerät
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
DE102004004505B9 (de) 2004-01-22 2010-08-05 Alfred Kärcher Gmbh & Co. Kg Bodenbearbeitungsgerät sowie Verfahren zu dessen Steuerung
JP4264009B2 (ja) 2004-01-23 2009-05-13 シャープ株式会社 自走式掃除機
KR20130131493A (ko) 2004-01-28 2013-12-03 아이로보트 코퍼레이션 청소 장치용 데브리 센서
JP2005211359A (ja) 2004-01-30 2005-08-11 Funai Electric Co Ltd 自律走行ロボットクリーナーシステム
JP3841220B2 (ja) 2004-01-30 2006-11-01 船井電機株式会社 自律走行ロボットクリーナー
WO2005074362A2 (en) 2004-02-03 2005-08-18 F. Robotics Aquisitions Ltd. Robot docking station
KR100506097B1 (ko) 2004-02-04 2005-08-03 삼성전자주식회사 자기장 지도 생성 방법 및 장치와 이를 활용한 이동체의포즈 확인 방법 및 장치
US20060020369A1 (en) 2004-03-11 2006-01-26 Taylor Charles E Robot vacuum cleaner
JP2005270413A (ja) 2004-03-25 2005-10-06 Funai Electric Co Ltd 自走式掃除機
JP2007530978A (ja) 2004-03-29 2007-11-01 エヴォリューション ロボティクス インコーポレイテッド 反射光源を使用する位置推定方法および装置
JP4436186B2 (ja) 2004-05-12 2010-03-24 アルパイン株式会社 ナビゲーション装置及び地図表示方法
JP4377744B2 (ja) 2004-05-13 2009-12-02 本田技研工業株式会社 ロボット制御装置
CN100338250C (zh) 2004-05-19 2007-09-19 中国科学院金属研究所 一种高强度高韧性铸造镁合金的制备方法
ATE536577T1 (de) 2004-06-24 2011-12-15 Irobot Corp Fernbediente ablaufsteuerung und verfahren für eine autonome robotervorrichtung
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
KR100641113B1 (ko) 2004-07-30 2006-11-02 엘지전자 주식회사 이동로봇 및 그의 이동제어방법
KR100645379B1 (ko) 2004-10-29 2006-11-15 삼성광주전자 주식회사 로봇 제어 시스템 및 로봇 제어방법
EP2145573B1 (de) 2005-02-18 2011-09-07 iRobot Corporation Selbstfahrender Flächenreinigungsroboter für Nass- und Trockenreinigung
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
US7389156B2 (en) 2005-02-18 2008-06-17 Irobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
KR100638220B1 (ko) 2005-04-23 2006-10-27 엘지전자 주식회사 주행로봇의 위치감지장치 및 그를 구비한 로봇청소기
JP4455417B2 (ja) 2005-06-13 2010-04-21 株式会社東芝 移動ロボット、プログラム及びロボット制御方法
DE202005021588U1 (de) 2005-09-05 2008-10-09 Robert Bosch Gmbh Laser-Entfernungsmessgerät
EP1941411B1 (de) 2005-09-30 2011-09-14 iRobot Corporation Begleitroboter für persönliche interaktion
US9002511B1 (en) 2005-10-21 2015-04-07 Irobot Corporation Methods and systems for obstacle detection using structured light
ES2623920T3 (es) 2005-12-02 2017-07-12 Irobot Corporation Sistema de robot.
KR101300493B1 (ko) 2005-12-02 2013-09-02 아이로보트 코퍼레이션 커버리지 로봇 이동성
WO2008013568A2 (en) 2005-12-30 2008-01-31 Irobot Corporation Autonomous mobile robot
JP2007201213A (ja) * 2006-01-27 2007-08-09 Opnext Japan Inc 光受信モジュール
DE102006007764A1 (de) 2006-02-20 2007-08-23 Sick Ag Optoelektronische Vorrichtung und Verfahren zu deren Betrieb
KR100988736B1 (ko) 2006-03-15 2010-10-20 삼성전자주식회사 자율주행 이동로봇의 최단 경로 이동을 위한 홈 네트워크시스템 및 그 방법
US7483151B2 (en) 2006-03-17 2009-01-27 Alpineon D.O.O. Active 3D triangulation-based imaging method and device
EP1842474A3 (de) 2006-04-04 2007-11-28 Samsung Electronics Co., Ltd. Reinigungsrobotersystem mit Reinigungsroboter und Dockstation
KR100735565B1 (ko) 2006-05-17 2007-07-04 삼성전자주식회사 구조광을 이용한 물체 검출 방법 및 이를 이용한 로봇
KR100791382B1 (ko) 2006-06-01 2008-01-07 삼성전자주식회사 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치
US8355818B2 (en) 2009-09-03 2013-01-15 Battelle Energy Alliance, Llc Robots, systems, and methods for hazard evaluation and visualization
KR100791384B1 (ko) 2006-07-05 2008-01-07 삼성전자주식회사 특징점을 이용한 영역 구분 방법 및 장치와 이를 이용한이동 청소 로봇
KR100791386B1 (ko) 2006-08-18 2008-01-07 삼성전자주식회사 이동 로봇의 영역 분리 방법 및 장치
US8996172B2 (en) 2006-09-01 2015-03-31 Neato Robotics, Inc. Distance sensor system and method
KR100815545B1 (ko) 2006-12-06 2008-03-20 삼성광주전자 주식회사 서비스 로봇 충전방법
KR100791389B1 (ko) 2006-12-26 2008-01-07 삼성전자주식회사 스트럭쳐드 라이트를 이용한 거리 측정 장치 및 방법
DE102007003024A1 (de) 2007-01-20 2008-07-31 Sick Ag Triangulationssensor mit Entfernungsbestimmung aus Lichtfleckposition und -form
DE102007016913A1 (de) 2007-04-05 2008-10-09 Inmach Intelligente Maschinen Gmbh Verfahren zum Abfahren einer Arbeits-Fläche
DE102007016802B3 (de) 2007-04-05 2008-05-15 Miele & Cie. Kg Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes
KR101505380B1 (ko) * 2007-05-09 2015-03-23 아이로보트 코퍼레이션 표면 처리 로봇
US20090048727A1 (en) 2007-08-17 2009-02-19 Samsung Electronics Co., Ltd. Robot cleaner and control method and medium of the same
KR20090019338A (ko) 2007-08-20 2009-02-25 삼성전자주식회사 광학 센서
KR101330734B1 (ko) 2007-08-24 2013-11-20 삼성전자주식회사 로봇청소기와 도킹 스테이션을 구비하는 로봇청소기 시스템
DE202007014849U1 (de) 2007-10-24 2008-01-17 Pepperl + Fuchs Gmbh Optoelektronischer Sensor zum Nachweis von Objekten in einem Überwachungsbereich
KR101415879B1 (ko) 2008-01-04 2014-07-07 삼성전자 주식회사 이동 로봇을 도킹시키는 방법 및 장치
KR20090077547A (ko) 2008-01-11 2009-07-15 삼성전자주식회사 이동 로봇의 경로 계획 방법 및 장치
DE102008014912B4 (de) 2008-03-19 2023-01-19 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Bodenstaub-Aufsammelgerät
JP4909930B2 (ja) 2008-03-28 2012-04-04 日立アプライアンス株式会社 自走式掃除システム
US8194233B2 (en) * 2008-04-11 2012-06-05 Microsoft Corporation Method and system to reduce stray light reflection error in time-of-flight sensor arrays
EP2303085B1 (de) 2008-04-24 2017-07-26 iRobot Corporation Anwendung von lokalisierungs-, positionierungs- und navigationssystemen für robotergestützte mobile produkte
DE102008028931A1 (de) 2008-06-18 2009-12-24 BSH Bosch und Siemens Hausgeräte GmbH Verfahren und Vorrichtung zum Steuern einer Fahrbewegung eines Roboters, insbesondere eines Staubsammelroboters in einem Flächenbereich
CN101387512B (zh) * 2008-08-28 2010-06-09 上海科勒电子科技有限公司 距离检测感应装置
CN101387514B (zh) 2008-08-28 2010-07-28 上海科勒电子科技有限公司 距离检测感应装置
KR101021072B1 (ko) * 2008-08-29 2011-03-11 크루셜텍 (주) 광 조이스틱 및 이를 갖는 휴대 전자기기
JP5029572B2 (ja) * 2008-11-07 2012-09-19 住友電気工業株式会社 導光板、配線モジュールおよび電子機器
KR101553654B1 (ko) 2009-02-13 2015-10-01 삼성전자 주식회사 이동 로봇 및 이동 로봇의 이동 방법
DE102009001734A1 (de) 2009-03-23 2011-02-24 Robert Bosch Gmbh Optikträger
JP5506225B2 (ja) 2009-03-30 2014-05-28 セーレン株式会社 広告シートのリサイクル方法
EP2261762A3 (de) 2009-06-12 2014-11-26 Samsung Electronics Co., Ltd. Reinigungsroboter und Steuerungsverfahren dafür
US8428776B2 (en) 2009-06-18 2013-04-23 Michael Todd Letsky Method for establishing a desired area of confinement for an autonomous robot and autonomous robot implementing a control system for executing the same
KR101672787B1 (ko) 2009-06-19 2016-11-17 삼성전자주식회사 로봇청소기와 도킹스테이션 및 이를 가지는 로봇청소기 시스템 및 그 제어방법
DE102009059217A1 (de) 2009-08-12 2011-02-17 Vorwerk & Co. Interholding Gmbh Verfahren zur Orientierung eines selbsttätig verfahrbaren Gerätes
DE102009041362A1 (de) 2009-09-11 2011-03-24 Vorwerk & Co. Interholding Gmbh Verfahren zum Betreiben eines Reinigungsroboters
CN104970741B (zh) 2009-11-06 2017-08-29 艾罗伯特公司 用于通过自主型机器人完全覆盖表面的方法和系统
DE102009052629A1 (de) 2009-11-10 2011-05-12 Vorwerk & Co. Interholding Gmbh Verfahren zur Steuerung eines Roboters
KR101626984B1 (ko) 2009-11-16 2016-06-02 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
JP2011128899A (ja) 2009-12-17 2011-06-30 Murata Machinery Ltd 自律移動装置
US8892251B1 (en) 2010-01-06 2014-11-18 Irobot Corporation System and method for autonomous mopping of a floor surface
DE102010000174B4 (de) 2010-01-22 2022-09-01 Vorwerk & Co. Interholding Gesellschaft mit beschränkter Haftung Verfahren zur Reinigung eines Raumes mittels eines selbsttätig verfahrbaren Reinigungsgerätes
KR101686170B1 (ko) 2010-02-05 2016-12-13 삼성전자주식회사 주행 경로 계획 장치 및 방법
DE102010000317B4 (de) 2010-02-05 2025-06-05 Vorwerk & Co. Interholding Gmbh Verfahren zur Reinigung eines Raums mittels eines selbsttätig verfahrbaren Reinigungsgerätes
KR101649645B1 (ko) 2010-02-08 2016-08-22 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
JP2011181997A (ja) 2010-02-26 2011-09-15 Brother Industries Ltd 通信装置およびプログラム
DE102010000607B4 (de) 2010-03-02 2022-06-15 Vorwerk & Co. Interholding Gmbh Als Basisstation für ein selbsttätig verfahrbares Saug- und/oder Kehrgerät einsetzbarer Haushaltsstaubsauger
KR20110119118A (ko) 2010-04-26 2011-11-02 엘지전자 주식회사 로봇 청소기, 및 이를 이용한 원격 감시 시스템
KR101487778B1 (ko) 2010-05-11 2015-01-29 삼성전자 주식회사 센싱 시스템 및 이를 갖춘 이동 로봇
US8442682B2 (en) 2010-05-28 2013-05-14 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous robot charging stations and methods
DE102010017211B4 (de) 2010-06-02 2024-12-19 Vorwerk & Co. Interholding Gmbh Basisstation für ein selbsttätig verfahrbares Bodenreinigungsgerät sowie Verfahren zur Reinigung eines Bodens mittels eines solchen Bodenreinigungsgerätes
DE102010017689A1 (de) 2010-07-01 2012-01-05 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Gerät sowie Verfahren zur Orientierung eines solchen Gerätes
JP5560978B2 (ja) 2010-07-13 2014-07-30 村田機械株式会社 自律移動体
KR101483541B1 (ko) 2010-07-15 2015-01-19 삼성전자주식회사 로봇청소기, 메인터넌스 스테이션 그리고 이들을 가지는 청소시스템
DE102010033768A1 (de) 2010-08-09 2012-02-09 Dürr Systems GmbH Steuersystem und Steuerverfahren für einen Roboter
DE102011050357A1 (de) 2010-08-12 2012-02-16 Vorwerk & Co. Interholding Gmbh Verfahren zur Steuerung eines selbsttätig verfahrbaren Gerätes
CN101945325B (zh) 2010-08-13 2016-04-27 厦门雅迅网络股份有限公司 一种基于基站定位的朋友感知方法
CN102407522B (zh) 2010-09-19 2014-03-26 泰怡凯电器(苏州)有限公司 智能机器人系统及其充电对接方法
KR20120043865A (ko) 2010-10-27 2012-05-07 주식회사 케이티 이동통신 단말의 위치정보를 활용한 로봇 인터랙션 서비스 제공 시스템, 방법 및 장치
KR101750340B1 (ko) 2010-11-03 2017-06-26 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
KR101752190B1 (ko) 2010-11-24 2017-06-30 삼성전자주식회사 로봇청소기 및 그 제어방법
JP5832553B2 (ja) 2010-12-30 2015-12-16 アイロボット コーポレイション カバレッジロボットナビゲーション
WO2012092565A1 (en) 2010-12-30 2012-07-05 Irobot Corporation Debris monitoring
US9749780B2 (en) 2011-02-05 2017-08-29 Apple Inc. Method and apparatus for mobile location determination
US20120215380A1 (en) 2011-02-23 2012-08-23 Microsoft Corporation Semi-autonomous robot that supports multiple modes of navigation
US8779391B2 (en) 2011-03-03 2014-07-15 Teckni-Corp Sterilization system with ultraviolet emitter for eradicating biological contaminants
DE102011006062B4 (de) 2011-03-24 2023-05-25 RobArt GmbH Verfahren zur autonomen Inspektion einer Umgebung oder Bearbeitung von Bodenflächen
KR101842460B1 (ko) 2011-04-12 2018-03-27 엘지전자 주식회사 로봇 청소기, 이의 원격 감시 시스템 및 방법
KR101850386B1 (ko) 2011-04-19 2018-04-19 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
WO2012149575A2 (en) 2011-04-29 2012-11-01 Irobot Corporation Robotic vacuum
KR101760950B1 (ko) 2011-05-17 2017-07-24 엘지전자 주식회사 네트워크 시스템의 제어방법
DE102011076491A1 (de) * 2011-05-26 2012-11-29 Esw Gmbh Messeinrichtung zur Distanzmessung
JP5399525B2 (ja) * 2011-06-29 2014-01-29 シャープ株式会社 光学式測距装置および電子機器
DE102011051729A1 (de) 2011-07-11 2013-01-17 Alfred Kärcher Gmbh & Co. Kg Selbstfahrendes Bodenreinigungsgerät
TW201305761A (zh) 2011-07-21 2013-02-01 Ememe Robot Co Ltd 自走機器人及其定位方法
US8761933B2 (en) 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
KR101366860B1 (ko) 2011-09-20 2014-02-21 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
JP5348215B2 (ja) 2011-09-29 2013-11-20 カシオ計算機株式会社 情報取得装置、情報取得方法、情報取得プログラム、及び、情報取得システム
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
KR101910382B1 (ko) 2011-12-08 2018-10-22 엘지전자 주식회사 자동 이동 장치 및 그 수동 조작 방법
JP2013146302A (ja) 2012-01-17 2013-08-01 Sharp Corp 自走式電子機器
US8982217B1 (en) 2012-01-31 2015-03-17 Google Inc. Determining states and modifying environments according to states
DE102012201870A1 (de) 2012-02-08 2013-08-08 RobArt GmbH Verfahren zum automatischen Auslösen einer Selbstlokalisierung
KR101984214B1 (ko) 2012-02-09 2019-05-30 삼성전자주식회사 로봇 청소기의 청소 작업을 제어하기 위한 장치 및 방법
US9146560B2 (en) 2012-03-30 2015-09-29 Irobot Corporation System and method for implementing force field deterrent for robot
CN102738862B (zh) 2012-06-13 2014-12-03 杭州瓦瑞科技有限公司 移动机器人的自动充电系统
DE102012211071B3 (de) 2012-06-27 2013-11-21 RobArt GmbH Interaktion zwischen einem mobilen Roboter und einer Alarmanlage
DE102012105608A1 (de) 2012-06-27 2014-01-02 Miele & Cie. Kg Selbstfahrendes Reinigungsgerät und Verfahren zur Bedienung eines selbstfahrenden Reinigungsgeräts
US9568596B2 (en) 2012-07-24 2017-02-14 Sharp Kabushiki Kaisha Optical distance measuring apparatus and electronic apparatus
US8840323B2 (en) * 2012-08-27 2014-09-23 Avago Technologies General Ip (Singapore) Pte. Ltd. Thermally compensated parallel optical communication module
US8855914B1 (en) 2012-08-31 2014-10-07 Neato Robotics, Inc. Method and apparatus for traversing corners of a floored area with a robotic surface treatment apparatus
DE102012109004A1 (de) 2012-09-24 2014-03-27 RobArt GmbH Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen
CN202815219U (zh) * 2012-09-24 2013-03-20 中国医学科学院生物医学工程研究所 一种照射距离测定仪
TWI459170B (zh) 2012-10-04 2014-11-01 Ind Tech Res Inst 行進控制裝置以及具有該行進控制裝置之自動引導載具
EP2903787B1 (de) 2012-10-05 2019-05-15 iRobot Corporation Roboterverwaltungssysteme zur bestimmung einer andockstationsposition mit mobilen robotern und verfahren damit
JP6142501B2 (ja) * 2012-10-30 2017-06-07 オムロン株式会社 光学式センサ
US8972061B2 (en) 2012-11-02 2015-03-03 Irobot Corporation Autonomous coverage robot
US20140128093A1 (en) 2012-11-06 2014-05-08 Qualcomm Incorporated Portal transition parameters for use in mobile device positioning
KR101428877B1 (ko) 2012-12-05 2014-08-14 엘지전자 주식회사 로봇 청소기
TWI481980B (zh) 2012-12-05 2015-04-21 國立交通大學 電子裝置及其導航方法
KR20140073854A (ko) 2012-12-07 2014-06-17 주식회사 유진로봇 PSD scanner를 사용한 청소로봇의 장애물 감지 시스템
DE102012112035A1 (de) 2012-12-10 2014-06-12 Miele & Cie. Kg Verfahren zum Betrieb eines Staubsaugerroboters und nach dem Verfahren arbeitender Staubsaugerroboter sowie System mit einem solchen Staubsaugerroboter
DE102012112036B4 (de) 2012-12-10 2023-06-07 Miele & Cie. Kg Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät
KR102058918B1 (ko) 2012-12-14 2019-12-26 삼성전자주식회사 홈 모니터링 방법 및 장치
US9903130B2 (en) 2012-12-22 2018-02-27 Maytronics Ltd. Autonomous pool cleaning robot with an external docking station
DE102013100192A1 (de) 2013-01-10 2014-07-10 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter
US9233472B2 (en) 2013-01-18 2016-01-12 Irobot Corporation Mobile robot providing environmental mapping for household environmental control
US9375847B2 (en) 2013-01-18 2016-06-28 Irobot Corporation Environmental management systems including mobile robots and methods using same
AU2013374347B2 (en) 2013-01-18 2016-05-19 Irobot Corporation Environmental management systems including mobile robots and methods using same
GB2509989B (en) 2013-01-22 2015-03-04 Dyson Technology Ltd Docking station for a mobile robot
GB2509991B (en) 2013-01-22 2015-03-11 Dyson Technology Ltd Docking station for a mobile robot
GB2509990B (en) 2013-01-22 2014-12-10 Dyson Technology Ltd Docking station for a mobile robot
KR101490170B1 (ko) 2013-03-05 2015-02-05 엘지전자 주식회사 로봇 청소기
KR101450537B1 (ko) 2013-03-05 2014-10-14 엘지전자 주식회사 로봇 청소기
KR101450569B1 (ko) 2013-03-05 2014-10-14 엘지전자 주식회사 로봇 청소기
WO2014138472A2 (en) 2013-03-06 2014-09-12 Robotex Inc. System and method for collecting and processing data and for utilizing robotic and/or human resources
JP6088858B2 (ja) 2013-03-12 2017-03-01 シャープ株式会社 自走式機器
JP2014197294A (ja) 2013-03-29 2014-10-16 株式会社日立産機システム 位置同定装置、及びそれを備えた移動ロボット
KR102071575B1 (ko) 2013-04-23 2020-01-30 삼성전자 주식회사 이동로봇, 사용자단말장치 및 그들의 제어방법
CN104117987B (zh) 2013-04-26 2017-05-10 恩斯迈电子(深圳)有限公司 移动机器人
DE102013104399A1 (de) 2013-04-30 2014-10-30 Vorwerk & Co. Interholding Gmbh Basisstation für ein selbsttätig verfahrbares Gerät
DE102013104547A1 (de) * 2013-05-03 2014-11-06 Miele & Cie. Kg Selbstfahrendes Bodenbearbeitungsgerät und optisches System für ein selbstfahrendes Bodenbearbeitungsgerät
GB2513912B (en) 2013-05-10 2018-01-24 Dyson Technology Ltd Apparatus for guiding an autonomous vehicle towards a docking station
CN104161487B (zh) 2013-05-17 2018-09-04 恩斯迈电子(深圳)有限公司 移动装置
KR20140145648A (ko) 2013-06-13 2014-12-24 삼성전자주식회사 청소 로봇 및 그 제어 방법
KR101534005B1 (ko) 2013-07-16 2015-07-06 주식회사 유진로봇 청소 로봇을 이용하여 사용자 지정 영역을 청소하기 위한 시스템 및 그 방법
EP3822730B1 (de) 2013-08-06 2022-12-07 robart GmbH Verfahren zum betreiben eines bodenreinigungsgerätes und bodenreinigungsgerät
JP5897517B2 (ja) 2013-08-21 2016-03-30 シャープ株式会社 自律移動体
CN104460663A (zh) 2013-09-23 2015-03-25 科沃斯机器人科技(苏州)有限公司 智能手机控制清扫机器人的方法
US20150115138A1 (en) * 2013-10-25 2015-04-30 Avago Technologies General Ip (Singapore) Pte. Ltd. Sensing Device With A Shield
KR102152641B1 (ko) 2013-10-31 2020-09-08 엘지전자 주식회사 이동 로봇
KR102095817B1 (ko) 2013-10-31 2020-04-01 엘지전자 주식회사 이동 로봇, 이동 로봇의 충전대 및 이들을 포함하는 이동 로봇 시스템
EP2870852A1 (de) 2013-11-11 2015-05-13 Honda Research Institute Europe GmbH Rasenmäher mit Netzwerkkommunikation
US9573275B2 (en) 2013-11-12 2017-02-21 Husqvarna Ab Navigation for a robotic working tool
CN105873488B (zh) 2013-12-06 2017-11-28 阿尔弗雷德·凯驰两合公司 清洁系统
KR102118049B1 (ko) 2013-12-19 2020-06-09 엘지전자 주식회사 로봇 청소기, 로봇 청소기 시스템 및 그 제어방법
EP3084540B1 (de) 2013-12-19 2021-04-14 Aktiebolaget Electrolux Robotische reinigungsvorrichtung und verfahren dazu
JP6638988B2 (ja) 2013-12-19 2020-02-05 アクチエボラゲット エレクトロルックス サイドブラシを有し、渦巻きパターンで動くロボットバキュームクリーナ
CN203672362U (zh) 2013-12-31 2014-06-25 科沃斯机器人科技(苏州)有限公司 激光测距装置及其自移动机器人
KR102118051B1 (ko) 2014-01-17 2020-06-02 엘지전자 주식회사 로봇청소기 시스템 및 이의 충전방법
KR102158695B1 (ko) 2014-02-12 2020-10-23 엘지전자 주식회사 로봇 청소기 및 이의 제어방법
KR102072387B1 (ko) 2014-03-20 2020-02-03 삼성전자주식회사 로봇 청소기 및 로봇 청소기의 제어방법
DE102014012811B4 (de) 2014-03-27 2017-09-21 Miele & Cie. Kg Bodenreinigungsgerät und Verfahren und System zum Ermitteln eines Wohnungsgrundrisses durch ein selbstfahrendes Bodenreinigungsgerät
CN104972462B (zh) 2014-04-14 2017-04-19 科沃斯机器人股份有限公司 自移动机器人避障行走方法
KR101578861B1 (ko) 2014-04-25 2015-12-21 에브리봇 주식회사 거리 센서, 로봇 청소기 및 이의 제어 방법
KR101578864B1 (ko) 2014-04-25 2015-12-29 에브리봇 주식회사 거리 센서, 로봇 청소기 및 이의 제어 방법
KR101578884B1 (ko) 2014-04-25 2015-12-29 에브리봇 주식회사 거리 센서, 로봇 청소기 및 이의 제어 방법
KR101578878B1 (ko) 2014-05-07 2015-12-21 에브리봇 주식회사 거리 센서 장치, 로봇 청소기 및 이의 제어 방법
JP5676039B1 (ja) 2014-05-28 2015-02-25 シャープ株式会社 自走式装置、自走式装置の制御方法、および、自走式装置の制御プログラム
CN105334847B (zh) 2014-06-26 2021-07-27 科沃斯机器人股份有限公司 自移动机器人
DE102014110104B4 (de) 2014-07-18 2016-12-15 eyeworkers interactive GmbH System zur Steuerung von beweglichen Mobileinheiten
DE102014110265A1 (de) 2014-07-22 2016-01-28 Vorwerk & Co. Interholding Gmbh Verfahren zur Reinigung oder Bearbeitung eines Raumes mittels eines selbsttätig verfahrbaren Gerätes
EP3177974A1 (de) 2014-08-06 2017-06-14 Alfred Kärcher GmbH & Co. KG Verfahren zum bearbeiten einer bodenfläche und bodenbearbeitungsgerät
US10211191B2 (en) * 2014-08-06 2019-02-19 Pixart Imaging Inc. Image module package with transparent sub-assembly
DE102014111217A1 (de) 2014-08-06 2016-02-11 Vorwerk & Co. Interholding Gmbh Bodenreinigungsgerät zur Trocken- und Feuchtreinigung sowie Verfahren zum Betrieb eines selbstfahrenden Bodenreinigungsgerätes
KR102306709B1 (ko) 2014-08-19 2021-09-29 삼성전자주식회사 청소 로봇, 청소 로봇의 제어 장치, 제어 시스템, 및 제어 방법
WO2016028021A1 (ko) 2014-08-20 2016-02-25 삼성전자주식회사 청소 로봇 및 그 제어 방법
KR102527645B1 (ko) 2014-08-20 2023-05-03 삼성전자주식회사 청소 로봇 및 그 제어 방법
JP5819498B1 (ja) 2014-08-27 2015-11-24 シャープ株式会社 自律移動体及び自律移動体システム
JP6325946B2 (ja) 2014-08-27 2018-05-16 東芝ライフスタイル株式会社 自律走行体装置
DE102014113040A1 (de) 2014-09-10 2016-03-10 Miele & Cie. Kg Verfahren zum Betrieb eines Haushaltsgerätesystems
AU2015322263B2 (en) 2014-09-24 2018-03-22 Samsung Electronics Co., Ltd. Cleaning robot and method for controlling cleaning robot
WO2016048077A1 (ko) 2014-09-24 2016-03-31 삼성전자주식회사 청소 로봇 및 청소 로봇의 제어 방법
CN105527961A (zh) 2014-09-30 2016-04-27 科沃斯机器人有限公司 一种自移动表面行走机器人系统及回归主充电座的方法
US9798328B2 (en) 2014-10-10 2017-10-24 Irobot Corporation Mobile robot area cleaning
WO2016077703A1 (en) 2014-11-13 2016-05-19 Worcester Polytechnic Institute Gyroscope assisted scalable visual simultaneous localization and mapping
US9788698B2 (en) 2014-12-10 2017-10-17 Irobot Corporation Debris evacuation for cleaning robots
WO2016091312A1 (en) 2014-12-11 2016-06-16 Husqvarna Ab Improved navigation for a robotic working tool
US9420741B2 (en) 2014-12-15 2016-08-23 Irobot Corporation Robot lawnmower mapping
KR102326401B1 (ko) 2014-12-16 2021-11-16 에이비 엘렉트로룩스 로봇 청소 장치를 위한 청소 방법
EP3045936A1 (de) * 2015-01-13 2016-07-20 XenomatiX BVBA Umgebungsabtastsystem mit telezentrischer Optik
KR101640706B1 (ko) 2015-01-28 2016-07-18 엘지전자 주식회사 진공 청소기
KR102404258B1 (ko) 2015-02-06 2022-06-02 삼성전자주식회사 로봇충전복귀장치 및 그 복귀방법
CN104634601B (zh) 2015-02-09 2017-07-25 杭州市质量技术监督检测院 清洁机器人清洁性能的检测装置与方法
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
US9630319B2 (en) 2015-03-18 2017-04-25 Irobot Corporation Localization and mapping using physical features
US9868211B2 (en) 2015-04-09 2018-01-16 Irobot Corporation Restricting movement of a mobile robot
DE102015006014A1 (de) 2015-05-13 2016-11-17 Universität Bielefeld Bodenbearbeitungsgerät und Verfahren zu dessen Navigation sowie Schwarm von Bodenbearbeitungsgeräten und Verfahren zu deren gemeinsamer Navigation
CN105045098B (zh) 2015-05-29 2017-11-21 希美埃(芜湖)机器人技术有限公司 一种机器人喷涂轨迹自动生成系统的控制方法
US9919425B2 (en) 2015-07-01 2018-03-20 Irobot Corporation Robot navigational sensor system
EP3156873B2 (de) 2015-10-15 2023-04-05 Honda Research Institute Europe GmbH Autonomes fahrzeug mit verbesserter simultaner ortung und kartierungsfunktion
DE102015119501A1 (de) 2015-11-11 2017-05-11 RobArt GmbH Unterteilung von Karten für die Roboternavigation
CN105990876B (zh) 2015-12-21 2019-03-01 小米科技有限责任公司 充电桩及其识别方法、装置和自动清洁设备
CN105467398B (zh) 2015-12-31 2018-08-21 上海思岚科技有限公司 扫描测距设备
CN105527619B (zh) 2016-02-05 2018-07-17 上海思岚科技有限公司 一种激光测距设备
DE102016102644A1 (de) 2016-02-15 2017-08-17 RobArt GmbH Verfahren zur Steuerung eines autonomen mobilen Roboters
DE102016114594B4 (de) 2016-08-05 2025-12-18 Papst Licensing Gmbh & Co. Kg Verfahren zur Steuerung eines autonomen mobilen Roboters
DE102016125319A1 (de) 2016-12-22 2018-06-28 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Fahrzeugs

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
None

Also Published As

Publication number Publication date
US11550054B2 (en) 2023-01-10
DE102015109775B3 (de) 2016-09-22
WO2016201465A3 (de) 2017-02-09
EP3311197A2 (de) 2018-04-25
US20180180738A1 (en) 2018-06-28
CN107750341A (zh) 2018-03-02

Similar Documents

Publication Publication Date Title
EP1405037B1 (de) Vorrichtung zur optischen distanzmessung über einen grossen messbereich
EP2002281B1 (de) Vorrichtung zur optischen distanzmessung
EP2293044B1 (de) Vorrichtung und Verfahren zur Detektion von Verunreinigungen
EP0190624B1 (de) Optisch-elektronischer Entfernungsmesser
DE202014005508U1 (de) Entfernungsmessvorrichtung
DE102016114432A1 (de) Optoelektronischer Sensor und Verfahren zur Erfassung eines Objekts
DE102015118258B3 (de) Laserscanner und Verfahren zur Überprüfung von dessen Funktionsfähigkeit
DE102012020457A1 (de) Optische Abstandsmess- oder Ortungseinrichtung und elektronisches Gerät, welches mit demselben ausgebildet ist
DE102015109775B3 (de) Optischer Triangulationssensor zur Entfernungsmessung
EP3347673B1 (de) Positionsempfindliche optoelektronische detektoranordnung und laserstrahlempfänger, der diese verwendet
DE212017000247U1 (de) LiDAR-Vorrichtung
EP3388857B1 (de) Laserscanner und verfahren zur überprüfung der funktionsfähigkeit
DE102009050826B4 (de) Optischer Sensor
DE10232160A1 (de) Optischer Abstandssensor
EP2093731A1 (de) Linearer optischer Rauchmelder mit mehreren Teilstrahlen
DE112015006912T5 (de) Optisches Entfernungsmesssystem
EP3491413A1 (de) Optische anordnung für ein lidar-system, lidar-system und arbeitsvorrichtung
DE102011108683A1 (de) Optische Messvorrichtung für ein Fahrzeug
DE19804059A1 (de) Vorrichtung zur optischen Distanzmessung
EP3907547A1 (de) Optoelektronischer sensor
EP3324218B1 (de) Mehrstrahllichtschranke
DE102005041998B4 (de) Verfahren zur Justage eines abbildenden Elements sowie Messgerät justiert nach einem derartigen Verfahren
DE202016104285U1 (de) Optoelektronischer Sensor zur Erfassung eines Objekts
EP1903352A1 (de) Optoelektronische Sensoreinheit und Verfahren zum Betreiben einer optoelektronischen Sensoreinheit
DE102019121605A1 (de) Optischer Flüssigkeitsdetektor mit ebener Detektionsfläche und koplanaren optoelektronischen Komponenten

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16741218

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 15737510

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016741218

Country of ref document: EP