WO2014122752A1 - 介助ロボット - Google Patents

介助ロボット Download PDF

Info

Publication number
WO2014122752A1
WO2014122752A1 PCT/JP2013/052890 JP2013052890W WO2014122752A1 WO 2014122752 A1 WO2014122752 A1 WO 2014122752A1 JP 2013052890 W JP2013052890 W JP 2013052890W WO 2014122752 A1 WO2014122752 A1 WO 2014122752A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
assisted
locus
standing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2013/052890
Other languages
English (en)
French (fr)
Inventor
鈴木 淳
丈二 五十棲
森 一明
伸幸 中根
英明 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Corp
Original Assignee
Fuji Machine Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Machine Manufacturing Co Ltd filed Critical Fuji Machine Manufacturing Co Ltd
Priority to PCT/JP2013/052890 priority Critical patent/WO2014122752A1/ja
Priority to JP2014560571A priority patent/JP6208155B2/ja
Priority to CN201380072426.1A priority patent/CN105025860B/zh
Priority to US14/766,661 priority patent/US10166159B2/en
Priority to EP13874310.9A priority patent/EP2954882B1/en
Publication of WO2014122752A1 publication Critical patent/WO2014122752A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G7/00Beds specially adapted for nursing; Devices for lifting patients or disabled persons
    • A61G7/10Devices for lifting patients or disabled persons, e.g. special adaptations of hoists thereto
    • A61G7/1013Lifting of patients by
    • A61G7/1019Vertical extending columns or mechanisms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/10Parts, details or accessories
    • A61G5/14Standing-up or sitting-down aids
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G7/00Beds specially adapted for nursing; Devices for lifting patients or disabled persons
    • A61G7/10Devices for lifting patients or disabled persons, e.g. special adaptations of hoists thereto
    • A61G7/104Devices carried or supported by
    • A61G7/1046Mobile bases, e.g. having wheels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2200/00Information related to the kind of patient or his position
    • A61G2200/30Specific positions of the patient
    • A61G2200/34Specific positions of the patient sitting
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2200/00Information related to the kind of patient or his position
    • A61G2200/30Specific positions of the patient
    • A61G2200/36Specific positions of the patient standing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2200/00Information related to the kind of patient or his position
    • A61G2200/50Information related to the kind of patient or his position the patient is supported by a specific part of the body
    • A61G2200/52Underarm
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller

Definitions

  • the present invention relates to an assistance robot that assists the movement of the person being assisted.
  • Patent Document 1 As one type of assistance robot, one shown in Patent Document 1 is known. As shown in FIG. 3 of Patent Document 1, in the assistance robot, each extension of the support member 19 in which the movable member 11 moves to the lower limit position with respect to the support portion 7 while the user is sitting. When the electric motor 17 is driven in a predetermined direction by gripping one of the operation handles 21a while sandwiching a side in the protruding portion 19a, the movable member 11 is moved with respect to the support portion 7 by the feed screw 15 rotating in a predetermined direction. Move upward. Thus, the user is lifted and raised by the support member 19 moving upward.
  • each extension portion 19a When the user is raised to a position where each extension portion 19a can be gripped, the user interrupts the grip operation of the operation handle 21a and stops the upward movement of the movable member 11. In this state, the user can walk while moving the traveling member 3 in a desired direction while holding each extending portion 19a.
  • Patent Document 2 As another type of assistance robot, one shown in Patent Document 2 is known. As shown in Patent Document 2, the assistance robot can assist the user and shift between the non-standing position (sitting position) and the standing position.
  • a seated user is lifted and raised by a support member 19 that moves upward.
  • the user can be assisted to move between the non-standing position and the standing position.
  • the standing locus for raising the person being assisted and the seating locus for being seated may cause the person being assisted to feel uncomfortable.
  • the present invention has been made to solve the above-described problems, and an object of the present invention is to provide an assistance robot that stands and sits without giving a sense of discomfort to the person being assisted.
  • an assistance robot is an assistance robot including a holding unit that supports a part of a body of a person being assisted and assists standing and sitting, and is supported by the holding unit.
  • the standing locus through which the movement control part of the assisted person passes is the end of the erection operation from an early point after the start point of the erection operation, which is an operation to erect the person being assisted.
  • the position of the center of gravity of the person being assisted is set to be within the range of the back of both feet of the person being assisted.
  • the seating trajectory that is different from the trajectory and through which the movement control part of the person being assisted passes is that the centroid position of the person being assisted is from the earliest time after the start of the seating movement, which is the movement of the person being assisted.
  • the back of both feet Characterized in that off the inner is set to move the seating plan position side of the care receiver.
  • FIG. 5b is an end view taken along line 5b-5b shown in FIG. 5a.
  • FIG. 5a It is a front view which shows the periphery containing the 1st slide part shown to FIG. 5a.
  • FIG. 1 is a schematic diagram showing an outline of a care center 10 in which the assistance robot 20 is arranged.
  • the care center 10 is provided with a station 11, a training room 12, and individual rooms 13a to 13d.
  • the care center 10 is a living area where people live.
  • a person existing in the care center 10 is a person M1 who needs assistance or a person M2 who helps the person M1.
  • the station 11 is a place where the assistant M2 is packed, and is a base on which the assistant robot 20 stands by or is charged.
  • the assistance robot 20 is allowed to move in a living area where a person lives, and moves in the living area by driving by left and right driving wheel motors 21g and 21h as driving sources.
  • the training room 12 is a room where the person being assisted M1 performs training and rehabilitation.
  • Each of the private rooms 13a to 13d is a room in which the care recipient M1 lives.
  • the station 11, the training room 12, and the individual rooms 13a to 13d are provided with entrances / exits 11a, 12a, 13a1 to 13d1, respectively, and the entrances / exits 11a, 12a, and 13a1 to 13d1 are connected via a passage 14. .
  • an arrow in the vicinity of the assisting robot 20 indicates the traveling direction of the assisting robot 20.
  • the assistance robot 20 is an assistance robot for supporting a part of the body of the person being assisted M1 (for example, the upper body, particularly the chest) to assist standing and sitting. As shown in FIGS. 2 and 3, the assistance robot 20 includes a base 21, a robot arm unit 22, a holding unit 23, a handle 24, an operation device 25, and a control device 26.
  • the base 21 includes left and right base portions 21a and 21b and left and right leg portions 21c and 21d.
  • the left and right base portions 21a and 21b are disposed at a predetermined distance in the left and right direction.
  • the left and right base portions 21a and 21b are provided with left and right drive wheels 21e and 21f, respectively, and drive the left and right drive wheels 21e and 21f, respectively.
  • the left and right drive wheel motors 21g and 21h (drive sources) are incorporated.
  • the assistance robot 20 travels by left and right drive wheels 21e and 21f driven by left and right drive wheel motors 21g and 21h (drive sources), respectively.
  • the drive source provided on the base 21 may be omitted and configured to be moved by being pushed by the user.
  • the left and right leg portions 21c and 21d extend horizontally from the left and right base portions 21a and 21b in the forward direction (left direction in FIGS. 2 and 3).
  • Left and right driven wheels 21i and 21j are provided at the distal ends of the left and right leg portions 21c and 21d, respectively.
  • a pair of collision prevention sensors 21k and 21l are provided at the ends of the left and right leg portions 21c and 21d, respectively.
  • the collision prevention sensors 21k and 21l are sensors that detect obstacles, and the detection signals thereof are transmitted to the control device 26.
  • the robot arm portion 22 has a base portion attached to a base 21 and mainly includes first and second rotation motors 22a1c and 22b3 and a slide motor 22a2b as shown in FIGS. 4a and 5a.
  • the robot arm unit 22 may be configured from a plurality of axes.
  • the shaft may include at least one of the rotation shaft and the slide shaft.
  • the base of the first arm 22a is attached to the base 21.
  • FIG. The first arm 22a includes a slide base 22a1, a first slide 22a2, and a second slide 22a3.
  • the slide base 22a1 is formed in a substantially rectangular parallelepiped shape as shown in FIGS.
  • the slide base portion 22a1 includes a frame 22a1b whose base end portion is attached to the base 21 so as to be rotatable around the first rotation shaft 22a1a.
  • the frame 22a1b is formed in a substantially U-shaped cross section, and is a rear plate having left and right ends connected to upper rear ends of left and right plate members 22a1b1, 22a1b2 and left and right plate members 22a1b1, 22a1b2 formed by bending. It is comprised from member 22a1b3.
  • the first rotation motor 22a1c is provided on the base 21.
  • the first drive belt 22a1d is mounted between the pulley of the first rotation motor 22a1c and the pulley of the first rotation shaft 22a1a.
  • the frame 22a1b that is, the slide base portion 22a1, rotates forward or backward around the first rotation shaft 22a1a.
  • the first slide portion 22a2 is formed in a substantially rectangular parallelepiped shape and is smaller than the slide base portion 22a1.
  • the first slide portion 22a2 slides in the longitudinal direction (axial movement direction) with respect to the slide base portion 22a1, and is configured to be substantially accommodated in the slide base portion 22a1 when contracted.
  • the first slide portion 22a2 includes a frame 22a2a.
  • the frame 22a2a is formed in an H-shaped cross section and an H-shaped side view, and the front and rear plate-like members 22a2a1, 22a2a2 and the front-rear plate-like members 22a2a1, 22a2a2 It is comprised from the connection plate-shaped member 22a2a3 to which both ends were connected.
  • the left and right ends of the rear plate member 22a2a2 are slidably engaged with the left and right guide grooves 22a1e of the frame 22a1b.
  • a slide motor 22a2b is provided above the rear plate member 22a2a2.
  • a pulley 22a2c is rotatably provided below the rear plate member 22a2a2.
  • a slide belt 22a2e is mounted between the pulley 22a2d and the pulley 22a2c of the slide motor 22a2b.
  • Guide rails 22a2f are provided at both left and right ends of the front plate-like member 22a2a1 of the frame 22a2a.
  • the guide rail 22a2f is slidably engaged with the left and right guide receiving portions 22a3b inside the left and right plate-like members of the frame 22a3a of the second slide portion 22a3 which will be described later.
  • the second slide portion 22a3 is formed in a substantially rectangular parallelepiped shape and is configured to be smaller than the first slide portion 22a2.
  • the second slide portion 22a3 slides in the longitudinal direction (axial movement direction) with respect to the first slide portion 22a2, and is configured to be substantially accommodated in the first slide portion 22a2 when contracted. Yes.
  • the second slide portion 22a3 includes a frame 22a3a.
  • the frame 22a3a has a substantially U-shaped cross section.
  • the front plate has left and right ends connected to the front end portions of the left and right plate members 22a3a1, 22a3a2 and the left and right plate members 22a3a1, 22a3a2. It is comprised from the shape member 22a3a3.
  • left and right guide receiving portions 22a3b that are slidably engaged with the guide rails 22a2f of the frame 22a2a are provided.
  • a fixing portion 22a3c attached to and fixed to the sliding belt 22a2e is provided at the lower part of the right plate member 22a3a2 of the frame 22a3a (see FIGS. 4b and 5c).
  • the frame 22a2a of the first slide portion 22a2 extends along the axial direction with respect to the frame 22a1a of the slide base 22a1 (expanded state shown in FIGS. 4a and 4b).
  • the frame 22a3a of the second slide portion 22a3 extends relative to the frame 22a2a of the first slide portion 22a2 (the extended state shown in FIGS. 4 and 4b).
  • the second arm 22 b is formed in a substantially rectangular parallelepiped shape, and is formed at the distal end portion of the second slide portion 22 a 3 so as to extend in a direction orthogonal to the longitudinal direction (forward direction).
  • the second arm 22b includes a frame 22b1 composed of left and right plate-like members 22b1a and 22b1b.
  • the rear ends of the left and right plate members 22b1a and 22b1b of the frame 22b1 are connected and fixed to the upper ends of the left and right plate members 22a3a1 and 22a3a2 of the frame 22a3a, respectively.
  • the second rotating shaft 22b2 is rotatably interposed at the front ends of the left and right plate-like members 22b1a and 22b1b of the frame 22b1.
  • a second rotation motor 22b3 is provided at the center of the left and right plate-like members 22b1a and 22b1b.
  • the second rotating belt 22b4 is mounted between the pulley of the second rotating motor 22b3 and the pulley of the second rotating shaft 22b2.
  • the third arm 22c is formed in a substantially rectangular parallelepiped shape, and a base end portion thereof is attached to a distal end portion of the second arm 22b so as to be rotatable around the second rotation shaft 22b2.
  • the third arm 22c includes a frame 22c2.
  • the rear end of the frame 22c2 is fixed so as to rotate integrally with the second rotation shaft 22b2.
  • the front end portion of the frame 22c2 is fixed to the rear end of the holding portion 23.
  • the holding part 23 is fixed to the tip of the third arm 22c.
  • the holding unit 23 supports a part of the body of the person being assisted M1 (for example, the upper body, particularly the chest) and assists standing and sitting.
  • the holding part 23 is a member that supports both arms (both sides) from the lower side when facing the person being assisted M1 in the standing and sitting movements of the person being assisted, for example, toward the front. It is formed in a substantially U shape in plan view that opens.
  • the holding portion 23 is formed of, for example, a relatively soft material on the premise that the holding portion 23 contacts the person being assisted.
  • the handle 24 is fixed to the upper surface of the third arm 22c.
  • the handle 24 is composed of a pair of left and right bar-shaped handles, and is gripped by the left and right hands of the person being assisted M1.
  • the handle 24 is provided with contact sensors 24a and 24b that detect gripping.
  • the handle 24 is provided with a left turn switch 24c for turning the assistance robot 20 to the left and a right turn switch 24d for turning the assistance robot 20 to the right. Further, the handle 24 is provided with a stop switch 24e for stopping the assisting robot 20.
  • the third arm 22c receives from the person being assisted M1 when walking while the person being assisted M1 is supported by the holding unit 23 or when the person being assisted is holding the handle 24.
  • a load sensor 22c1 for detecting the force received is provided.
  • the load sensor 22c1 detects a strain amount of the strain generating body that changes due to a change in load as a voltage change, or when pressure is applied to the silicon chip, the gauge resistance changes according to the deflection and is converted into an electric signal.
  • a semiconductor pressure sensor for example, a semiconductor pressure sensor.
  • the operating device 25 includes a display unit 25a that displays an image, and an operation unit 25b that receives an input operation from a user (an assistant M2 or an assistant M1).
  • the operation device 25 is a selection operation unit that selects one form type from among a plurality of form types (described later) corresponding to the plurality of movement postures of the person being assisted M1.
  • the display unit 25a includes a liquid crystal display, and displays an operation mode selection screen of the assisting robot 20 and the like.
  • a standing operation assist mode for assisting the user's standing operation a seating operation assist mode for assisting the user's seating operation, and the like are set.
  • each mode corresponding to the body part that the user wants to train is set in the standing motion assist mode.
  • these modes include an upper body mode for training the upper body, particularly the back muscles, and a lower body mode for training the lower body, particularly the lower limbs.
  • the operation unit 25b includes a cursor key for moving the cursor up / down / left / right, a cancel key for canceling input, a determination key for determining selection, and the like, and is configured to allow a user to input an instruction.
  • the operation device 25 includes a display function of the display unit 25a and an input function of the operation unit 25b, and may be configured by a touch panel that operates the device by pressing a display on the screen.
  • the storage device 27 storage unit
  • the shoulder position Ps that is a movement control part of the person assisted by M1 is In the case where the standing locus reference data indicating the standing locus to pass and the person to be assisted M1 standing up supported by the holding portion 23 (see FIG. 9) are seated, the locus is different from the standing locus and the person being assisted.
  • the seating locus reference data indicating the seating locus through which the shoulder position Ps of M1 passes is stored.
  • the standing locus Tas ⁇ b> 1 indicates that the center of gravity position G of the person being assisted M ⁇ b> 1 is between the early time after the start time of the standing motion that is the motion to raise the assisted person M ⁇ b> 1 and the end time of the standing motion. It is set so that it exists in the range A of the back of both feet of the person being assisted M1.
  • the locus of the gravity center position G is represented by Tg1.
  • the seating locus Tbs1 indicates that the center of gravity position G of the person being assisted M1 is on the back of both feet of the person being assisted by M1 from an early time after the start of the seating movement, which is an action to seat the person being assisted. It is set so as to move out of the range A and move toward the planned sitting position of the person being assisted M1.
  • the seating locus Tbs1 is set to be positioned above the standing locus Tas1.
  • the locus of the gravity center position G is represented by Tg2.
  • the standing locus Tas1 and the sitting locus Tbs1 may be created based on the two-dimensional coordinates (for example, xy coordinates) of the shoulder position Ps obtained by actually photographing the standing motion of a healthy person.
  • the standing locus is shown in FIG.
  • the standing motion is shown stepwise from the upper left (sitting state) to the lower right (standing state).
  • the second state (middle of the upper stage) shows an early time point after the start time of the standing-up operation, and is a time point when the seated person M1 leans forward and the waist of the person M1 rises. From the second to the end point of the standing motion (sixth), the center-of-gravity position G of the person being assisted M1 is within the range A on the soles of both feet of the person being assisted.
  • a seating locus is shown in FIG.
  • the sitting operation is shown stepwise from the upper left (standing state) to the lower right (sitting state).
  • the second state (middle of the upper stage) an earlier time point after the start time of the seating operation is shown, and the standing person M1 sits down and the center of gravity G of the person M1 is the person M1. It is the time of having gone out of the range A of the backs of both feet.
  • the center of gravity position G of the person being assisted is out of the range A of the back of both feet of the person being assisted M1 and the person who is to be assisted by the person sitting by the person M1 (illustrated) Move to the chair side. Note that the above-described standing trajectory and seating trajectory may be created by simulation.
  • the reference data for each locus is formed with two-dimensional coordinates.
  • the standing locus reference data is represented by (Xa1, Ya1),..., (Xan, Yan), for example, in xy coordinates, and is composed of n pieces.
  • the reference data for the seating locus is represented by (Xb1, Yb1),..., (Xbn, Ybn), for example, in xy coordinates, and consists of n pieces.
  • the origin may be the reference point of the assistance robot 20, the coordinates of the first rotation shaft 22a1a, the coordinates of the sitting state, or any point on the seating surface of the person being assisted M1. .
  • the trajectory reference data is preferably configured by adding the angle ⁇ of the holding unit 23 at each coordinate to the xy coordinates.
  • the angle ⁇ of the holding portion 23 at each coordinate is an angle of the holding portion 23 at each point of the standing locus Tas1 and the seating locus Tbs1 (see FIG. 11).
  • This angle ⁇ is an angle formed between the upper body of the person being assisted M1 (the inner wall surface in contact with the person being assisted by the person being assisted by the holding unit 23) and the horizontal plane.
  • the angle ⁇ is 90 degrees when in a sitting state or a standing state.
  • the trajectory reference data is represented by (Xa1, Ya1, ⁇ 1),..., (Xan, Yan, ⁇ n), for example.
  • the reference data for the standing locus includes a first angle ( ⁇ a) that is a rotation angle of the first rotation motor 22a1c, and an arm length (L: slide amount) of the slide motor 22a2b. : A rotation angle corresponding to this arm length) and a second angle ( ⁇ b) which is the rotation angle of the second rotation motor 22b3.
  • the coordinates (Xa1, Ya1, ⁇ 1) obtained by adding the angle ⁇ to the XY coordinates are represented by robot coordinates ( ⁇ a1, L1, ⁇ b1).
  • FIG. 14 is a side view schematically showing the length and angle of the robot arm unit 22.
  • the length of the first arm 22a is La (variable)
  • the length of the second arm 22b is Lb (fixed)
  • the third arm 22c extends from the second rotation shaft 22b1 to the shoulder position Ps.
  • the length along the installation direction is Lc (fixed) and the length along the direction perpendicular to the extending direction is Ld (fixed).
  • the angle formed by the first arm 22a and the horizontal line is the first angle ⁇ a
  • the angle formed by the first arm 22a and the second arm 22b is 90 degrees
  • the angle formed by the second arm 22b and the third arm 22c is ⁇ b.
  • the XY coordinates of the point P1 where the first arm 22a and the second arm 22b are orthogonal are (La ⁇ (cos ⁇ a), La ⁇ (sin ⁇ a)).
  • the XY coordinates of the point P2 which is the second rotation axis 22b1 are obtained by adding (Lb ⁇ (sin ⁇ a), Lb ⁇ (cos ⁇ a)) to the point P1.
  • the XY coordinates of the point P3, which is the foot of the perpendicular line dropped from the shoulder position Ps to the third arm 22c, are (Lc ⁇ (cos ( ⁇ / 2 ⁇ a ⁇ b), Lc ⁇ (sin ( ⁇ / 2 ⁇ a ⁇ b))
  • the shoulder position Ps, that is, the XY coordinates (Xa1, Ya1) of the point P4 are (Ld ⁇ (cos ( ⁇ a + ⁇ b), Ld ⁇ (sin ( ⁇ a + ⁇ b)) with respect to the point P3.
  • the robot coordinates ( ⁇ a1, L1, ⁇ b1) are calculated from the coordinates (Xa1, Ya1, ⁇ 1) obtained by adding the angle ⁇ to the XY coordinates.
  • the first angular velocity ( ⁇ a) that is the angular velocity of the first angle ( ⁇ a) that is the rotational angle of the first rotation motor 22a1c
  • the speed of the holding part 23 when the person being assisted M1 is seated can be made different.
  • a plurality of erection trajectories (for example, a reference erection trajectory) are provided as shown in FIG.
  • the speed of the holding unit 23 can be made to be a speed corresponding to the burden on the person assisted M1.
  • the burden on the upper body, particularly the back muscles increases, and in the second section B2, the burden on the lower body, particularly the thigh muscles, increases.
  • the first section B1 is a section that leans forward
  • the second section B2 is a section that starts rising
  • the third section B3 is a section that has risen to some extent and uses the upper body. Because. When the passing speed of each section is slow, the posture needs to be maintained longer than when the passing speed is fast, and thus the load on the person being assisted M1 increases.
  • the storage device 27 further stores a plurality of standing locus data in addition to the standing locus reference data.
  • These standing locus data are a plurality of pieces of data indicating a different locus from the standing locus (reference standing locus) corresponding to the standing locus reference data, and for training a plurality of different body parts of the person being assisted M1, respectively. It is.
  • FIG. 16 shows the trajectories based on the standing trajectory data.
  • the reference standing locus by the reference data for standing locus is shown by a solid line
  • the standing locus for the upper body by the upper body standing locus data for training the upper body, especially the back muscles is shown by a one-point broken line
  • the standing locus for the lower body is indicated by a broken line.
  • Assistance along the standing locus for the upper body increases the amount of forward leaning of the person being assisted M1 compared to the reference standing locus, so that the amount of use (load) of the back muscles increases compared to the lower limbs. This can increase the load on the upper body, particularly the back muscles.
  • the amount of forward leaning of the person being assisted M1 is reduced compared to the reference standing locus, so that the amount of muscle used (load) of the lower limbs is increased compared to the back muscles. . This can increase the load on the lower body, particularly the lower limbs.
  • the storage device 27 stores a correction amount (first correction amount) corresponding to the height of a seating portion such as a chair or a bed on which the person M1 is seated.
  • the first correction amount is a value for correcting each data described above.
  • Each of the data described above is data when the height of the seating portion is a predetermined value (for example, 40 cm).
  • the first correction amount for the first angle ⁇ a is ⁇ a1
  • the first correction amount for the arm length L is + ⁇ Lb1
  • the second angle ⁇ b The first correction amount is + ⁇ b1.
  • the first correction amount for the first angle ⁇ a is + ⁇ a1
  • the first correction amount for the arm length L is - ⁇ Lb1
  • the second angle ⁇ b is the first correction amount.
  • the correction amount of 1 is + ⁇ b1.
  • a first correction amount is stored for each predetermined difference from the predetermined value.
  • the storage device 27 stores a correction amount (second correction amount) corresponding to the height of the person being assisted M1.
  • This second correction amount is a value for correcting each data described above.
  • Each of the data described above is data when the height of the person being assisted M1 is a predetermined value (for example, an average height or the like, specifically, 170 cm).
  • the second correction amount for the first angle ⁇ a is ⁇ a1
  • the second correction amount for the arm length L is + ⁇ Lb1
  • the second angle ⁇ b is the second correction amount.
  • the correction amount is + ⁇ b1.
  • the second correction amount is + ⁇ a1 for the first angle ⁇ a
  • the second correction amount is ⁇ Lb1 for the arm length L
  • the second angle ⁇ b is the second correction amount.
  • the correction amount of 2 is + ⁇ b1.
  • a second correction amount is stored for each predetermined difference from the predetermined value. These correction amounts are set in advance based on data obtained through experiments using actual machines so that each form type has an appropriate form according to height.
  • Each correction amount described above is stored as a map, but may be stored as an arithmetic expression.
  • the control device 26 performs control related to traveling and posture deformation of the assistance robot 20.
  • the control device 26 includes the above-described collision prevention sensors 21k and 21l, knee sensors 22a1d, load sensors 22c1, contact sensors 24a and 24b, a left turn switch 24c, a right turn switch 24d, a stop switch 24e,
  • the left and right drive wheel motors 21g and 21h, the first rotation motor 22a1c, the slide motor 22a2b, the second rotation motor 22b3, the operation device 25, the storage device 27, the imaging device 28, and the guide device 29 are connected.
  • the control device 26 includes a microcomputer (not shown), and the microcomputer includes an input / output interface, a CPU, a RAM, and a ROM (all not shown) connected via a bus.
  • the control device 26 includes a reference data acquisition unit 26a, a height, a chair height acquisition unit 26b, a correction unit 26c, and a drive control unit 26d.
  • the reference data acquisition unit 26a acquires the standing motion assist mode (any one of the normal mode, the upper body mode, and the lower body mode) selected by the operation device 25, and acquires data according to the acquired mode from the storage device 27. To do. In the upper body mode, the upper body standing locus data is acquired.In the lower body mode, the lower body standing locus data is acquired.In the normal mode that is neither the upper body mode nor the lower body mode, the standing body locus data is acquired. Get reference data. Further, the reference data acquisition unit 26a also acquires the sitting motion assist mode selected by the operation device 25.
  • the height and chair height acquisition unit 26b acquires the height of the person being assisted M1 selected by the operation device 25 and the height of the seating part such as a chair or a bed on which the person assisted M1 is seated.
  • the correction unit 26c corrects the data acquired by the reference data acquisition unit 26a based on the height and height of the seating unit acquired by the height and chair height acquisition unit 26b. Specifically, the correction unit 26c acquires a second correction amount according to the acquired height and a first correction amount according to the height of the seating portion from the storage device 27.
  • the correction unit 26c corrects the data acquired by the reference data acquisition unit 26a with the acquired correction amounts.
  • the drive control unit 26d drives the drive unit including the first and second rotation motors 22a1c and 22b3 and the slide motor 22a2b to make the robot arm unit 22 stand up locus reference data (or upper body standing up). The standing motion is driven based on the locus data or the lower body standing locus data.
  • the drive control unit 26d drives the drive unit to drive the robot arm unit 22 based on the seating locus reference data. Specifically, the drive control unit 26 d reads the data acquired by the reference data acquisition unit 26 a from the storage device 27. Then, the drive control unit 26d drives the drive unit so that the read data is obtained.
  • control device 26 (drive control unit 26d) also stores the angle ⁇ of the holding unit 23 at each point of the standing locus and the seating locus in each of the above data, it drives the drive unit.
  • the angle of the holding part at each point is controlled to be the angle stored in each standing locus reference data and each seating locus reference data.
  • control device 26 (drive control unit 26d) stands up the assisted person M1 sitting supported by the holding unit 23, the assisted person M1 acquired by the reference data acquisition unit 26a is trained.
  • the robot arm unit 22 is driven based on the data corresponding to the body part desired.
  • control device 26 stands up supported by the holding unit 23 and the speed of the holding unit 23 when the person M1 seated supported by the holding unit 23 stands up. It controls so that the speed of the holding
  • the assistance robot 20 configured as described above will be described.
  • the movement of the assistance robot 20 will be described.
  • the case where the assistance robot 20 moves independently from the station 11 to the individual rooms 13a to 13d (or from the individual rooms 13a to 13d to the station 11) will be described.
  • the assistance robot 20 is a route from the entrance / exit 11a of the station 11 to each of the entrances / exits 13a1 to 13d1 of the individual rooms 13a to 13d. It moves along the route stored in the storage device 27.
  • the assistance robot 20 reads the guidance mark 14a provided in the passage 14 via the imaging device 28, calculates the remaining journey from the information, and moves based on the result.
  • the guide mark 14a is, for example, a two-dimensional barcode.
  • the two-dimensional barcode includes the current point (for example, the intersection of the passage 14), the distance and direction from the current point to the destination (for example, the passage when the assisting robot 20 moves from the station 11 to the first private room 13a). Information such as the distance and direction (left turn) from the intersection to the first private room 13a when 14 intersections are reached is described.
  • the guide marks 14a are provided at the corners of the entrance / exit 11a of the station 11, the entrances / exits 13a1 to 13d1 of the individual chambers 13a to 13d, and predetermined locations of the passage 14 (for example, the corners of the intersections and the ceiling surface).
  • the assistance robot 20 enters the first private room 13a through the entrance / exit 13a1 of the first private room 13a, and then approaches the person M1 sitting on the bedside.
  • the assistance robot 20 moves forward with the front surface of the assistance robot 20 in the traveling direction.
  • the assistance robot 20 reads the guidance mark 14b provided in the vicinity of the person being assisted M1 through the front imaging device 28, and approaches the person assisted by M1 based on the information.
  • the assistance robot 20 uses a detection result of the knee sensor 22a1d (a distance between the assistance robot 20 and the knee of the person being assisted M1), and a predetermined position at which the distance from the sitting person M1 is a predetermined distance. Move up.
  • This predetermined position is an optimum position (an optimum standing position) for raising the person being assisted M1.
  • the assistance robot 20 provides guidance to the person being assisted with “hold the handle”.
  • the assistance robot 20 performs an erection operation to erect the person to be assisted M1 in order to detect that the person has grasped the handle 24 by the contact sensors 24a and 24b.
  • the assistance robot 20 holds the upper body of the sitting person M1 by the holding unit 23 (see FIG. 8). Then, the assistance robot 20 raises the person being assisted M1 while holding the upper body (see FIG. 9). More specifically, as shown in FIG. 10, the standing operation is performed along the reference standing locus.
  • the assistance robot 20 assists the person M1 in the standing state.
  • the person being assisted M1 walks and moves while the armpit is held by the holding unit 23.
  • the assistance robot 20 that assists the walking of the person being assisted M1 moves from the first private room 13a to the training room 12, as in the case where the assistance robot 20 moves alone as described above, It moves along the stored route, or moves by reading the guide mark 14a with the imaging device 28.
  • the assistance robot 20 turns right at the entrance / exit 13a1 of the first private room 13a, exits the passage 14, turns right at the intersection of the passage 14, turns left at the entrance / exit 12a of the training room 12, and enters the training room 12.
  • the assistance robot 20 moves forward with the back surface of the assistance robot 20 in the traveling direction.
  • the assisting robot 20 holds the person M1 (see FIG. 9) in an upright state by holding the upper body of the person being assisted by the holding unit 23.
  • the seat is held in the held state (see FIG. 8). More specifically, as shown in FIG. 10, a seating operation is performed along the seating locus.
  • the assistance robot 20 will guide "Please let go of the handle” to the person M1 when the sitting operation is completed.
  • the assistance robot 20 moves away from the person being assisted M1 in order to detect that his / her hand has been released from the handle 24 by the contact sensors 24a and 24b.
  • the assistance robot 20 is an assistance robot that includes the holding unit 23 that supports a part of the body of the person being assisted M1 and assists standing and sitting, and is supported by the holding unit 23 and is seated.
  • the standing locus through which the movement control part (for example, the shoulder position Ps) of the person assisted M1 passes is after the start time of the erection operation, which is an operation to erect the person assisted M1.
  • the center of gravity position G of the person being assisted M1 is set so as to be within the range A on the soles of both feet of the person being assisted during the period from the early point of time to the end of the standing motion, and is supported by the holding portion 23 to stand up.
  • the seating locus that is different from the standing locus and through which the movement control part of the person being assisted passes is the start of the seating operation, which is the operation for seating the person being assisted Beyond Center-of-gravity position G of the care receiver is configured to move the seating plan position side of the care receiver M1 deviates from the back of the range A of both feet of the care receiver M1 from early in.
  • the center of gravity position G is erected as in the case where the normal person is standing. It enters the range A on the soles of both feet from the beginning of the start, and enters the range A after that until the end of the standing motion. Therefore, the person being assisted M1 is assisted in standing up with the same feeling (feeling) as when standing without assistance. Therefore, it can stand up without giving discomfort to the person being assisted M1.
  • the center of gravity position G is determined from the time when both the legs start from the beginning of the seating operation, as in the case where the normal person is seated. After moving out of the range A on the back side, the person moves to the planned sitting position (for example, the seating portion) of the person being assisted. Therefore, the person being assisted M1 is assisted in the seating with the same feeling (feeling) as when sitting without assistance. Therefore, the person being assisted can be seated without feeling uncomfortable.
  • the earlier time point after the start time of the standing motion on the standing locus described above is a time point when the seated person M1 leans forward and the waist of the person M1 rises (see the upper center of FIG. 11).
  • the seated person M1 leans forward and the waist of the person M1 is lifted up to the end of the standing-up operation, so that the person M1 can stand up more reliably without feeling uncomfortable. Can be made.
  • the assisting robot 20 is an assisting robot including a holding unit 23 that supports a part (chest) of the person being assisted M1 and assists standing and sitting, and is provided on the base 21 and the base 21.
  • a robot arm portion 22 having a plurality of arms 22a, 22b, and 22c that can be moved relative to each other by a drive portion, a holding portion 23 that is provided at the tip of the robot arm portion 22 and supports a person being assisted, and a holding portion
  • the standing locus reference data indicating the erection locus through which the movement control part of the person being assisted passes, and the holder 23 is erected.
  • the reference data for the seating locus that is different from the standing locus and that indicates the seating locus through which the movement control part of the person being assisted passes is stored.
  • a device 27 storage unit
  • a driving unit is driven
  • a driving control unit 26d that drives based on the robot arm portion 22 to the reference data and the seating track reference data for upright trajectory.
  • the movement control part for example, the shoulder position
  • the robot arm unit 22 can be driven based on the reference data for the erection locus corresponding to the erection locus of the healthy person. Therefore, the person being assisted M1 is assisted in standing up with the same feeling (feeling) as when standing without assistance. Therefore, it can stand up without giving discomfort to the person being assisted M1.
  • the sitting locus of a healthy person is generally different from the standing locus, but it becomes easy to set the reference data for the sitting locus so that the data corresponds to the sitting locus of the healthy person.
  • the robot arm unit 22 can be driven based on the seating locus reference data corresponding to the seating locus of the healthy person. Therefore, the person being assisted M1 is assisted in the seating with the same feeling (feeling) as when sitting without assistance. Therefore, the person being assisted can be seated without feeling uncomfortable.
  • the driving device further includes a correction unit 26c that corrects the standing locus reference data and the seating locus reference data according to at least one of the height of the person being assisted M1 and the height of the seating portion on which the person being assisted is seated.
  • the control unit 26d drives the drive unit to drive the robot arm unit 22 based on the standing locus reference data and the sitting locus reference data corrected by the correction unit 26c.
  • the standing locus reference data and the sitting locus reference data also store the angle ⁇ of the holding portion 23 at each point of the standing locus and the sitting locus, and the drive control unit 26d (26)
  • the angle ⁇ of the holding unit 23 at each point is controlled so as to be the angle stored in each standing locus reference data and each seating locus reference data.
  • the angle of the movement control part (shoulder position) of the person being assisted in conjunction with the holding unit 23 can be set optimally at each position of the standing locus and the seating locus, so that more comfortable (natural)
  • the assisted person M1 can be erected or seated.
  • the storage device 27 (storage unit) is a plurality of pieces of data indicating a different locus from the standing locus corresponding to the standing locus reference data, and a plurality of different body parts for the person being assisted M1 are trained. Further, standing-up locus data is further stored, and an acquisition unit 26a that acquires data corresponding to the body part that the care recipient M1 wants to train from a plurality of standing-up locus data is further provided.
  • the drive control unit 26d includes the holding unit 23.
  • the robot arm unit 22 is driven based on the data acquired by the acquisition unit 26a when the person being assisted is erected. Thus, by selecting the standing locus corresponding to the body part that the person being assisted M1 wants to train, when standing up, the desired body part can be trained as well.
  • the drive control unit 26d (26) is configured so that the speed of the holding unit 23 when the person M1 seated supported by the holding unit 23 is raised and the speed of the person standing up supported by the holding unit 23 are supported. It controls so that the speed of the holding
  • the speed when a healthy person stands without assistance is slower than the speed when sitting, but similarly, when the person M1 who is supported by the holding unit 23 stands up.
  • the speed can be slower than when sitting. Therefore, standing and sitting are assisted with the same feeling (feeling) as when a healthy person stands or sits. Therefore, it is possible to stand and sit without giving a sense of incongruity to the person being assisted M1.
  • the drive control unit 26d (26) stands up the assisted person M1 seated supported by the holding unit 23
  • the drive control unit 26d (26) corresponds to the body part that the assisted person M1 wants to train among a plurality of sections of the standing locus.
  • the speed of the drive unit is controlled so that the speed of the holding unit 23 becomes a speed according to the burden on the person being assisted M1.
  • the holding unit 23 is provided at the distal end portion of the robot arm unit 22 provided with a plurality of arms 22a, 22b, and 22c that are provided on the base 21 and can be moved relative to each other by the driving unit, and supports the person being assisted.
  • the storage device 27 storage unit
  • the standing locus reference data indicating the rising locus through which the movement control part of the assisted person M1 passes.
  • a seating locus reference that indicates a seating locus that is different from the standing locus and through which the movement control part of the assistant M1 passes when the person being assisted standing by the holding unit 23 is seated. Data.
  • the drive control unit 26d drives the drive unit to drive the robot arm unit 22 based on the standing locus reference data and the seating locus reference data.
  • the standing locus indicates that the center of gravity position G of the person being assisted M1 is on the soles of both feet of the person being assisted during the period from the time after the start of the erection operation, which is the operation to erect the assisted person M1, to the end of the erection operation. Is set to exist within the range A.
  • the seating locus indicates that the center of gravity position G of the person being assisted M1 is out of the range A on the back of both feet of the person being assisted M1 from an early point after the start of the sitting movement, which is an action for seating the person being assisted. It is set so as to move toward the planned seating position (sitting part) of M1.
  • the center of gravity position G is displayed on both legs from the time when the standing motion starts early, as in the case where the normal person stands.
  • the range A is entered in the range A, and the range A is thereafter entered until the end of the standing-up operation. Therefore, the person being assisted M1 is assisted in standing up with the same feeling (feeling) as when standing without assistance. Therefore, it can stand up without giving discomfort to the person being assisted M1.
  • the center of gravity position G is determined from the time when both the legs start from the beginning of the seating operation, as in the case where the normal person is seated. It moves out of the back range A and then moves to the planned sitting position of the person being assisted M1. Therefore, the person being assisted M1 is assisted in the seating with the same feeling (feeling) as when sitting without assistance. Therefore, the person being assisted can be seated without feeling uncomfortable.
  • the seating locus described above is not limited to that shown in FIG.
  • FIG. 17 there is also a seating locus in which the user sits leaning forward compared to that shown in FIG. 10.
  • the center of gravity position of the person being assisted M1 is positioned from the early point after the start of the seating operation, which is an operation for sitting the person being assisted M1. Out of the range A on the soles of both feet of the assistant M1.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nursing (AREA)
  • Rehabilitation Tools (AREA)
  • Manipulator (AREA)

Abstract

 被介助者に違和感を与えることなく、起立させたり着座させたりする介助ロボットを提供する。 介助ロボット20は、被介助者M1を起立させる場合において、被介助者M1の移動制御部位Psが通過する起立軌跡Tas1は、被介助者M1を起立させる動作である起立動作の開始時点以降の早い時点から起立動作の終了時点までの間において被介助者M1の重心位置Gが被介助者の両足の裏の範囲A内に存在するように設定され、被介助者M1を着座させる場合において、起立軌跡Tas1と異なる軌跡であって被介助者M1の移動制御部位Psが通過する着座軌跡Tbs1は、被介助者M1を着座させる動作である着座動作の開始時点以降の早い時点から被介助者M1の重心位置Gが被介助者M1の両足の裏の範囲A内から外れ被介助者M1の着座予定位置側に移動するように設定されている。

Description

介助ロボット
 本発明は、被介助者の移動を補助する介助ロボットに関する。
 介助ロボットの一形式として、特許文献1に示されているものが知られている。特許文献1の図3に示されているように、介助ロボットにおいては、使用者は座った状態にて支持部7に対して可動部材11が下動限位置へ移動した支持部材19の各延出部19aに脇を挟み込みながら一方の操作ハンドル21aを把持操作して電動モータ17を所定の方向へ駆動させると、所要の方向へ回転する送りねじ15により支持部7に対して可動部材11を上方へ移動させる。これにより使用者は上方へ移動する支持部材19により持ち上げられて起立させられる。
 そして使用者が各延出部19aの把持が可能な位置まで起立させられると、使用者は操作ハンドル21aの把持操作を中断して可動部材11の上動を停止させる。この状態にて使用者は各延出部19aを把持しながら走行部材3を所望の方向へ移動させながら歩行することができる。
 また、介助ロボットの他の一形式として、特許文献2に示されているものが知られている。特許文献2に示されているように、介助ロボットは、ユーザーを補助して非起立位置(着座位置)と起立位置の間で移行させることができる。
特開平09-066082号公報 特開2012-030077号公報
 上述した特許文献1に記載されている介助ロボットにおいては、着座している使用者は、上方へ移動する支持部材19により持ち上げられて起立させられる。また、上述した特許文献2に記載されている介助ロボットにおいては、ユーザーを補助して非起立位置と起立位置の間で移行させることができる。しかし、いずれも、被介助者を起立させる場合および着座させる場合に、被介助者を起立させる起立軌跡および着座させる着座軌跡が被介助者に違和感を与えるおそれがあった。
 本発明は、上述した問題を解消するためになされたもので、被介助者に違和感を与えることなく、起立させたり着座させたりする介助ロボットを提供することを目的とする。
 上記の課題を解決するため、本発明に係る介助ロボットは、被介助者の体の一部を支えて起立および着座を補助する保持部を備えた介助ロボットであって、保持部に支えられて着座している被介助者を起立させる場合において、被介助者の移動制御部位が通過する起立軌跡は、被介助者を起立させる動作である起立動作の開始時点以降の早い時点から起立動作の終了時点までの間において被介助者の重心位置が被介助者の両足の裏の範囲内に存在するように設定され、保持部に支えられて起立している被介助者を着座させる場合において、起立軌跡と異なる軌跡であって被介助者の移動制御部位が通過する着座軌跡は、被介助者を着座させる動作である着座動作の開始時点以降の早い時点から被介助者の重心位置が被介助者の両足の裏の範囲内から外れ被介助者の着座予定位置側に移動するように設定されたことを特徴とする。
本発明による介助ロボットの一実施形態についてその介助ロボットが配置されている介護センタの概要を示す概要図である。 図1に示す介助ロボットを示す右側面図である。 図1に示す介助ロボットを示す平面図である。 図1に示す伸張状態にある介助ロボットの内部構造の概要を示す右側面図である。 図4aに示す第1スライド部を含む周辺を示す正面図である。 図1に示す収縮状態にある介助ロボットの内部構造の概要を示す右側面図である。 図5aに示す5b-5b線に沿った端面図である。 図5aに示す第1スライド部を含む周辺を示す正面図である。 図1に示す介助ロボットを示すブロック図である。 図6に示す制御装置を示すブロック図である。 介助ロボットが着座している被介助者を支えている様子を示す側面図である。 介助ロボットが起立している被介助者を支えている様子を示す側面図である。 左半分で起立動作を示し、右半分で着座動作を示す図である。 起立動作を示す図である。 着座動作を示す図である。 XY座標とロボット座標との関係を示す表である。 ロボットアーム部の長さ、角度を模式的に示す側面図である。 起立軌跡(例えば基準起立軌跡)の複数の区間のうち被介助者がトレーニングしたい身体部位に応じた区間を示す図である。 起立軌跡用基準データによる基準起立軌跡、上半身をトレーニングしたい上半身用起立軌跡用データによる上半身用起立軌跡、および下半身をトレーニングしたい下半身用起立軌跡用データによる下半身用起立軌跡を示す図である。 他の着座動作の一例を示す図である。
 以下、本発明による介助ロボットの一実施形態について説明する。図1はこの介助ロボット20が配置されている介護センタ10の概要を示す概要図である。この介護センタ10は、ステーション11、トレーニング室12、各個室13a~13dが設けられている。介護センタ10は、人が居住する居住区域である。介護センタ10内に存在する人は、介助を必要とする被介助者M1や被介助者M1を介助する介助者M2である。
 図1に示すように、ステーション11は、介助者M2の詰め所であり、介助ロボット20が待機したり、充電されたりする基地である。介助ロボット20は、人が居住する居住区域内の移動が許可されかつ居住区域内を駆動源である左右駆動輪用モータ21g,21hによる駆動によって移動するものである。トレーニング室12は、被介助者M1がトレーニングやリハビリテーションを行う部屋である。各個室13a~13dは、被介助者M1が居住する部屋である。
 ステーション11、トレーニング室12、および各個室13a~13dは、入出口11a,12a,13a1~13d1がそれぞれ設けられており、入出口11a,12a,13a1~13d1は通路14を介して接続されている。なお、図1において、介助ロボット20の近傍の矢印は、介助ロボット20の進行方向を示している。
 介助ロボット20は、被介助者M1の体の一部(例えば、上半身特に胸部)を支えて起立および着座を補助するための介助ロボットである。この介助ロボット20は、図2および図3に示すように、基台21、ロボットアーム部22、保持部23、ハンドル24、操作装置25、および制御装置26を含んで構成されている。
 基台21は、左右基部21a,21bと左右脚部21c,21dを備えている。左右基部21a,21bは、左右方向に所定距離を置いて配設されており、左右基部21a,21bには、左右駆動輪21e、21fがそれぞれ設けられるとともに、左右駆動輪21e、21fをそれぞれ駆動する左右駆動輪用モータ21g,21h(駆動源)が内蔵されている。介助ロボット20は、左右駆動輪用モータ21g,21h(駆動源)によりそれぞれ駆動する左右駆動輪21e、21fによって走行する。
 なお、基台21に設けた前記駆動源を省略して構成して、使用者により押されて移動するようにしてもよい。
 左右脚部21c,21dは、左右基部21a,21bから前方方向(図2,3において左方向)に水平に延設されている。左右脚部21c,21dの先端部には、左右従動輪21i,21jがそれぞれ設けられている。また、左右脚部21c,21dの先端には、一対の衝突防止センサ21k、21lがそれぞれ設けられている。衝突防止センサ21k、21lは、障害物を検知するセンサであり、その検出信号は制御装置26に送信されるようになっている。
 ロボットアーム部22は、基台21にその基部が取り付けられており、主として図4a、図5aに示すように、第1および第2回転用モータ22a1c,22b3およびスライド用モータ22a2bを含んで構成される駆動部によって互いに相対移動が可能である複数のアーム22a,22b,22cを備えている。なお、ロボットアーム部22は、複数の軸から構成するようにしてもよい。この場合の軸は回転軸およびスライド軸の少なくともいずれかを含めばよい。
 図4a,4bおよび図5a~5cに示すように、第1アーム22aは、その基部が基台21に取りつけられている。第1アーム22aは、スライド基部22a1、第1スライド部22a2および第2スライド部22a3を備えている。
 スライド基部22a1は、図2,3に示すように、ほぼ直方体状に形成されている。スライド基部22a1は、その基端部が基台21に第1回転軸22a1a回りに回転可能に取り付けられているフレーム22a1bを備えている。このフレーム22a1bは、ほぼ断面U字状に形成されており、曲げて形成された左右板状部材22a1b1、22a1b2と左右板状部材22a1b1、22a1b2の上部後端に左右両端が接続された後板状部材22a1b3とから構成されている。
 第1回転用モータ22a1cは、基台21に設けられている。第1駆動ベルト22a1dは、この第1回転用モータ22a1cのプーリと第1回転軸22a1aのプーリとの間に装架されている。第1回転用モータ22a1cが駆動すると、フレーム22a1bすなわちスライド基部22a1が第1回転軸22a1a回りに前方向または後方向に回転する。
 図5bに示すように、フレーム22a1bの内側(左右板状部材22a1b1、22a1b2の内側)には、後述する第1スライド部22a2のフレーム22a2aの後板状部材22a2a2の左右端に摺動可能に係合する左右ガイド溝22a1eが形成されている。フレーム22a1bの左板状部材22a1b1の上部には、後述するスライド用ベルト22a2eに取り付けられて固定される固定部22a1fが設けられている(図4b、図5c参照)。
 第1スライド部22a2は、図2、3に示すように、ほぼ直方体状に形成されており、スライド基部22a1より小さく構成されている。第1スライド部22a2は、スライド基部22a1に対して長手方向(軸動方向)にスライドするものであり、収縮した際にはスライド基部22a1内にほぼ収容されるように構成されている。
 具体的には、第1スライド部22a2は、フレーム22a2aを備えている。このフレーム22a2aは、図5bに示すように、断面H字状かつ側面視H字状に形成されており、前後板状部材22a2a1、22a2a2と前後板状部材22a2a1、22a2a2の上下方向中央部に前後両端が接続された接続板状部材22a2a3とから構成されている。後板状部材22a2a2の左右両端は、フレーム22a1bの左右ガイド溝22a1eに摺動可能に係合されている。主として図4aに示すように、後板状部材22a2a2の上部には、スライド用モータ22a2bが設けられている。後板状部材22a2a2の下部には、プーリ22a2cが回転可能に設けられている。このスライド用モータ22a2bのプーリ22a2dとプーリ22a2cとの間には、スライド用ベルト22a2eが装架されている。
 フレーム22a2aの前板状部材22a2a1の左右両端部には、ガイドレール22a2fが設けられている。ガイドレール22a2fは、後述する第2スライド部22a3のフレーム22a3aの左右板状部材の内側の左右ガイド受け部22a3bに摺動可能に係合する。
 第2スライド部22a3は、図2、3に示すように、ほぼ直方体状に形成されており、第1スライド部22a2より小さく構成されている。第2スライド部22a3は、第1スライド部22a2に対して長手方向(軸動方向)にスライドするものであり、収縮した際には第1スライド部22a2内にほぼ収容されるように構成されている。
 具体的には、第2スライド部22a3は、フレーム22a3aを備えている。このフレーム22a3aは、図5bに示すように、ほぼ断面U字状に形成されており、左右板状部材22a3a1、22a3a2と左右板状部材22a3a1、22a3a2の前端部に左右両端が接続された前板状部材22a3a3とから構成されている。フレーム22a3aの内側(左右板状部材22a3a1、22a3a2の内壁面)には、フレーム22a2aのガイドレール22a2fに摺動可能に係合する左右ガイド受け部22a3bが設けられている。フレーム22a3aの右板状部材22a3a2の下部には、スライド用ベルト22a2eに取り付けられて固定される固定部22a3cが設けられている(図4b、図5c参照)。
 スライド用モータ22a2bが駆動すると、第1スライド部22a2のフレーム22a2aは、スライド基部22a1のフレーム22a1aに対して軸動方向に沿って伸張する(図4aおよび4bに示す伸張状態)。これと同時に、第2スライド部22a3のフレーム22a3aは第1スライド部22a2のフレーム22a2aに対して伸張する(図4および4bに示す伸張状態)。
 一方、スライド用モータ22a2bが逆方向に駆動すると、第1スライド部22a2のフレーム22a2aは、スライド基部22a1のフレーム22a1aに対して軸動方向に沿って収縮する(図5aおよび図5cに示す収縮状態)。これと同時に、第2スライド部22a3のフレーム22a3aは第1スライド部22a2のフレーム22a2aに対して収縮する(図5aおよび図5cに示す収縮状態)。
 第2アーム22bは、図2、3に示すように、ほぼ直方体状に形成されており、第2スライド部22a3の先端部に、長手方向に対して直交する方向(前方向)に延ばして形成されている。具体的には、主として図4aに示すように、第2アーム22bは、左右板状部材22b1a、22b1bから構成されているフレーム22b1を備えている。フレーム22b1の左右板状部材22b1a、22b1bの後端部が、フレーム22a3aの左右板状部材22a3a1、22a3a2の上端部にそれぞれ接続固定されている。
 フレーム22b1の左右板状部材22b1a、22b1bの先端部には、第2回転軸22b2が回動可能に介装されている。左右板状部材22b1a、22b1bの中央部には、第2回転用モータ22b3が設けられている。第2回動ベルト22b4は、第2回転用モータ22b3のプーリと第2回転軸22b2のプーリとの間に装架されている。
 第3アーム22cは、ほぼ直方体状に形成されており、その基端部が第2アーム22bの先端部に第2回転軸22b2回りに回転可能に取り付けられている。具体的には、第3アーム22cは、フレーム22c2を備えている。フレーム22c2の後端部は、第2回転軸22b2と一体回転するように固定されている。フレーム22c2の前端部は、保持部23の後端に固定されている。
 第2回転用モータ22b3が駆動すると、フレーム22c2すなわち第3アーム22cが第2回転軸22b2回りに上方向または下方向に回転する。
 保持部23は、第3アーム22cの先端に固定されている。この保持部23は、被介助者M1の体の一部(例えば、上半身特に胸部)を支えて起立および着座を補助するものである。保持部23は、例えば、被介助者M1の起立動作及び着座動作において被介助者M1に対して対向したときに、その両腕(両脇)を下側から支える部材であり、前方向に向けて開放する平面視略U字形状に形成されている。保持部23は、例えば、被介助者M1に接することを前提とした比較的柔らかい材質で形成されている。
 ハンドル24は、第3アーム22cの上面に固定されている。このハンドル24は、左右一対の棒状取っ手で構成されており、被介助者M1の左右の手でそれぞれ握られるようになっている。ハンドル24には、握っていることを検知する接触センサ24a,24bが設けられている。ハンドル24には、介助ロボット20を左旋回させるための左旋回スイッチ24cと介助ロボット20を右旋回させるための右旋回スイッチ24dが設けられている。さらにハンドル24には、介助ロボット20を停止させるための停止スイッチ24eが設けられている。
 また、第3アーム22cには、被介助者M1が保持部23により支持されている状態で歩行する場合や被介助者M1がハンドル24を握った状態で歩行する場合に、被介助者M1から受ける力を検知する荷重センサ22c1が設けられている。荷重センサ22c1は、荷重の変化によって変化する起歪体の歪み量を電圧変化として検出するものや、シリコンチップに圧力が加わると、そのたわみに応じ、ゲージ抵抗が変化し電気信号に変換される半導体式圧力センサなどである。
 操作装置25は、画像を表示する表示部25aと、使用者(介助者M2や被介助者M1)からの入力操作を受け付ける操作部25bとを備えている。この操作装置25は、被介助者M1の複数の移動姿勢にそれぞれ応じた複数の形態種(後述する)のうち一の形態種を選択する選択操作部である。
 表示部25aは、液晶ディスプレイで構成されており、介助ロボット20の作動モードの選択画面などを表示する。作動モードとしては、使用者の起立動作を補助する起立動作補助モードや、使用者の着座動作を補助する着座動作補助モードなどが設定されている。また、起立動作補助モードには、使用者がトレーニングしたい身体部位に対応した各モードが設定されている。例えば、これらモードとしては、上半身特に背筋をトレーニングしたい上半身モードや、下半身特に下肢をトレーニングしたい下半身モードがある。
 操作部25bは、カーソルを上下左右に移動させるカーソルキー、入力をキャンセルするキャンセルキー,選択内容を決定する決定キーなどを備えており、使用者の指示をキー入力できるように構成されている。なお、操作装置25は、表示部25aの表示機能と操作部25bの入力機能とを備えており、画面上の表示を押すことで機器を操作するタッチパネルで構成するようにしてもよい。
 記憶装置27(記憶部)は、保持部23に支えられて着座している被介助者M1(図8参照)を起立させる場合において、被介助者M1の移動制御部位である例えば肩位置Psが通過する起立軌跡を示す起立軌跡用基準データと、保持部23に支えられて起立している被介助者M1(図9参照)を着座させる場合において、起立軌跡と異なる軌跡であって被介助者M1の肩位置Psが通過する着座軌跡を示す着座軌跡用基準データと、を記憶している。
 起立軌跡Tas1は、図10に示すように、被介助者M1を起立させる動作である起立動作の開始時点以降の早い時点から起立動作の終了時点までの間において被介助者M1の重心位置Gが被介助者M1の両足の裏の範囲A内に存在するように設定されている。なお、重心位置Gの軌跡はTg1で表す。
 着座軌跡Tbs1は、図10に示すように、被介助者M1を着座させる動作である着座動作の開始時点以降の早い時点から被介助者M1の重心位置Gが被介助者M1の両足の裏の範囲A内から外れ被介助者M1の着座予定位置側に移動するように設定されている。着座軌跡Tbs1は、起立軌跡Tas1の上方に位置するように設定されている。なお、重心位置Gの軌跡はTg2で表す。
 起立軌跡Tas1および着座軌跡Tbs1は、実際に健常者の起立動作を撮影し、その肩位置Psの二次元座標(例えばxy座標)に基づいて作成すればよい。起立軌跡を図11に示す。起立動作を左上(着座状態)から右下(起立状態)へ向かって段階的に示す。2番目(上段の真ん中)の状態では、起立動作の開始時点以降の早い時点を示しており、着座している被介助者M1が前傾し被介助者M1の腰が浮き上がる時点である。2番目から起立動作の終了時点(6番目)までにおいては、被介助者M1の重心位置Gが被介助者M1の両足の裏の範囲A内に存在している。
 着座軌跡を図12に示す。着座動作を左上(起立状態)から右下(着座状態)へ向かって段階的に示す。2番目(上段の真ん中)の状態では、着座動作の開始時点以降の早い時点を示しており、起立している被介助者M1が腰を下ろし被介助者M1の重心位置Gが被介助者M1の両足の裏の範囲A内から外れた時点である。2番目から着座動作の終了時点(5番目)までにおいては、被介助者M1の重心位置Gが被介助者M1の両足の裏の範囲A内から外れ被介助者M1の着座予定位置側(図示椅子側)に移動する。
 なお、前述した起立軌跡および着座軌跡は、シミュレーションで作成するようにしてもよい。
 各軌跡用基準データは、二次元座標で形成されている。起立軌跡用基準データは、例えばxy座標にて、(Xa1、Ya1)、・・・、(Xan、Yan)で表わされ、n個からなる。着座軌跡用基準データは、例えばxy座標にて、(Xb1、Yb1)、・・・、(Xbn、Ybn)で表わされ、n個からなる。原点は、介助ロボット20の基準点としてもよいし、第1回転軸22a1aの座標としてもよいし、着座状態の座標としてもよく、また、被介助者M1の着座面の任意の点としてもよい。
 軌跡用基準データは、このxy座標に、各座標における保持部23の角度αを加えて構成されることが望ましい。各座標における保持部23の角度αは、起立軌跡Tas1および着座軌跡Tbs1の各点における保持部23の角度である(図11参照)。この角度αは、被介助者M1の上半身(保持部23の被介助者M1との保持するために接触する内壁面)と水平面とのなす角度である。例えば、図11に示すように、着座状態や起立状態であるときには、角度αは90度である。軌跡用基準データは、例えば(Xa1、Ya1、α1)、・・・、(Xan、Yan、αn)で表される。
 なお、二次元座標でなく、ロボット座標で形成するようにしてもよい。この場合、起立軌跡用基準データは、例えば、図13に示すように、第1回転用モータ22a1cの回転角度である第1角度(θa)、スライド用モータ22a2bのアーム長さ(L:スライド量:このアーム長さに相当する回転角度)、および第2回転用モータ22b3の回転角度である第2角度(θb)を含んで構成されている。XY座標に角度αを加えた座標(Xa1,Ya1,α1)は、ロボット座標(θa1,L1,θb1)で表される。
 XY座標に角度αを加えた座標(Xa1,Ya1,α1)からロボット座標(θa1,L1,θb1)を算出する方法について、簡単に説明する。図14は、ロボットアーム部22の長さ、角度を模式的に示す側面図である。図14に示すように、第1アーム22aの長さをLa(可変)、第2アーム22bの長さをLb(固定)、第2回転軸22b1から肩位置Psまでの第3アーム22cの延設方向に沿った長さをLc(固定)およびその延設方向と鉛直する方向に沿った長さをLd(固定)とする。また、第1アーム22aと水平線とのなす角を第1角度θa、第1アーム22aと第2アーム22bとのなす角を90度、および第2アーム22bと第3アーム22cとのなす角を第2角度θbとする。
 第1アーム22aと第2アーム22bが直交する点P1のXY座標は、(La×(cosθa),La×(sinθa))である。第2回転軸22b1である点P2のXY座標は、点P1に対して(Lb×(sinθa),Lb×(cosθa))を加算したものである。肩位置Psから第3アーム22cに下ろした垂線の足である点P3のXY座標は、点P2に対して(Lc×(cos(π/2-θa-θb),Lc×(sin(π/2-θa-θb))を加算したものである。肩位置Psすなわち点P4のXY座標(Xa1,Ya1)は、点P3に対して(Ld×(cos(θa+θb),Ld×(sin(θa+θb))を加算したものである。なお、各座標における保持部23の角度αは、π-(π/2+(π/2-θa-θb))で表されるので、α=θa+θbとなる。以上のことから、XY座標に角度αを加えた座標(Xa1,Ya1,α1)からロボット座標(θa1,L1,θb1)を算出する。
 なお、ロボット座標において、図13に示すように、第1回転用モータ22a1cの回転角度である第1角度(θa)の角速度である第1角速度(ωa)、スライド用モータ22a2bのスライド速度(V:このスライド速度に相当する回転角速度)、および第2回転用モータ22b3の回転角度である第2角度(θb)の角速度である第2角速度(ωb)を含んで構成してもよい。
 このとき、これらの速度を適当に設定することにより、保持部23に支えられて着座している被介助者M1を起立させる場合における保持部23の速度と、保持部23に支えられて起立している被介助者M1を着座させる場合における保持部23の速度と、が異なるようにすることができる。
 また、これらの速度を適当に設定することにより、保持部23に支えられて着座している被介助者M1を起立させる場合、図15に示すように、起立軌跡(例えば基準起立軌跡)の複数の区間のうち被介助者M1がトレーニングしたい身体部位に応じた区間において、保持部23の速度が、被介助者M1にかかる負担に応じた速度となるようにすることができる。第1区間B1および第3区間B1においては、上半身特に背筋にかかる負担が増大し、第2区間B2においては、下半身特に大腿筋にかかる負担が増大する。第1区間B1は、前傾する区間であるためであり、第2区間B2は、立ち上がり開始する区間であるためであり、第3区間B3は、ある程度立ち上がった後の区間であり上半身を使用するためである。各区間の通過速度が遅い場合は、早い場合と比較して、その姿勢を長く維持する必要があるため、被介助者M1の負荷が増大する。
 記憶装置27は、起立軌跡用基準データの他に複数の起立軌跡用データをさらに記憶している。これら起立軌跡用データは、起立軌跡用基準データに相当する起立軌跡(基準起立軌跡)と異なる軌跡を示す複数のデータであって被介助者M1の異なる複数の身体部位をそれぞれトレーニングするためのものである。これら起立軌跡用データによる各軌跡を図16に示す。起立軌跡用基準データによる基準起立軌跡を実線で示し、上半身特に背筋をトレーニングしたい上半身用起立軌跡用データによる上半身用起立軌跡を一点破線で示し、下半身特に下肢をトレーニングしたい下半身用起立軌跡用データによる下半身用起立軌跡を破線で示す。
 上半身用起立軌跡に沿って補助されると、基準起立軌跡と比較して被介助者M1の前傾量が増大するため、下肢に比べて背筋の使用量(負荷)が増大する。これにより、上半身特に背筋の負荷を増大させることができる。また、下半身用起立軌跡に沿って補助されると、基準起立軌跡と比較して被介助者M1の前傾量が減少するため、背筋に比べて下肢の筋肉の使用量(負荷)が増大する。これにより、下半身特に下肢の負荷を増大させることができる。
 さらに、記憶装置27は、被介助者M1が着座する椅子やベッドなどの着座部の高さに応じた補正量(第1の補正量)を記憶している。この第1の補正量は、上述した各データを補正するための値である。上述した各データは、着座部の高さが所定値(例えば40cmである。)であるときのデータである。
 例えば、着座部の高さが+Δh1であるときには、第1角度θaについては第1の補正量は-Δψa1であり、アーム長さLについては第1の補正量は+ΔLb1であり、第2角度θbについては第1の補正量は+Δψb1である。また、身長が-Δh1であるときには、第1角度θaについては第1の補正量は+Δψa1であり、アーム長さLについては第1の補正量は-ΔLb1であり、第2角度θbについては第1の補正量は+Δψb1である。所定値との差が所定両毎に第1の補正量が記憶されている。
 これらの補正量は、着座部の高さに応じて適切な形態となるように実機を使用した実験などで得たデータに基づいて予め設定されている。
 また、記憶装置27は、被介助者M1の身長に応じた補正量(第2の補正量)を記憶している。この第2の補正量は、上述した各データを補正するための値である。上述した各データは、被介助者M1の身長が所定値(例えば平均身長などであり、具体的には170cmである。)であるときのデータである。
 例えば、身長が+ΔH1であるときには、第1角度θaについては第2の補正量は-Δφa1であり、アーム長さLについては第2の補正量は+ΔLb1であり、第2角度θbについては第2の補正量は+Δφb1である。また、身長が-ΔH1であるときには、第1角度θaについては第2の補正量は+Δφa1であり、アーム長さLについては第2の補正量は-ΔLb1であり、第2角度θbについては第2の補正量は+Δφb1である。所定値との差が所定両毎に第2の補正量が記憶されている。
 これらの補正量は、各形態種において身長に応じて適切な形態となるように実機を使用した実験などで得たデータに基づいて予め設定されている。
 なお、上述した各補正量は、マップとして記憶されているが、演算式として記憶されていてもよい。
 制御装置26は、介助ロボット20の走行や姿勢変形に関する制御を行う。制御装置26は、図6に示すように、上述した衝突防止センサ21k,21l、膝センサ22a1d、荷重センサ22c1、接触センサ24a,24b、左旋回スイッチ24c、右旋回スイッチ24d、停止スイッチ24e、左右駆動輪用モータ21g,21h、第1回転用モータ22a1c、スライド用モータ22a2b、第2回転用モータ22b3、操作装置25、記憶装置27、撮像装置28および案内装置29が接続されている。また、制御装置26はマイクロコンピュータ(図示省略)を有しており、マイクロコンピュータは、バスを介してそれぞれ接続された入出力インターフェース、CPU、RAMおよびROM(いずれも図示省略)を備えている。
 制御装置26は、図7に示すように、基準データ取得部26a、身長、椅子高さ取得部26b、補正部26cおよび駆動制御部26dを備えている。基準データ取得部26aは、操作装置25によって選択された起立動作補助モード(通常モード、上半身モード、下半身モードのいずれか)を取得して、その取得したモードに応じたデータを記憶装置27から取得する。上半身モードのときは、上半身用起立軌跡用データを取得し、下半身モードのときは、下半身用起立軌跡用データを取得し、上半身モードでも下半身モードでもない通常の通常モードのときは、起立軌跡用基準データを取得する。また、基準データ取得部26aは、操作装置25によって選択された着座動作補助モードも取得する。
 身長、椅子高さ取得部26bは、操作装置25によって選択された被介助者M1の身長や、被介助者M1が着座する椅子やベッドなどの着座部の高さを取得する。補正部26cは、基準データ取得部26aによって取得したデータを、身長、椅子高さ取得部26bによって取得した身長、着座部の高さによって補正する。具体的には、補正部26cは、取得した身長に応じた第2の補正量や、着座部の高さに応じた第1の補正量を記憶装置27から取得する。補正部26cは、この取得した各補正量によって基準データ取得部26aによって取得したデータを補正する。
 駆動制御部26dは、第1および第2回転用モータ22a1c,22b3およびスライド用モータ22a2bを含んで構成される駆動部を駆動させて、ロボットアーム部22を起立軌跡用基準データ(または上半身用起立軌跡用データあるいは下半身用起立軌跡用データ)に基づいて起立動作の駆動をする。また、駆動制御部26dは、前記駆動部を駆動させて、ロボットアーム部22を着座軌跡用基準データに基づいて着座動作の駆動をする。具体的には、駆動制御部26dは、基準データ取得部26aによって取得されたデータを、記憶装置27から読み込む。そして、駆動制御部26dは、その読み込んだデータとなるように、前記駆動部を駆動させる。
 また、制御装置26(駆動制御部26d)は、上記各データにおいて起立軌跡および着座軌跡の各点における保持部23の角度αも合わせて記憶している場合には、前記駆動部を駆動させて、各点における保持部の角度を、各起立軌跡用基準データおよび各着座軌跡用基準データに記憶されている角度となるように制御する。
 また、制御装置26(駆動制御部26d)は、保持部23に支えられて着座している被介助者M1を起立させる場合において、基準データ取得部26aによって取得された、被介助者M1がトレーニングしたい身体部位に応じたデータに基づいてロボットアーム部22を駆動する。
 また、制御装置26(駆動制御部26d)は、保持部23に支えられて着座している被介助者M1を起立させる場合における保持部23の速度と、保持部23に支えられて起立している被介助者M1を着座させる場合における保持部23の速度と、が異なるように制御する。
 また、制御装置26(駆動制御部26d)は、保持部23に支えられて着座している被介助者M1を起立させる場合、起立軌跡の複数の区間のうち被介助者M1がトレーニングしたい身体部位に応じた区間において、保持部23の速度が、被介助者M1にかかる負担に応じた速度となるように前記駆動部の速度を制御する。
 また、制御装置26(駆動制御部26d)は、被介助者M1の身長や着座部の高さに合わせてロボットアーム部22の起立軌跡および着座軌跡をそれぞれ調整する。
 次に、上述したように構成された介助ロボット20の作動を説明する。最初に、介助ロボット20の移動について説明する。介助ロボット20が、ステーション11から各個室13a~13dまで(または各個室13a~13dからステーション11まで)単独で移動する場合について説明する。ステーション11から各個室13a~13dまでの通路14を移動する場合には、介助ロボット20は、ステーション11の入出口11aから各個室13a~13dの各入出口13a1~13d1までの経路であって予め記憶装置27に記憶されている経路に沿って移動する。
 また、介助ロボット20は、通路14に設けられている案内用マーク14aを撮像装置28を介して読み取り、その情報から残りの道程を算出しその結果に基づいて移動する。案内用マーク14aは、例えば二次元バーコードである。二次元バーコードには、現在地点(例えば、通路14の交差点)、現在地点から目的地までの距離と方向(例えば、介助ロボット20がステーション11から第1個室13aに移動する場合には、通路14の交差点に差し掛かった際に交差点から第1個室13aまでの距離と方向(左折))などの情報が記載されている。案内用マーク14aは、ステーション11の入出口11a、各個室13a~13dの各入出口13a1~13d1の角や、通路14の所定箇所(例えば、交差点の角や天井面)に設けられている。
 次に、介助ロボット20が着座している被介助者M1に接近している場合について説明する。このとき、介助ロボット20は、第1個室13aの入出口13a1から第1個室13aに入室し、その後、ベッド脇に着座している被介助者M1に向けて接近する。介助ロボット20は、介助ロボット20の前面を進行方向に向けて前進する。介助ロボット20は、被介助者M1の近傍に設けられている案内用マーク14bを前面の撮像装置28を介して読み取り、その情報に基づいて被介助者M1に接近する。
 さらに、介助ロボット20の起立動作と着座動作について図8-図10を参照して説明する。介助ロボット20は、膝センサ22a1dの検出結果(介助ロボット20と被介助者M1の膝との距離)を使用して、着座している被介助者M1との距離が所定距離となる所定の位置まで移動する。この所定の位置は、被介助者M1を起立させるために最適な位置(起立最適位置)である。
 そして、介助ロボット20は、被介助者M1に対して「ハンドルを握ってください」という案内を行う。被介助者M1が両手でハンドル24を握ると、接触センサ24a,24bによってハンドル24を握ったことを検知するため、介助ロボット20は、被介助者M1を起立させるための起立動作を行う。
 起立動作が開始されると、介助ロボット20は、着座している被介助者M1の上半身を保持部23によって保持する(図8参照)。そして、介助ロボット20は、上半身を保持した状態で、被介助者M1を起立状態にする(図9参照)。より具体的には、図10に示すように、基準起立軌跡に沿って起立動作が行われる。
 介助ロボット20は、被介助者M1を起立状態で補助している。被介助者M1は、その脇の下を保持部23により保持された状態で歩行して移動する。このように被介助者M1の歩行を補助している介助ロボット20が、第1個室13aからトレーニング室12まで移動する場合には、上述した介助ロボット20が単独で移動する場合と同様に、予め記憶されている経路に沿って移動し、または案内用マーク14aを撮像装置28により読み取って移動する。
 介助ロボット20は、第1個室13aの入出口13a1で右折して通路14に出て、通路14の交差点で右折し、トレーニング室12の入出口12aで左折してトレーニング室12に入室する。介助ロボット20は、介助ロボット20の背面を進行方向に向けて前進する。
 また、介助ロボット20は、被介助者M1を着座させるための着座動作が開始されると、起立状態にある被介助者M1(図9参照)を、被介助者M1の上半身を保持部23によって保持した状態で着座状態にする(図8参照)。より具体的には、図10に示すように、着座軌跡に沿って着座動作が行われる。
 そして、介助ロボット20は、着座動作が終了すると、被介助者M1に対して「ハンドルから手を放してください」という案内を行う。被介助者M1がハンドル24から手を放すと、接触センサ24a,24bによってハンドル24から手を放したことを検知するため、介助ロボット20は、被介助者M1から離れる。
 本実施形態によれば、介助ロボット20は、被介助者M1の体の一部を支えて起立および着座を補助する保持部23を備えた介助ロボットであって、保持部23に支えられて着座している被介助者M1を起立させる場合において、被介助者M1の移動制御部位(例えば肩位置Ps)が通過する起立軌跡は、被介助者M1を起立させる動作である起立動作の開始時点以降の早い時点から起立動作の終了時点までの間において被介助者M1の重心位置Gが被介助者M1の両足の裏の範囲A内に存在するように設定され、保持部23に支えられて起立している被介助者M1を着座させる場合において、起立軌跡と異なる軌跡であって被介助者M1の移動制御部位が通過する着座軌跡は、被介助者M1を着座させる動作である着座動作の開始時点以降の早い時点から被介助者の重心位置Gが被介助者M1の両足の裏の範囲A内から外れ被介助者M1の着座予定位置側に移動するように設定されている。
 これにより、被介助者M1の移動制御部位(例えば肩位置Ps)が起立軌跡に沿うように被介助者M1を起立させる場合、健常者が起立する場合と同様に、重心位置Gが、起立動作開始の早い時点から両足の裏の範囲A内に入り、それ以降から起立動作の終了時点まではその範囲A内に入っている。したがって、被介助者M1は介助なしで起立するときと同様な感覚(フィーリング)で起立を補助される。よって、被介助者M1に違和感を与えることなく、起立させることができる。
 一方、被介助者M1の移動制御部位が着座軌跡に沿うように被介助者M1を着座させるとき、健常者が着座する場合と同様に、重心位置Gが、着座動作開始の早い時点から両足の裏の範囲A内から外れその後被介助者の着座予定位置(例えば着座部)側に移動する。したがって、被介助者M1は介助なしで着座するときと同様な感覚(フィーリング)で着座を補助される。よって、被介助者M1に違和感を与えることなく、着座させることができる。
 また、上述した起立軌跡における起立動作の開始時点以降の早い時点は、着座している被介助者M1が前傾し被介助者M1の腰が浮き上がる時点である(図11上段中央参照)。これにより、着座している被介助者M1が前傾し被介助者M1の腰が浮き上がる時点から起立動作の終了時点までの間において、より確実に被介助者M1に違和感を与えることなく、起立させることができる。
 また、介助ロボット20は、被介助者M1の体の一部(胸部)を支えて起立および着座を補助する保持部23を備えた介助ロボットであって、基台21と、基台21に設けられ駆動部によって互いに相対移動が可能である複数のアーム22a,22b,22cを備えたロボットアーム部22と、ロボットアーム部22の先端部に設けられ被介助者を支える保持部23と、保持部23に支えられて着座している被介助者M1を起立させる場合において、被介助者M1の移動制御部位が通過する起立軌跡を示す起立軌跡用基準データと、保持部23に支えられて起立している被介助者M1を着座させる場合において、起立軌跡と異なる軌跡であって被介助者M1の移動制御部位が通過する着座軌跡を示す着座軌跡用基準データと、を記憶した記憶装置27(記憶部)と、駆動部を駆動させて、ロボットアーム部22を起立軌跡用基準データおよび着座軌跡用基準データに基づいて駆動する駆動制御部26dと、を備えている。
 これによれば、起立軌跡用基準データを健常者の起立軌跡に相当するデータに設定することが容易となるため、被介助者M1の移動制御部位(例えば肩位置)が起立軌跡に沿うように被介助者M1を起立させる場合、健常者の起立軌跡に相当する起立軌跡用基準データに基づいてロボットアーム部22を駆動させることが可能となる。したがって、被介助者M1は介助なしで起立するときと同様な感覚(フィーリング)で起立を補助される。よって、被介助者M1に違和感を与えることなく、起立させることができる。
 一方、一般的に健常者の着座軌跡は起立軌跡と異なっているが、健常者の着座軌跡に相当するデータとなるように着座軌跡用基準データを設定することが容易となるため、被介助者M1の移動制御部位が着座軌跡に沿うように被介助者M1を起立させる場合、健常者の着座軌跡に相当する着座軌跡用基準データに基づいてロボットアーム部22を駆動させることが可能となる。したがって、被介助者M1は介助なしで着座するときと同様な感覚(フィーリング)で着座を補助される。よって、被介助者M1に違和感を与えることなく、着座させることができる。
 また、被介助者M1の身長および被介助者M1が着座する着座部の高さの少なくともいずれかに応じて起立軌跡用基準データおよび着座軌跡用基準データを補正する補正部26cをさらに備え、駆動制御部26dは、駆動部を駆動させて、ロボットアーム部22を、補正部26cによって補正された起立軌跡用基準データおよび着座軌跡用基準データに基づいて駆動する。これにより、被介助者M1の身長および着座部の高さが異なってもそれらに応じて適切な起立軌跡および着座軌跡に沿って、被介助者M1を起立させたり着座させたりすることができる。
 また、起立軌跡用基準データおよび着座軌跡用基準データは、起立軌跡および着座軌跡の各点における保持部23の角度αも合わせて記憶しており、駆動制御部26d(26)は、駆動部を駆動させて、各点における保持部23の角度αを、各起立軌跡用基準データおよび各着座軌跡用基準データに記憶されている角度となるように制御する。これにより、起立軌跡および着座軌跡の各位置にて、保持部23と連動する被介助者M1の移動制御部位(肩位置)の角度を最適に設定することができるので、より快適に(自然な感覚で)被介助者M1を起立させたり着座させたりすることができる。
 また、記憶装置27(記憶部)は、起立軌跡用基準データに相当する起立軌跡と異なる軌跡を示す複数のデータであって被介助者M1の異なる複数の身体部位をそれぞれトレーニングするための複数の起立軌跡用データをさらに記憶し、複数の起立軌跡用データのうちから被介助者M1がトレーニングしたい身体部位に応じたデータを取得する取得部26aをさらに備え、駆動制御部26dは、保持部23に支えられて着座している被介助者M1を起立させる場合において、取得部26aによって取得されたデータに基づいてロボットアーム部22を駆動する。これにより、被介助者M1がトレーニングしたい身体部位に対応する起立軌跡を選択することで、起立する際に、単に起立するだけでなく、所望の身体部位もトレーニングすることができる。
 また、駆動制御部26d(26)は、保持部23に支えられて着座している被介助者M1を起立させる場合における保持部23の速度と、保持部23に支えられて起立している被介助者M1を着座させる場合における保持部23の速度と、が異なるように制御する。これにより、一般的に、健常者が介助なしで起立するときの速度は着座するときの速度より遅いが、これと同様に、保持部23によって支えられている被介助者M1の起立するときの速度を着座するときの速度より遅くすることができる。よって、健常者が起立したり着座したりするときと同様な感覚(フィーリング)で起立および着座を補助される。よって、被介助者M1に違和感を与えることなく、起立および着座させることができる。
 また、駆動制御部26d(26)は、保持部23に支えられて着座している被介助者M1を起立させる場合、起立軌跡の複数の区間のうち被介助者M1がトレーニングしたい身体部位に応じた区間において、保持部23の速度が、被介助者M1にかかる負担に応じた速度となるように駆動部の速度を制御する。これにより、被介助者M1が起立する場合に、所望の身体部位もトレーニングする際に、そのトレーニングしたい身体部位にかかる負荷を容易に調整することができる。
 また、保持部23は、基台21に設けられ駆動部によって互いに相対移動が可能である複数のアーム22a,22b,22cを備えたロボットアーム部22の先端部に設けられ被介助者を支える。記憶装置27(記憶部)は、保持部23に支えられて着座している被介助者M1を起立させる場合において、被介助者M1の移動制御部位が通過する起立軌跡を示す起立軌跡用基準データと、保持部23に支えられて起立している被介助者M1を着座させる場合において、起立軌跡と異なる軌跡であって被介助者M1の移動制御部位が通過する着座軌跡を示す着座軌跡用基準データと、を記憶している。駆動制御部26dは、駆動部を駆動させて、ロボットアーム部22を起立軌跡用基準データおよび着座軌跡用基準データに基づいて駆動する。起立軌跡は、被介助者M1を起立させる動作である起立動作の開始時点以降の早い時点から起立動作の終了時点までの間において被介助者M1の重心位置Gが被介助者M1の両足の裏の範囲A内に存在するように設定されている。着座軌跡は、被介助者M1を着座させる動作である着座動作の開始時点以降の早い時点から被介助者M1の重心位置Gが被介助者M1の両足の裏の範囲A内から外れ被介助者M1の着座予定位置(着座部)側に移動するように設定されている。
 これにより、被介助者M1の移動制御部位が起立軌跡に沿うように被介助者M1を起立させる場合、健常者が起立する場合と同様に、重心位置Gが、起立動作開始の早い時点から両足の裏の範囲A内に入り、それ以降から起立動作の終了時点まではその範囲A内に入っている。したがって、被介助者M1は介助なしで起立するときと同様な感覚(フィーリング)で起立を補助される。よって、被介助者M1に違和感を与えることなく、起立させることができる。
 一方、被介助者M1の移動制御部位が着座軌跡に沿うように被介助者M1を着座させるとき、健常者が着座する場合と同様に、重心位置Gが、着座動作開始の早い時点から両足の裏の範囲A内から外れその後被介助者M1の着座予定位置側に移動する。したがって、被介助者M1は介助なしで着座するときと同様な感覚(フィーリング)で着座を補助される。よって、被介助者M1に違和感を与えることなく、着座させることができる。
 なお、上述した着座軌跡は、図10に示すものに限られない。例えば、図17に示すように、図10に示すものに比べて前傾して着座する着座軌跡もある。この場合も図10に示す場合と同様に、起立軌跡より下方に位置するとともに、被介助者M1を着座させる動作である着座動作の開始時点以降の早い時点から被介助者M1の重心位置が被介助者M1の両足の裏の範囲A内から外れる。
 10…介護センタ、11…ステーション、12…トレーニング室、13a~13d…第1~第4個室、14…通路、20…介助ロボット、21…基台、21g,21h…左右駆動輪用モータ(駆動源)、22…ロボットアーム部、22a…第1アーム、22a1c…第1回転用モータ(駆動部)、22a2b…スライド用モータ(駆動部)、22b…第2アーム、22b3…第2回転用モータ(駆動部)、22c…第3アーム、23…保持部、24…ハンドル、25…操作装置、26…制御装置、26a…基準データ取得部、26b…身長、椅子高さ取得部、26c…補正部、26d…駆動制御部、27…記憶装置、28…撮像装置、29…案内装置、M1…被介助者、M2…介助者。

Claims (9)

  1.  被介助者の体の一部を支えて起立および着座を補助する保持部を備えた介助ロボットであって、
     前記保持部に支えられて着座している前記被介助者を起立させる場合において、前記被介助者の移動制御部位が通過する起立軌跡は、前記被介助者を起立させる動作である起立動作の開始時点以降の早い時点から前記起立動作の終了時点までの間において前記被介助者の重心位置が前記被介助者の両足の裏の範囲内に存在するように設定され、
     前記保持部に支えられて起立している前記被介助者を着座させる場合において、前記起立軌跡と異なる軌跡であって前記被介助者の移動制御部位が通過する着座軌跡は、前記被介助者を着座させる動作である着座動作の開始時点以降の早い時点から前記被介助者の重心位置が前記被介助者の両足の裏の範囲内から外れ前記被介助者の着座予定位置側に移動するように設定されたことを特徴とする介助ロボット。
  2.  前記起立軌跡における前記起立動作の開始時点以降の早い時点は、着座している前記被介助者が前傾し前記被介助者の腰が浮き上がる時点であることを特徴とする請求項1の介助ロボット。
  3.  被介助者の体の一部を支えて起立および着座を補助する保持部を備えた介助ロボットであって、
     基台と、
     前記基台に設けられ駆動部によって互いに相対移動が可能である複数のアームを備えたロボットアーム部と、
     前記ロボットアーム部の先端部に設けられ前記被介助者を支える保持部と、
     前記保持部に支えられて着座している前記被介助者を起立させる場合において、前記被介助者の移動制御部位が通過する起立軌跡を示す起立軌跡用基準データと、前記保持部に支えられて起立している前記被介助者を着座させる場合において、前記起立軌跡と異なる軌跡であって前記被介助者の移動制御部位が通過する着座軌跡を示す着座軌跡用基準データと、を記憶した記憶部と、
     前記駆動部を駆動させて、前記ロボットアーム部を前記起立軌跡用基準データおよび前記着座軌跡用基準データに基づいて駆動する駆動制御部と、
     を備えたことを特徴とする介助ロボット。
  4.  前記被介助者の身長および前記被介助者が着座する着座部の高さの少なくともいずれかに応じて前記起立軌跡用基準データおよび前記着座軌跡用基準データを補正する補正部をさらに備え、
     前記駆動制御部は、前記駆動部を駆動させて、前記ロボットアーム部を、前記補正部によって補正された前記起立軌跡用基準データおよび前記着座軌跡用基準データに基づいて駆動することを特徴とする請求項3の介助ロボット。
  5.  前記起立軌跡用基準データおよび前記着座軌跡用基準データは、前記起立軌跡および前記着座軌跡の各点における前記保持部の角度も合わせて記憶しており、
     前記駆動制御部は、前記駆動部を駆動させて、前記各点における前記保持部の角度を、前記各起立軌跡用基準データおよび前記各着座軌跡用基準データに記憶されている角度となるように制御することを特徴とする請求項3または請求項4の介助ロボット。
  6.  前記記憶部は、前記起立軌跡用基準データに相当する前記起立軌跡と異なる軌跡を示す複数のデータであって前記被介助者の異なる複数の身体部位をそれぞれトレーニングするための複数の起立軌跡用データをさらに記憶し、
     複数の前記起立軌跡用データのうちから前記被介助者がトレーニングしたい身体部位に応じたデータを取得する取得部をさらに備え、
     前記駆動制御部は、前記保持部に支えられて着座している前記被介助者を起立させる場合において、前記取得部によって取得されたデータに基づいて前記ロボットアーム部を駆動することを特徴とする請求項3ないし請求項5のいずれか一項の介助ロボット。
  7.  前記駆動制御部は、前記保持部に支えられて着座している前記被介助者を起立させる場合における前記保持部の速度と、前記保持部に支えられて起立している前記被介助者を着座させる場合における前記保持部の速度と、が異なるように制御することを特徴とする請求項3ないし請求項6のいずれか一項の介助ロボット。
  8.  前記駆動制御部は、前記保持部に支えられて着座している前記被介助者を起立させる場合、前記起立軌跡の複数の区間のうち前記被介助者がトレーニングしたい身体部位に応じた区間において、前記保持部の速度が、前記被介助者にかかる負担に応じた速度となるように前記駆動部の速度を制御することを特徴とする請求項7の介助ロボット。
  9.  被介助者の体の一部を支えて起立および着座を補助する保持部を備えた介助ロボットであって、
     基台と、
     前記基台に設けられ駆動部によって互いに相対移動が可能である複数のアームを備えたロボットアーム部と、
     前記ロボットアーム部の先端部に設けられ前記被介助者を支える保持部と、
     前記保持部に支えられて着座している前記被介助者を起立させる場合において、前記被介助者の移動制御部位が通過する起立軌跡を示す起立軌跡用基準データと、前記保持部に支えられて起立している前記被介助者を着座させる場合において、前記起立軌跡と異なる軌跡であって前記被介助者の移動制御部位が通過する着座軌跡を示す着座軌跡用基準データと、を記憶した記憶部と、
     前記駆動部を駆動させて、前記ロボットアーム部を前記起立軌跡用基準データおよび前記着座軌跡用基準データに基づいて駆動する駆動制御部と、
     を備え、
     前記起立軌跡は、前記被介助者を起立させる動作である起立動作の開始時点以降の早い時点から前記起立動作の終了時点までの間において前記被介助者の重心位置が前記被介助者の両足の裏の範囲内に存在するように設定され、
     前記着座軌跡は、前記被介助者を着座させる動作である着座動作の開始時点以降の早い時点から前記被介助者の重心位置が前記被介助者の両足の裏の範囲内から外れ前記被介助者の着座予定位置側に移動するように設定されたことを特徴とする介助ロボット。
PCT/JP2013/052890 2013-02-07 2013-02-07 介助ロボット Ceased WO2014122752A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/JP2013/052890 WO2014122752A1 (ja) 2013-02-07 2013-02-07 介助ロボット
JP2014560571A JP6208155B2 (ja) 2013-02-07 2013-02-07 介助ロボット
CN201380072426.1A CN105025860B (zh) 2013-02-07 2013-02-07 护理机器人
US14/766,661 US10166159B2 (en) 2013-02-07 2013-02-07 Care robot
EP13874310.9A EP2954882B1 (en) 2013-02-07 2013-02-07 Patient-care robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/052890 WO2014122752A1 (ja) 2013-02-07 2013-02-07 介助ロボット

Publications (1)

Publication Number Publication Date
WO2014122752A1 true WO2014122752A1 (ja) 2014-08-14

Family

ID=51299365

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/052890 Ceased WO2014122752A1 (ja) 2013-02-07 2013-02-07 介助ロボット

Country Status (5)

Country Link
US (1) US10166159B2 (ja)
EP (1) EP2954882B1 (ja)
JP (1) JP6208155B2 (ja)
CN (1) CN105025860B (ja)
WO (1) WO2014122752A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150005938A1 (en) * 2012-02-10 2015-01-01 Fuji Machine Mfg. Co., Ltd. Motion setting method
WO2016042704A1 (ja) * 2014-09-19 2016-03-24 パナソニックIpマネジメント株式会社 着座動作支援システム、着座動作支援システムの制御部の制御方法、着座動作支援システムの制御部用プログラム、介護ベルト、ロボット
JP2016116799A (ja) * 2014-12-23 2016-06-30 株式会社今仙電機製作所 立ち上がり補助装置
WO2017141335A1 (ja) 2016-02-15 2017-08-24 富士機械製造株式会社 介助ロボット
WO2017141336A1 (ja) * 2016-02-15 2017-08-24 富士機械製造株式会社 介助ロボット
WO2018116472A1 (ja) * 2016-12-22 2018-06-28 株式会社Fuji 介助装置
WO2018116474A1 (ja) * 2016-12-22 2018-06-28 株式会社Fuji 介助装置
JPWO2017141372A1 (ja) * 2016-02-17 2018-12-06 株式会社Fuji 介助ロボット
JP2022051617A (ja) * 2020-09-22 2022-04-01 公立大学法人 富山県立大学 立ち座り支援装置及び歩行器
US20220152837A1 (en) * 2019-04-16 2022-05-19 University Of Louisville Research Foundation, Inc. Adaptive robotic nursing assistant
JP2023063128A (ja) * 2021-10-22 2023-05-09 本田技研工業株式会社 立ち上がり補助機
JP2023063129A (ja) * 2021-10-22 2023-05-09 本田技研工業株式会社 立ち上がり補助機

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2459866B1 (es) * 2012-10-11 2015-02-17 Consejo Superior De Investigaciones Científicas (Csic) Andador con mecanismo de asistencia en operaciones de levantado y sentado de un usuario.
KR101358943B1 (ko) * 2013-02-12 2014-02-07 한국과학기술연구원 보행 재활 로봇의 골반 지지 장치
US10022284B2 (en) * 2015-08-25 2018-07-17 Panasonic Corporation Life assistance system for assisting user in act of standing up
JP6726880B2 (ja) * 2016-01-29 2020-07-22 パナソニックIpマネジメント株式会社 ロボット、ロボットの制御方法、及び、プログラム
AU2016406917B2 (en) * 2016-05-17 2019-08-22 Fuji Corporation Assisting device
SG11202004125YA (en) * 2017-12-06 2020-06-29 Fuji Corp Aid device
CN108553273B (zh) * 2018-05-11 2024-06-07 郑州大象通信信息技术有限公司 一种康复护理智能机器人
CN109124916B (zh) * 2018-06-30 2024-01-30 源珈力医疗器材国际贸易(上海)有限公司 一种辅助站立椅及其运动轨迹研究方法
CN109718032A (zh) * 2018-12-29 2019-05-07 济南荣庆节能技术有限公司 下肢障碍人员的换座设备
CN109674627A (zh) * 2019-01-03 2019-04-26 中山爱君智能科技有限公司 一种多功能护理康复机器人
JP7186286B2 (ja) * 2019-04-12 2022-12-08 株式会社Fuji 介助装置
WO2020208832A1 (ja) * 2019-04-12 2020-10-15 株式会社Fuji 介助装置
CN110859723B (zh) * 2019-12-03 2021-06-22 郑州轻工业大学 带有腰部支撑功能的辅助站立小车
CN112674722B (zh) * 2020-12-24 2022-08-30 中科彭州智慧产业创新中心有限公司 一种基于脉诊仪的脉象快速区分检测装置
CN113696196A (zh) * 2021-08-27 2021-11-26 王瑞学 医护机器人

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0966082A (ja) 1995-09-01 1997-03-11 Mizuho Giken Sangyo:Kk 歩行補助装置
JP2009142517A (ja) * 2007-12-17 2009-07-02 Tokyo Metropolitan Univ 起立動作支援装置、起立動作支援システム、起立動作支援プログラムおよび起立動作支援方法
JP2010158460A (ja) * 2009-01-09 2010-07-22 Toyota Motor Corp 移乗装置、バランス状態評価装置、バランス状態評価方法、及びプログラム
JP2011019571A (ja) * 2009-07-13 2011-02-03 Fuji Mach Mfg Co Ltd 歩行介助装置
JP2012030077A (ja) 2010-07-30 2012-02-16 Toyota Motor Engineering & Manufacturing North America Inc 身体補助ロボット装置及びシステム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002153521A (ja) * 2000-11-20 2002-05-28 Iwakura Corporation:Kk 移動介護機
JP4608661B2 (ja) * 2006-08-25 2011-01-12 公立大学法人高知工科大学 立ち上がり訓練機
NL2001474C2 (nl) * 2008-04-11 2009-10-13 Joyincare Group B V Kleminrichting ten gebruike in een tillift voor het verplaatsen van personen.
JP5206393B2 (ja) 2008-12-22 2013-06-12 トヨタ自動車株式会社 移乗支援装置、移乗支援装置の制御方法
JP4692642B2 (ja) * 2009-01-22 2011-06-01 トヨタ自動車株式会社 移乗支援装置
JP5598854B2 (ja) * 2010-12-07 2014-10-01 株式会社日立製作所 トレーニングシステム
JP3166214U (ja) * 2010-12-10 2011-02-24 独立行政法人労働者健康福祉機構 起立着座動作の訓練補助ロボット
JP5773696B2 (ja) * 2011-03-25 2015-09-02 富士機械製造株式会社 立ち上がり動作アシストロボット
JP5759217B2 (ja) * 2011-03-25 2015-08-05 富士機械製造株式会社 立ち上がり動作アシストロボット
JP5773718B2 (ja) * 2011-04-11 2015-09-02 富士機械製造株式会社 立ち上がり動作アシストロボット
JP5981158B2 (ja) 2012-02-10 2016-08-31 富士機械製造株式会社 立ち座り動作支援ロボットおよび動作設定方法
US20140100491A1 (en) * 2012-10-05 2014-04-10 Jianjuen Hu Lower Extremity Robotic Rehabilitation System
US20140150806A1 (en) * 2012-12-02 2014-06-05 John Hu Robotic First Responder System and Method
WO2014122751A1 (ja) * 2013-02-07 2014-08-14 富士機械製造株式会社 移動補助ロボット
US9844481B2 (en) * 2015-07-13 2017-12-19 Panasonic Intellectual Property Management Co., Ltd. Standing/sitting motion assist system, standing/sitting motion assist method, standing/sitting motion assist robot, and non-transitory computer-readable recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0966082A (ja) 1995-09-01 1997-03-11 Mizuho Giken Sangyo:Kk 歩行補助装置
JP2009142517A (ja) * 2007-12-17 2009-07-02 Tokyo Metropolitan Univ 起立動作支援装置、起立動作支援システム、起立動作支援プログラムおよび起立動作支援方法
JP2010158460A (ja) * 2009-01-09 2010-07-22 Toyota Motor Corp 移乗装置、バランス状態評価装置、バランス状態評価方法、及びプログラム
JP2011019571A (ja) * 2009-07-13 2011-02-03 Fuji Mach Mfg Co Ltd 歩行介助装置
JP2012030077A (ja) 2010-07-30 2012-02-16 Toyota Motor Engineering & Manufacturing North America Inc 身体補助ロボット装置及びシステム

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150005938A1 (en) * 2012-02-10 2015-01-01 Fuji Machine Mfg. Co., Ltd. Motion setting method
WO2016042704A1 (ja) * 2014-09-19 2016-03-24 パナソニックIpマネジメント株式会社 着座動作支援システム、着座動作支援システムの制御部の制御方法、着座動作支援システムの制御部用プログラム、介護ベルト、ロボット
JPWO2016042704A1 (ja) * 2014-09-19 2017-07-13 パナソニックIpマネジメント株式会社 着座動作支援システム、着座動作支援システムの制御部の制御方法、着座動作支援システムの制御部用プログラム、介護ベルト、ロボット
JP2016116799A (ja) * 2014-12-23 2016-06-30 株式会社今仙電機製作所 立ち上がり補助装置
AU2016393481B2 (en) * 2016-02-15 2019-05-02 Fuji Corporation Assistance robot
WO2017141335A1 (ja) 2016-02-15 2017-08-24 富士機械製造株式会社 介助ロボット
WO2017141336A1 (ja) * 2016-02-15 2017-08-24 富士機械製造株式会社 介助ロボット
AU2016393480B2 (en) * 2016-02-15 2019-08-15 Fuji Corporation Assistance robot
JPWO2017141336A1 (ja) * 2016-02-15 2018-12-06 株式会社Fuji 介助ロボット
JPWO2017141335A1 (ja) * 2016-02-15 2018-12-06 株式会社Fuji 介助ロボット
JPWO2017141372A1 (ja) * 2016-02-17 2018-12-06 株式会社Fuji 介助ロボット
JPWO2018116474A1 (ja) * 2016-12-22 2019-08-08 株式会社Fuji 介助装置
WO2018116474A1 (ja) * 2016-12-22 2018-06-28 株式会社Fuji 介助装置
WO2018116472A1 (ja) * 2016-12-22 2018-06-28 株式会社Fuji 介助装置
JPWO2018116472A1 (ja) * 2016-12-22 2019-10-24 株式会社Fuji 介助装置
US20220152837A1 (en) * 2019-04-16 2022-05-19 University Of Louisville Research Foundation, Inc. Adaptive robotic nursing assistant
US12090629B2 (en) * 2019-04-16 2024-09-17 University Of Louisville Research Foundation, Inc. Adaptive robotic nursing assistant
JP2022051617A (ja) * 2020-09-22 2022-04-01 公立大学法人 富山県立大学 立ち座り支援装置及び歩行器
JP7397779B2 (ja) 2020-09-22 2023-12-13 公立大学法人 富山県立大学 立ち座り支援装置及び歩行器
JP2023063128A (ja) * 2021-10-22 2023-05-09 本田技研工業株式会社 立ち上がり補助機
JP2023063129A (ja) * 2021-10-22 2023-05-09 本田技研工業株式会社 立ち上がり補助機
JP7601742B2 (ja) 2021-10-22 2024-12-17 本田技研工業株式会社 立ち上がり補助機
JP7601743B2 (ja) 2021-10-22 2024-12-17 本田技研工業株式会社 立ち上がり補助機
US12343295B2 (en) * 2021-10-22 2025-07-01 Honda Motor Co., Ltd. Standing-up assist device

Also Published As

Publication number Publication date
US10166159B2 (en) 2019-01-01
US20150359694A1 (en) 2015-12-17
JPWO2014122752A1 (ja) 2017-01-26
EP2954882B1 (en) 2023-09-06
CN105025860B (zh) 2018-09-14
JP6208155B2 (ja) 2017-10-04
EP2954882A4 (en) 2016-10-05
CN105025860A (zh) 2015-11-04
EP2954882A1 (en) 2015-12-16

Similar Documents

Publication Publication Date Title
JP6208155B2 (ja) 介助ロボット
JP6301927B2 (ja) 介助ロボット
JP6126139B2 (ja) 移動補助ロボット
JP6267215B2 (ja) 介助ロボット
JP6116689B2 (ja) 介助ロボット
TW201622678A (zh) 起立動作支援系統、起立動作支援系統之控制部的控制方法、起立動作支援系統之控制部用程式、起立動作支援系統之控制部的控制方法、機器人
KR101433284B1 (ko) 자세조절부를 포함하는 자세균형 훈련용 보행보조기
KR101433281B1 (ko) 자세균형 훈련용 보행보조기
JP6306769B2 (ja) 移動補助ロボット
JP6408666B2 (ja) 介助ロボット
JP6306587B2 (ja) 保持具および介助ロボット
JP5382508B2 (ja) 起立補助装置
JP2018102971A (ja) 保持具および介助ロボット

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201380072426.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13874310

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014560571

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14766661

Country of ref document: US

Ref document number: 2013874310

Country of ref document: EP