CN111096830B - 一种基于LightGBM的外骨骼步态预测方法 - Google Patents

一种基于LightGBM的外骨骼步态预测方法 Download PDF

Info

Publication number
CN111096830B
CN111096830B CN201911384974.3A CN201911384974A CN111096830B CN 111096830 B CN111096830 B CN 111096830B CN 201911384974 A CN201911384974 A CN 201911384974A CN 111096830 B CN111096830 B CN 111096830B
Authority
CN
China
Prior art keywords
lower limb
prediction
flexion
left lower
hip joint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911384974.3A
Other languages
English (en)
Other versions
CN111096830A (zh
Inventor
孔万增
王伟富
宋国明
王雪岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201911384974.3A priority Critical patent/CN111096830B/zh
Publication of CN111096830A publication Critical patent/CN111096830A/zh
Application granted granted Critical
Publication of CN111096830B publication Critical patent/CN111096830B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/60Artificial legs or feet or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/68Operating or control means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/68Operating or control means
    • A61F2/70Operating or control means electrical
    • A61F2002/704Operating or control means electrical computer-controlled, e.g. robotic control

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Transplantation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Cardiology (AREA)
  • Multimedia (AREA)
  • Vascular Medicine (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Physiology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Psychiatry (AREA)
  • Dentistry (AREA)
  • Evolutionary Biology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Epidemiology (AREA)
  • Pain & Pain Management (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Therapy (AREA)

Abstract

本发明公开一种基于LightGBM的外骨骼步态预测方法。本发明通过人体运动学分析,提取下肢关节的加速度数据做离线分析,进而解算出关节控制目标轨迹,最后控制系统通过该轨迹进行运动控制,实现下肢外骨骼的人体步态运动。本发明提出一种全新的下肢运动步态轨迹预测方法,能够应用于下肢外骨骼控制中,创新性的对LightGBM实现并联结构输入,并对下肢关节的连续目标值的步态轨迹预测,预测方法具有较强的精确度,减少了训练时间。

Description

一种基于LightGBM的外骨骼步态预测方法
技术领域
本发明属于下肢外骨骼人机协同运动控制领域,涉及一种基于LightGBM(LightGradient Boosting Machine,提升机器算法)的运动步态轨迹预测方法。
背景技术
下肢外骨骼机器人是穿戴在用户下肢外部的一种典型的人机一体化系统,综合了检测,控制,信息融合等机器人呢技术,将用户的智力与机器人的“体力”结合在一起,提供动力以辅助用户的运动。民用领域方面,外骨骼机器人可以帮助老年人正常行动。医疗领域方面,外骨骼机器人在辅助残疾人正常生活的同时,也大大减轻了医务人员的工作压力。军事领域方面,外骨骼机器人可以提高战场的救援效率,帮助更多的受伤人员,由于外骨骼机器人在各领域发挥巨大的作用,使得其发展前景十分广阔。
目前有两种系统输入来预测外骨骼机器人的步态轨迹,一是通过感知型传感器测量脑电信号(EEG)或者肌电信号(EMG)等人体生物信号作为外骨骼控制系统的输入,尽管生物信号超前于人体运动,能够解决运动滞后的问题,但EEG和EMG信号不稳定,容易受到静电、汗液等的干扰。二是利用角度/角速度、力/力矩等物理型传感器,实时采集人体运动学或动力学数据作为外骨骼控制系统的输入。对于步态轨迹预测问题,传统的方法包括支持向量机(SVM)、卡尔曼滤波等,传统方法计算量过大,内存占用大,容易产生过拟合,对于步态轨迹的连续目标值预测仍需要进一步改进。
故需要提出一种能够提高步态轨迹的连续目标值预测精准度、提高轨迹平滑性、减少计算量的下肢外骨骼步态预测方法。
发明内容
本发明针对现有技术的不足,提供一种基于改进的LightGBM的步态轨迹预测方法,通过人体运动学分析,提取下肢关节的加速度数据做离线分析,进而解算出关节控制目标轨迹,最后控制系统通过该轨迹进行运动控制,实现下肢外骨骼的人体步态运动。
为实现上述目的,本发明的技术方案具体内容如下:
一种基于LightGBM的外骨骼步态预测方法,其特征在于该方法包括如下步骤:
步骤(1)、数据采集阶段
将5个IMU传感器分别设置在使用者的腰部、左大腿、左小腿、右大腿、右小腿;实时获取5个IMU传感器的x、y轴向加速度值;
步骤(2)、数据分析与消噪平滑处理
根据步骤(1)5个IMU传感器的x、y轴向加速度值,构建一个由10×k加速度分量组成的矩阵,定义为:
R=[V1,V2,…,Vi,…,V10]T,T表示矩阵的转置
其中
Figure BDA0002343336420000021
表示第i个加速度分量在t时刻加速度值,K为数据采样点的总数量;
对Vi做移动平均滤波消噪处理,设
Figure BDA0002343336420000022
的滤波值为
Figure BDA0002343336420000023
则:
Figure BDA0002343336420000024
其中L为移动平均滤波处理时所取的原加速度值个数,且L为奇数,M=(L-1)/2;
根据公式(2.1),最终得到Vi全部t(t=1,2,…,K)时刻的消噪数据:
Figure BDA0002343336420000025
步骤(3)、获取步态数据中的实时屈伸角
根据步骤(2)处理后的消噪数据,以左下肢为例,某一时刻t左下肢髋关节屈伸角角度
Figure BDA0002343336420000026
和膝关节的屈伸角角度
Figure BDA0002343336420000027
分别由公式(3.1)以及(3.2)得到:
Figure BDA0002343336420000028
Figure BDA0002343336420000029
其中ax1,ay1分别为步骤2处理后时刻t左大腿IMU传感器的加速度分量,ax2,ax2分别为步骤2处理后时刻t左小腿IMU传感器的加速度分量;
最终获得所有K个时刻的左下肢髋关节与膝关节屈伸角度向量α与β
Figure BDA0002343336420000031
Figure BDA0002343336420000032
同理获得右下肢髋关节与膝关节屈伸角度向量;
步骤(4)、改进的LightGBM方法的连续目标值实时预测
以左下肢髋关节屈伸角α为例:
4.1预测模型训练
通过步骤3获得的左下肢髋关节屈伸角度向量数据为训练集,训练左下肢髋关节屈伸角的预测模型;
首先利用滑动窗口从α中提取角度值构建左下肢髋关节屈伸角矩阵Aα左,作为训练预测模型的特征矩阵,见公式4.1;
Figure BDA0002343336420000033
其中w为滑动窗口的窗宽,N为滑动窗口数目,以预测长度pLen作为滑动窗口的步长,pLen>1;为保证更好地构建目标矩阵,需满足K-[(N-1)×pLen+w]≥pLen,即保证α最后有足够的角度值构建pLen个预测长度的预测值;
然后根据预测长度与α中相对于当前滑动窗口的未来时刻屈伸角角度值,构建矩阵Dα左,作为训练预测模型的预测目标值矩阵,见公式4.2;
Figure BDA0002343336420000041
其中
Figure BDA0002343336420000042
为左下肢髋关节屈伸角对应未来第i个时刻的预测值向量;
根据公式(4.1)与(4.2)构建左下肢膝关节的特征矩阵代入到公式(4.3),得到pLen个预测模型:
Figure BDA0002343336420000043
其中T()为LightGBM训练函数,
Figure BDA0002343336420000044
为左下肢髋关节屈伸角训练后对应未来第i个时刻的预测模型(函数);
4.2预测模型并联预测
左下肢髋关节当前最新滑动窗口内的特征向量为
Figure BDA0002343336420000045
通过将pLen个训练好的预测模型以并联结构相连,实现未来pLen个时刻的左下肢髋关节屈伸角预测:
Figure BDA0002343336420000046
其中,
Figure BDA0002343336420000047
为未来第i个时刻的左下肢髋关节屈伸角预测值;
由式(4.4)可得左下肢髋关节屈伸角预测向量P
Figure BDA0002343336420000051
同理得到左下肢膝关节、右下肢髋关节和膝关节的屈伸角并联预测模型;
步骤(5)、根据步骤4预测向量以实现步态预测轨迹。
本发明的有益效果是:
本发明提出一种全新的下肢运动步态轨迹预测方法,能够应用于下肢外骨骼控制中,创新性的对LightGBM实现并联结构输入,并对下肢关节的连续目标值的步态轨迹预测,预测方法具有较强的精确度,减少了训练时间。
附图说明
图1是四个原始数据与消噪数据对比的曲线图;其中(a)左小腿加速度x;(b)左小腿加速度y;(c)左大腿加速度x;(d)左大腿加速度y;
图2是人体下肢结构模型图;
图3是卡尔曼滤波、XGboost和LightGBM三种方法的对比图,其中(a)为RMSE,(a)为SC,(c)训练时间;
图4(a)(b)分别是左下肢髋关节和膝关节的验证结果对比。
具体实施方式
为使本发明的目的、技术方案和要点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
一种基于LightGBM的外骨骼步态预测方法,包括以下步骤:
1.数据采集阶段
将5个IMU传感器分别设置在使用者的腰部、左大腿、左小腿、右大腿、右小腿;根据人体下肢结构可简化出如图2的下肢模型图,5个黑点代表5个IMU传感器位置,每个IMU传感器提供了人体下肢行走过程中每条腿对应二维平面上的加速度分量,髋关节以逆时针为正方向,膝关节以顺时针为正方向,实时获取5个IMU传感器的x、y轴向加速度值。
采集设备为5个IMU传感器,分别放置右小腿,右大腿,左小腿,左大腿,以及腰部,采样率为100Hz,受试者以步速2km/h直线步行。
2.数据分析与消噪平滑处理
根据步骤(1)5个IMU传感器的x、y轴向加速度值,构建一个由10×k加速度分量组成的矩阵,定义为:
R=[V1,V2,…,Vi,…,V10]T,T表示矩阵的转置
其中
Figure BDA0002343336420000061
表示第i个加速度分量在t时刻加速度值,K为数据采样点的总数量;
对Vi做移动平均滤波消噪处理,设
Figure BDA0002343336420000062
的滤波值为
Figure BDA0002343336420000063
则:
Figure BDA0002343336420000064
其中L为移动平均滤波处理时所取的原加速度值个数,且L为奇数,M=(L-1)/2;
根据公式(2.1),最终得到Vi全部t(t=1,2,…,K)时刻的消噪数据:
Figure BDA0002343336420000065
实际运算过程中,若按照公式(1)计算
Figure BDA0002343336420000066
则每个时刻需要进行N次求和运算,时间复杂度较高。一般地,移动平均滤波器可以通过递归算法实现。
将部分加速度分量数据应用MAF算法,绘制了四个原始数据与消噪数据对比的曲线图,如图1所示。
3.步态数据的实时关节角度计算
根据步骤(2)处理后的消噪数据,以左下肢为例,某一时刻t左下肢髋关节屈伸角角度
Figure BDA0002343336420000067
和膝关节的屈伸角角度
Figure BDA0002343336420000068
分别由公式(3.1)以及(3.2)得到:
Figure BDA0002343336420000069
Figure BDA00023433364200000610
其中ax1,ay1分别为步骤2处理后时刻t左大腿IMU传感器的加速度分量,ax2,ax2分别为步骤2处理后时刻t左小腿IMU传感器的加速度分量;
最终获得所有K个时刻的左下肢髋关节与膝关节屈伸角度向量α与β
Figure BDA00023433364200000611
Figure BDA00023433364200000612
同理获得右下肢髋关节与膝关节屈伸角度向量:
Figure BDA0002343336420000071
Figure BDA0002343336420000072
其中ax3,ay3分别为步骤2处理后时刻t右大腿IMU传感器的加速度分量,ax4,ax4分别为步骤2处理后时刻t右小腿IMU传感器的加速度分量;
最终获得所有K个时刻的左下肢髋关节与膝关节屈伸角度向量α与β
Figure BDA0002343336420000073
Figure BDA0002343336420000074
4.改进的LightGBM方法的连续目标值实时预测
外骨骼控制系统的控制信号输入直接影响外骨骼运动的流畅度,故控制信号的输入频率越高,单次输入的信号值越连续,外骨骼的执行机构就越能使其运动流程自然。基于该原理,当利用已知的LightGBM算法对步态做预测时,其单次只能预测一个关节角度变换,此时由于预测算法计算预测结果需要时间以及控制信号到执行机构的延时问题,会导致外骨骼执行机构的停顿。现有LightGBM预测模型无法满足实际外骨骼实时预测功能,故需对基于LightGBM的步态预测算法做相关改进以更适用外骨骼的运行。
4.1预测模型训练
通过步骤3获得的左下肢髋关节屈伸角度向量数据为训练集,训练左下肢髋关节屈伸角的预测模型;
首先利用滑动窗口从α中提取角度值构建左下肢髋关节屈伸角矩阵Aα左,作为训练预测模型的特征矩阵,见公式4.1;
Figure BDA0002343336420000075
其中w为滑动窗口的窗宽,N为滑动窗口数目,以预测长度pLen作为滑动窗口的步长,pLen>1;为保证更好地构建目标矩阵,需满足K-[(N-1)×pLen+w]≥pLen,即保证α最后有足够的角度值构建pLen个预测长度的预测值;
然后根据预测长度与α中相对于当前滑动窗口的未来时刻屈伸角角度值,构建矩阵Dα左,作为训练预测模型的预测目标值矩阵,见公式4.2;
Figure BDA0002343336420000081
其中
Figure BDA0002343336420000082
为左下肢髋关节屈伸角对应未来第i个时刻的预测值向量;
根据公式(4.1)与(4.2)构建左下肢膝关节的特征矩阵代入到公式(4.3),得到pLen个预测模型:
Figure BDA0002343336420000083
其中T()为LightGBM训练函数,
Figure BDA0002343336420000084
为左下肢髋关节屈伸角训练后对应未来第i个时刻的预测模型(函数);
4.2预测模型并联预测
左下肢髋关节当前最新滑动窗口内的特征向量为
Figure BDA0002343336420000085
通过将pLen个训练好的预测模型以并联结构相连,实现未来pLen个时刻的左下肢髋关节屈伸角预测:
Figure BDA0002343336420000091
其中,
Figure BDA0002343336420000092
为未来第i个时刻的左下肢髋关节屈伸角预测值;
由式(4.4)可得左下肢髋关节屈伸角预测向量P
Figure BDA0002343336420000093
4.3按照步骤4.1-4.2同理右下肢髋关节屈伸角并联预测模型构建如下:
模型的输入:
Figure BDA0002343336420000094
模型的输出:
Figure BDA0002343336420000095
由右下肢髋关节的特征矩阵Αα右、Dα右,类比公式(4.3),得到pLen个预测模型:
Figure BDA0002343336420000096
右下肢髋关节当前最新滑动窗口内的特征向量为
Figure BDA0002343336420000097
通过将pLen个训练好的预测模型以并联结构相连,实现未来pLen个时刻的右下肢髋关节屈伸角预测:
Figure BDA0002343336420000101
其中,
Figure BDA0002343336420000102
为未来第i个时刻的右下肢髋关节屈伸角预测值;
由式(4.5)可得右下肢髋关节屈伸角预测向量P
Figure BDA0002343336420000103
同理左下肢膝关节屈伸角并联预测模型构建如下:
模型的输入:
Figure BDA0002343336420000104
模型的输出:
Figure BDA0002343336420000105
由左下肢膝关节的特征矩阵Αβ左、Dβ左,类比公式(4.3),得到pLen个预测模型:
Figure BDA0002343336420000106
左下肢膝关节当前最新滑动窗口内的特征向量为
Figure BDA0002343336420000107
通过将pLen个训练好的预测模型以并联结构相连,实现未来pLen个时刻的左下肢膝关节屈伸角预测:
Figure BDA0002343336420000111
其中,
Figure BDA0002343336420000112
为未来第i个时刻的左下肢膝关节屈伸角预测值;
由式(4.6)可得左下肢膝关节屈伸角预测向量Q
Figure BDA0002343336420000113
同理右下肢膝关节屈伸角并联预测模型构建如下:
模型的输入:
Figure BDA0002343336420000114
模型的输出:
Figure BDA0002343336420000115
由右下肢膝关节的特征矩阵Αβ右、Dβ右,类比公式(4.3),得到pLen个预测模型:
Figure BDA0002343336420000116
右下肢膝关节当前最新滑动窗口内的特征向量为
Figure BDA0002343336420000117
通过将pLen个训练好的预测模型以并联结构相连,实现未来pLen个时刻的右下肢膝关节屈伸角预测:
Figure BDA0002343336420000121
其中,
Figure BDA0002343336420000122
为未来第i个时刻的右下肢膝关节屈伸角预测值;
由式(4.7)可得右下肢膝关节屈伸角预测向量Q
Figure BDA0002343336420000123
步态数据应用机器学习算法时数据集构造的滑动窗口每次滑动的步长为1,为了实现对目标值的连续预测,设定预测步长必须大于1。
图3为三种算法之间的对比直方图。相对于基于Gradient Boosting的XGBoost与LightGBM算法,卡尔曼滤波的步态预测RMSE更高,但是SC更低,说明卡尔曼滤波预测精度低,但是预测结果更加平滑,且卡尔曼滤波预测算法无需训练;在基于Gradient Boosting的两种XGBoost与LightGBM中,预测结果的RMSE总体大概相同,但是LightGBM的预测结果的SC小于XGBoost,且LightGBM的训练时间明显小于相同训练集大小的XGBoost的训练时间。由此可知在实际运用过程中,LightGBM可以更快地训练出预测效果好的预测模型。
本发明预测模型验证如图4所示。
步骤(5)、执行机构执行预测结果
根据步骤4获取左右下肢髋关节屈伸角和膝关节屈伸角预测向量,获取预测轨迹;左右下肢外骨骼执行机构根据屈伸角预测轨迹通过现有技术转换为对应控制信号,进而控制对应关节处电机运行,以实现外肢步态行走。

Claims (1)

1.一种基于LightGBM的外骨骼步态预测方法,其特征在于该方法包括如下步骤:
步骤(1)、数据采集阶段
将5个IMU传感器分别设置在使用者的腰部、左大腿、左小腿、右大腿、右小腿;实时获取5个IMU传感器的x、y轴向加速度值;
步骤(2)、数据分析与消噪平滑处理
根据步骤(1)5个IMU传感器的x、y轴向加速度值,构建一个由10×k加速度分量组成的矩阵,定义为:
R=[V1,V2,…,Vi,…,V10]T,T表示矩阵的转置
其中
Figure FDA0003309385490000011
Figure FDA0003309385490000012
表示第i个加速度分量在t时刻加速度值,K为数据采样点的总数量;
对Vi做移动平均滤波消噪处理,设
Figure FDA0003309385490000013
的滤波值为
Figure FDA0003309385490000014
则:
Figure FDA0003309385490000015
其中L为移动平均滤波处理时所取的原加速度值个数,且L为奇数,M=(L-1)/2;
根据公式(2.1),最终得到Vi全部t(t=1,2,…,K)时刻的消噪数据:
Figure FDA0003309385490000016
步骤(3)、获取步态数据中的实时屈伸角
根据步骤(2)处理后的消噪数据,以左下肢为例,某一时刻t左下肢髋关节屈伸角角度
Figure FDA0003309385490000017
和膝关节的屈伸角角度
Figure FDA0003309385490000018
分别由公式(3.1)以及(3.2)得到:
Figure FDA0003309385490000019
Figure FDA00033093854900000110
其中ax1,ay1分别为步骤2处理后时刻t左大腿IMU传感器的加速度分量,ax2,ay2分别为步骤2处理后时刻t左小腿IMU传感器的加速度分量;
最终获得所有K个时刻的左下肢髋关节与膝关节屈伸角α与β
Figure FDA0003309385490000021
Figure FDA0003309385490000022
同理获得右下肢髋关节与膝关节屈伸角;
步骤(4)、改进的LightGBM方法的连续目标值实时预测
以左下肢髋关节屈伸角α为例:
4.1预测模型训练
通过步骤3获得的左下肢髋关节屈伸角数据为训练集,训练左下肢髋关节屈伸角的预测模型;
首先利用滑动窗口从α中提取角度值构建左下肢髋关节屈伸角矩阵Aα左,作为训练预测模型的特征矩阵,见公式4.1;
Figure FDA0003309385490000023
其中w为滑动窗口的窗宽,N为滑动窗口数目,以预测长度pLen作为滑动窗口的步长,pLen>1;为保证更好地构建目标矩阵,需满足K-[(N-1)×pLen+w]≥pLen,即保证α最后有足够的角度值构建pLen个预测长度的预测值;
然后根据预测长度与α中相对于当前滑动窗口的未来时刻屈伸角角度值,构建矩阵Dα左,作为训练预测模型的预测目标值矩阵,见公式4.2;
Figure FDA0003309385490000031
其中
Figure FDA0003309385490000032
为左下肢髋关节屈伸角对应未来第i个时刻的预测值向量;
根据公式(4.1)与(4.2)构建左下肢膝关节的特征矩阵代入到公式(4.3),得到pLen个预测模型:
Figure FDA0003309385490000033
其中T()为LightGBM训练函数,
Figure FDA0003309385490000034
为左下肢髋关节屈伸角训练后对应未来第i个时刻的预测模型;
4.2预测模型并联预测
左下肢髋关节当前最新滑动窗口内的特征向量为
Figure FDA0003309385490000035
Figure FDA0003309385490000036
通过将pLen个训练好的预测模型以并联结构相连,实现未来pLen个时刻的左下肢髋关节屈伸角预测:
Figure FDA0003309385490000037
其中,
Figure FDA0003309385490000038
为未来第i个时刻的左下肢髋关节屈伸角预测值;
由式(4.4)可得左下肢髋关节屈伸角预测向量P
Figure FDA0003309385490000041
同理得到左下肢膝关节、右下肢髋关节和膝关节的屈伸角并联预测模型;
步骤(5)、根据步骤4预测向量以实现步态预测轨迹。
CN201911384974.3A 2019-12-28 2019-12-28 一种基于LightGBM的外骨骼步态预测方法 Active CN111096830B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911384974.3A CN111096830B (zh) 2019-12-28 2019-12-28 一种基于LightGBM的外骨骼步态预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911384974.3A CN111096830B (zh) 2019-12-28 2019-12-28 一种基于LightGBM的外骨骼步态预测方法

Publications (2)

Publication Number Publication Date
CN111096830A CN111096830A (zh) 2020-05-05
CN111096830B true CN111096830B (zh) 2021-11-30

Family

ID=70424063

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911384974.3A Active CN111096830B (zh) 2019-12-28 2019-12-28 一种基于LightGBM的外骨骼步态预测方法

Country Status (1)

Country Link
CN (1) CN111096830B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112114665B (zh) * 2020-08-23 2023-04-11 西北工业大学 一种基于多模态融合的手部追踪方法
CN112535474B (zh) * 2020-11-11 2021-12-28 西安交通大学 一种基于相似规律搜索的下肢运动关节角度实时预测方法
CN113829339B (zh) * 2021-08-02 2023-09-15 上海大学 基于长短时记忆网络的外骨骼运动协同方法
CN115294653A (zh) * 2022-08-10 2022-11-04 电子科技大学 一种基于高斯过程回归的下肢外骨骼步态预测方法
CN119723666A (zh) * 2024-12-17 2025-03-28 南京邮电大学 一种基于步态分析与姿态估计的人体髋关节炎步态特征检测方法
CN120578884A (zh) * 2025-05-15 2025-09-02 国网湖北省电力有限公司超高压公司 基于运动意图识别的外骨骼轨迹预测方法、系统及设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5007938A (en) * 1989-07-08 1991-04-16 Ipos Gmbh & Co. Kg Artificial foot for a leg prosthesis
CN101036601A (zh) * 2007-04-24 2007-09-19 杭州电子科技大学 二自由度肌电假手实时控制装置及控制方法
CN102639082A (zh) * 2009-08-27 2012-08-15 科特拉有限公司 在关节中对力进行重新分布的方法和设备
CN103637840A (zh) * 2005-08-23 2014-03-19 史密夫和内修有限公司 遥测矫形植入物
EP2825134A1 (en) * 2012-03-14 2015-01-21 Vanderbilt University System and method for providing biomechanically suitable running gait in powered lower limb devices
CN109464193A (zh) * 2018-12-27 2019-03-15 北京爱康宜诚医疗器材有限公司 数据预测方法、装置及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004041132A2 (en) * 2002-11-01 2004-05-21 Otto Bock Healthcare Lp Pressure/temperature monitoring device for prosthetics
JP2008527002A (ja) * 2005-01-13 2008-07-24 サートリス ファーマシューティカルズ, インコーポレイテッド 神経変性障害および血液凝固障害を予防および処置するための新規組成物
US20080109295A1 (en) * 2006-07-12 2008-05-08 Mcconochie Roberta M Monitoring usage of a portable user appliance
CA2672209C (en) * 2006-12-08 2016-07-19 Hanger Orthopedic Group, Inc. Prosthetic device and connecting system using vacuum
ES2659713T3 (es) * 2008-04-30 2018-03-19 Officine Ortopediche Rizzoli S.R.L. Prótesis automática para personas con amputación por encima de la rodilla
KR20110074520A (ko) * 2008-09-04 2011-06-30 아이워크, 아이엔씨. 하이브리드 지형-적응형 의족 시스템
CN101579238B (zh) * 2009-06-15 2012-12-19 吴健康 人体运动捕获三维再现系统及其方法
EP2841064B1 (en) * 2012-04-26 2019-06-12 Sentient Lifesciences, Inc. Use of n-acetylcysteine amide in the treatment of cataracts

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5007938A (en) * 1989-07-08 1991-04-16 Ipos Gmbh & Co. Kg Artificial foot for a leg prosthesis
CN103637840A (zh) * 2005-08-23 2014-03-19 史密夫和内修有限公司 遥测矫形植入物
CN101036601A (zh) * 2007-04-24 2007-09-19 杭州电子科技大学 二自由度肌电假手实时控制装置及控制方法
CN102639082A (zh) * 2009-08-27 2012-08-15 科特拉有限公司 在关节中对力进行重新分布的方法和设备
EP2825134A1 (en) * 2012-03-14 2015-01-21 Vanderbilt University System and method for providing biomechanically suitable running gait in powered lower limb devices
CN109464193A (zh) * 2018-12-27 2019-03-15 北京爱康宜诚医疗器材有限公司 数据预测方法、装置及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
N. Shiozawa.Virtual walkway system and prediction of gait mode transition for the control of the gait simulator.《The 26th Annual International Conference of the IEEE Engineering in Medicine and Biology Society》.2004, *
Optimal Feature Selection for EMG-Based Finger Force Estimation Using LightGBM Model;Yuhang Ye;《2019 28th IEEE International Conference on Robot and Human Interactive Communication (RO-MAN)》;20191031;全文 *
下肢外骨骼步态感知预测与控制方法研究与应用;宋国明;《中国优秀硕士学位论文全文库》;20210415;全文 *

Also Published As

Publication number Publication date
CN111096830A (zh) 2020-05-05

Similar Documents

Publication Publication Date Title
CN111096830B (zh) 一种基于LightGBM的外骨骼步态预测方法
CN106067178B (zh) 一种基于肌肉协同激活模型的手部关节运动连续估计方法
CN109009586B (zh) 一种假手腕关节人机自然驱动角度的肌电连续解码方法
CN109620493B (zh) 基于脑控的残疾人生活辅助装置的控制方法
Zeng et al. Feature fusion of sEMG and ultrasound signals in hand gesture recognition
Wang et al. Research on multimodal fusion recognition method of upper limb motion patterns
CN111399640A (zh) 一种面向柔性臂的多模态人机交互控制方法
WO2024103371A1 (zh) 手部关节角度估计方法
Wahid et al. sEMG-based upper limb elbow force estimation using CNN, CNN-LSTM, and CNN-GRU Models
CN109758336A (zh) 一种利用患者患侧sEMG进行主动康复治疗的控制方法
Han et al. Physics-Informed Deep Transfer Learning for sEMG-Based Multiple Joint Angle and Torque Estimation
CN116421443B (zh) 三维肢体镜像康复机器人的控制方法及康复机器人
Johan et al. Preliminary design of an Intention-based sEMG-controlled 3 DOF upper limb exoskeleton for assisted therapy in activities of daily life in patients with hemiparesis
Zhang et al. Real‐time gait intention recognition for active control of unilateral knee exoskeleton
Chen et al. Towards Neurorobotic Interface for Finger Joint Angle Estimation: A Multi-Stage CNN-LSTM Network with Transfer Learning
Lv et al. SEMG-based lower limb joint angle prediction with muscle synergy spatio-temporal fusion and DWCIT model
CN118402935A (zh) 一种基于sEMG驱动的上肢康复机器人仿康复师牵引训练方法及系统
CN111772638A (zh) 步态控制方法、装置、电子设备及存储介质
CN106598243B (zh) 一种多模态自适应光标控制方法及系统
Ma et al. sEMG-based estimation of human arm endpoint stiffness using long short-term memory neural networks and autoencoders
CN116910515A (zh) 一种复杂场景下的表面肌电信号解码方法及系统
Yan et al. Gait recognition based on Minirocket with inertial measurement units
Su et al. A Recurrent Neural Network Based Prediction Method for Continuous Joint Angle Movement
Shi et al. Research on prediction of human lower limb joint angle based on sEMG signal
Wang et al. Online hand movement recognition system with EEG-EMG fusion using one-dimensional convolutional neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant