CN111096830B - 一种基于LightGBM的外骨骼步态预测方法 - Google Patents
一种基于LightGBM的外骨骼步态预测方法 Download PDFInfo
- Publication number
- CN111096830B CN111096830B CN201911384974.3A CN201911384974A CN111096830B CN 111096830 B CN111096830 B CN 111096830B CN 201911384974 A CN201911384974 A CN 201911384974A CN 111096830 B CN111096830 B CN 111096830B
- Authority
- CN
- China
- Prior art keywords
- lower limb
- prediction
- flexion
- left lower
- hip joint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/60—Artificial legs or feet or parts thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/112—Gait analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/68—Operating or control means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/68—Operating or control means
- A61F2/70—Operating or control means electrical
- A61F2002/704—Operating or control means electrical computer-controlled, e.g. robotic control
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- General Physics & Mathematics (AREA)
- Transplantation (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Cardiology (AREA)
- Multimedia (AREA)
- Vascular Medicine (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Physiology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Psychiatry (AREA)
- Dentistry (AREA)
- Evolutionary Biology (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Epidemiology (AREA)
- Pain & Pain Management (AREA)
- Physical Education & Sports Medicine (AREA)
- Rehabilitation Therapy (AREA)
Abstract
本发明公开一种基于LightGBM的外骨骼步态预测方法。本发明通过人体运动学分析,提取下肢关节的加速度数据做离线分析,进而解算出关节控制目标轨迹,最后控制系统通过该轨迹进行运动控制,实现下肢外骨骼的人体步态运动。本发明提出一种全新的下肢运动步态轨迹预测方法,能够应用于下肢外骨骼控制中,创新性的对LightGBM实现并联结构输入,并对下肢关节的连续目标值的步态轨迹预测,预测方法具有较强的精确度,减少了训练时间。
Description
技术领域
本发明属于下肢外骨骼人机协同运动控制领域,涉及一种基于LightGBM(LightGradient Boosting Machine,提升机器算法)的运动步态轨迹预测方法。
背景技术
下肢外骨骼机器人是穿戴在用户下肢外部的一种典型的人机一体化系统,综合了检测,控制,信息融合等机器人呢技术,将用户的智力与机器人的“体力”结合在一起,提供动力以辅助用户的运动。民用领域方面,外骨骼机器人可以帮助老年人正常行动。医疗领域方面,外骨骼机器人在辅助残疾人正常生活的同时,也大大减轻了医务人员的工作压力。军事领域方面,外骨骼机器人可以提高战场的救援效率,帮助更多的受伤人员,由于外骨骼机器人在各领域发挥巨大的作用,使得其发展前景十分广阔。
目前有两种系统输入来预测外骨骼机器人的步态轨迹,一是通过感知型传感器测量脑电信号(EEG)或者肌电信号(EMG)等人体生物信号作为外骨骼控制系统的输入,尽管生物信号超前于人体运动,能够解决运动滞后的问题,但EEG和EMG信号不稳定,容易受到静电、汗液等的干扰。二是利用角度/角速度、力/力矩等物理型传感器,实时采集人体运动学或动力学数据作为外骨骼控制系统的输入。对于步态轨迹预测问题,传统的方法包括支持向量机(SVM)、卡尔曼滤波等,传统方法计算量过大,内存占用大,容易产生过拟合,对于步态轨迹的连续目标值预测仍需要进一步改进。
故需要提出一种能够提高步态轨迹的连续目标值预测精准度、提高轨迹平滑性、减少计算量的下肢外骨骼步态预测方法。
发明内容
本发明针对现有技术的不足,提供一种基于改进的LightGBM的步态轨迹预测方法,通过人体运动学分析,提取下肢关节的加速度数据做离线分析,进而解算出关节控制目标轨迹,最后控制系统通过该轨迹进行运动控制,实现下肢外骨骼的人体步态运动。
为实现上述目的,本发明的技术方案具体内容如下:
一种基于LightGBM的外骨骼步态预测方法,其特征在于该方法包括如下步骤:
步骤(1)、数据采集阶段
将5个IMU传感器分别设置在使用者的腰部、左大腿、左小腿、右大腿、右小腿;实时获取5个IMU传感器的x、y轴向加速度值;
步骤(2)、数据分析与消噪平滑处理
根据步骤(1)5个IMU传感器的x、y轴向加速度值,构建一个由10×k加速度分量组成的矩阵,定义为:
R=[V1,V2,…,Vi,…,V10]T,T表示矩阵的转置
其中L为移动平均滤波处理时所取的原加速度值个数,且L为奇数,M=(L-1)/2;
根据公式(2.1),最终得到Vi全部t(t=1,2,…,K)时刻的消噪数据:
步骤(3)、获取步态数据中的实时屈伸角
其中ax1,ay1分别为步骤2处理后时刻t左大腿IMU传感器的加速度分量,ax2,ax2分别为步骤2处理后时刻t左小腿IMU传感器的加速度分量;
最终获得所有K个时刻的左下肢髋关节与膝关节屈伸角度向量α左与β左:
同理获得右下肢髋关节与膝关节屈伸角度向量;
步骤(4)、改进的LightGBM方法的连续目标值实时预测
以左下肢髋关节屈伸角α左为例:
4.1预测模型训练
通过步骤3获得的左下肢髋关节屈伸角度向量数据为训练集,训练左下肢髋关节屈伸角的预测模型;
首先利用滑动窗口从α左中提取角度值构建左下肢髋关节屈伸角矩阵Aα左,作为训练预测模型的特征矩阵,见公式4.1;
其中w为滑动窗口的窗宽,N为滑动窗口数目,以预测长度pLen作为滑动窗口的步长,pLen>1;为保证更好地构建目标矩阵,需满足K-[(N-1)×pLen+w]≥pLen,即保证α左最后有足够的角度值构建pLen个预测长度的预测值;
然后根据预测长度与α左中相对于当前滑动窗口的未来时刻屈伸角角度值,构建矩阵Dα左,作为训练预测模型的预测目标值矩阵,见公式4.2;
根据公式(4.1)与(4.2)构建左下肢膝关节的特征矩阵代入到公式(4.3),得到pLen个预测模型:
4.2预测模型并联预测
由式(4.4)可得左下肢髋关节屈伸角预测向量P左:
同理得到左下肢膝关节、右下肢髋关节和膝关节的屈伸角并联预测模型;
步骤(5)、根据步骤4预测向量以实现步态预测轨迹。
本发明的有益效果是:
本发明提出一种全新的下肢运动步态轨迹预测方法,能够应用于下肢外骨骼控制中,创新性的对LightGBM实现并联结构输入,并对下肢关节的连续目标值的步态轨迹预测,预测方法具有较强的精确度,减少了训练时间。
附图说明
图1是四个原始数据与消噪数据对比的曲线图;其中(a)左小腿加速度x;(b)左小腿加速度y;(c)左大腿加速度x;(d)左大腿加速度y;
图2是人体下肢结构模型图;
图3是卡尔曼滤波、XGboost和LightGBM三种方法的对比图,其中(a)为RMSE,(a)为SC,(c)训练时间;
图4(a)(b)分别是左下肢髋关节和膝关节的验证结果对比。
具体实施方式
为使本发明的目的、技术方案和要点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
一种基于LightGBM的外骨骼步态预测方法,包括以下步骤:
1.数据采集阶段
将5个IMU传感器分别设置在使用者的腰部、左大腿、左小腿、右大腿、右小腿;根据人体下肢结构可简化出如图2的下肢模型图,5个黑点代表5个IMU传感器位置,每个IMU传感器提供了人体下肢行走过程中每条腿对应二维平面上的加速度分量,髋关节以逆时针为正方向,膝关节以顺时针为正方向,实时获取5个IMU传感器的x、y轴向加速度值。
采集设备为5个IMU传感器,分别放置右小腿,右大腿,左小腿,左大腿,以及腰部,采样率为100Hz,受试者以步速2km/h直线步行。
2.数据分析与消噪平滑处理
根据步骤(1)5个IMU传感器的x、y轴向加速度值,构建一个由10×k加速度分量组成的矩阵,定义为:
R=[V1,V2,…,Vi,…,V10]T,T表示矩阵的转置
其中L为移动平均滤波处理时所取的原加速度值个数,且L为奇数,M=(L-1)/2;
根据公式(2.1),最终得到Vi全部t(t=1,2,…,K)时刻的消噪数据:
将部分加速度分量数据应用MAF算法,绘制了四个原始数据与消噪数据对比的曲线图,如图1所示。
3.步态数据的实时关节角度计算
其中ax1,ay1分别为步骤2处理后时刻t左大腿IMU传感器的加速度分量,ax2,ax2分别为步骤2处理后时刻t左小腿IMU传感器的加速度分量;
最终获得所有K个时刻的左下肢髋关节与膝关节屈伸角度向量α左与β左:
同理获得右下肢髋关节与膝关节屈伸角度向量:
其中ax3,ay3分别为步骤2处理后时刻t右大腿IMU传感器的加速度分量,ax4,ax4分别为步骤2处理后时刻t右小腿IMU传感器的加速度分量;
最终获得所有K个时刻的左下肢髋关节与膝关节屈伸角度向量α右与β右:
4.改进的LightGBM方法的连续目标值实时预测
外骨骼控制系统的控制信号输入直接影响外骨骼运动的流畅度,故控制信号的输入频率越高,单次输入的信号值越连续,外骨骼的执行机构就越能使其运动流程自然。基于该原理,当利用已知的LightGBM算法对步态做预测时,其单次只能预测一个关节角度变换,此时由于预测算法计算预测结果需要时间以及控制信号到执行机构的延时问题,会导致外骨骼执行机构的停顿。现有LightGBM预测模型无法满足实际外骨骼实时预测功能,故需对基于LightGBM的步态预测算法做相关改进以更适用外骨骼的运行。
4.1预测模型训练
通过步骤3获得的左下肢髋关节屈伸角度向量数据为训练集,训练左下肢髋关节屈伸角的预测模型;
首先利用滑动窗口从α左中提取角度值构建左下肢髋关节屈伸角矩阵Aα左,作为训练预测模型的特征矩阵,见公式4.1;
其中w为滑动窗口的窗宽,N为滑动窗口数目,以预测长度pLen作为滑动窗口的步长,pLen>1;为保证更好地构建目标矩阵,需满足K-[(N-1)×pLen+w]≥pLen,即保证α左最后有足够的角度值构建pLen个预测长度的预测值;
然后根据预测长度与α左中相对于当前滑动窗口的未来时刻屈伸角角度值,构建矩阵Dα左,作为训练预测模型的预测目标值矩阵,见公式4.2;
根据公式(4.1)与(4.2)构建左下肢膝关节的特征矩阵代入到公式(4.3),得到pLen个预测模型:
4.2预测模型并联预测
由式(4.4)可得左下肢髋关节屈伸角预测向量P左:
4.3按照步骤4.1-4.2同理右下肢髋关节屈伸角并联预测模型构建如下:
由右下肢髋关节的特征矩阵Αα右、Dα右,类比公式(4.3),得到pLen个预测模型:
由式(4.5)可得右下肢髋关节屈伸角预测向量P右:
同理左下肢膝关节屈伸角并联预测模型构建如下:
由左下肢膝关节的特征矩阵Αβ左、Dβ左,类比公式(4.3),得到pLen个预测模型:
由式(4.6)可得左下肢膝关节屈伸角预测向量Q左:
同理右下肢膝关节屈伸角并联预测模型构建如下:
由右下肢膝关节的特征矩阵Αβ右、Dβ右,类比公式(4.3),得到pLen个预测模型:
由式(4.7)可得右下肢膝关节屈伸角预测向量Q右:
步态数据应用机器学习算法时数据集构造的滑动窗口每次滑动的步长为1,为了实现对目标值的连续预测,设定预测步长必须大于1。
图3为三种算法之间的对比直方图。相对于基于Gradient Boosting的XGBoost与LightGBM算法,卡尔曼滤波的步态预测RMSE更高,但是SC更低,说明卡尔曼滤波预测精度低,但是预测结果更加平滑,且卡尔曼滤波预测算法无需训练;在基于Gradient Boosting的两种XGBoost与LightGBM中,预测结果的RMSE总体大概相同,但是LightGBM的预测结果的SC小于XGBoost,且LightGBM的训练时间明显小于相同训练集大小的XGBoost的训练时间。由此可知在实际运用过程中,LightGBM可以更快地训练出预测效果好的预测模型。
本发明预测模型验证如图4所示。
步骤(5)、执行机构执行预测结果
根据步骤4获取左右下肢髋关节屈伸角和膝关节屈伸角预测向量,获取预测轨迹;左右下肢外骨骼执行机构根据屈伸角预测轨迹通过现有技术转换为对应控制信号,进而控制对应关节处电机运行,以实现外肢步态行走。
Claims (1)
1.一种基于LightGBM的外骨骼步态预测方法,其特征在于该方法包括如下步骤:
步骤(1)、数据采集阶段
将5个IMU传感器分别设置在使用者的腰部、左大腿、左小腿、右大腿、右小腿;实时获取5个IMU传感器的x、y轴向加速度值;
步骤(2)、数据分析与消噪平滑处理
根据步骤(1)5个IMU传感器的x、y轴向加速度值,构建一个由10×k加速度分量组成的矩阵,定义为:
R=[V1,V2,…,Vi,…,V10]T,T表示矩阵的转置
其中L为移动平均滤波处理时所取的原加速度值个数,且L为奇数,M=(L-1)/2;
根据公式(2.1),最终得到Vi全部t(t=1,2,…,K)时刻的消噪数据:
步骤(3)、获取步态数据中的实时屈伸角
其中ax1,ay1分别为步骤2处理后时刻t左大腿IMU传感器的加速度分量,ax2,ay2分别为步骤2处理后时刻t左小腿IMU传感器的加速度分量;
最终获得所有K个时刻的左下肢髋关节与膝关节屈伸角α左与β左:
同理获得右下肢髋关节与膝关节屈伸角;
步骤(4)、改进的LightGBM方法的连续目标值实时预测
以左下肢髋关节屈伸角α左为例:
4.1预测模型训练
通过步骤3获得的左下肢髋关节屈伸角数据为训练集,训练左下肢髋关节屈伸角的预测模型;
首先利用滑动窗口从α左中提取角度值构建左下肢髋关节屈伸角矩阵Aα左,作为训练预测模型的特征矩阵,见公式4.1;
其中w为滑动窗口的窗宽,N为滑动窗口数目,以预测长度pLen作为滑动窗口的步长,pLen>1;为保证更好地构建目标矩阵,需满足K-[(N-1)×pLen+w]≥pLen,即保证α左最后有足够的角度值构建pLen个预测长度的预测值;
然后根据预测长度与α左中相对于当前滑动窗口的未来时刻屈伸角角度值,构建矩阵Dα左,作为训练预测模型的预测目标值矩阵,见公式4.2;
根据公式(4.1)与(4.2)构建左下肢膝关节的特征矩阵代入到公式(4.3),得到pLen个预测模型:
4.2预测模型并联预测
由式(4.4)可得左下肢髋关节屈伸角预测向量P左:
同理得到左下肢膝关节、右下肢髋关节和膝关节的屈伸角并联预测模型;
步骤(5)、根据步骤4预测向量以实现步态预测轨迹。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201911384974.3A CN111096830B (zh) | 2019-12-28 | 2019-12-28 | 一种基于LightGBM的外骨骼步态预测方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201911384974.3A CN111096830B (zh) | 2019-12-28 | 2019-12-28 | 一种基于LightGBM的外骨骼步态预测方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN111096830A CN111096830A (zh) | 2020-05-05 |
| CN111096830B true CN111096830B (zh) | 2021-11-30 |
Family
ID=70424063
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201911384974.3A Active CN111096830B (zh) | 2019-12-28 | 2019-12-28 | 一种基于LightGBM的外骨骼步态预测方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN111096830B (zh) |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112114665B (zh) * | 2020-08-23 | 2023-04-11 | 西北工业大学 | 一种基于多模态融合的手部追踪方法 |
| CN112535474B (zh) * | 2020-11-11 | 2021-12-28 | 西安交通大学 | 一种基于相似规律搜索的下肢运动关节角度实时预测方法 |
| CN113829339B (zh) * | 2021-08-02 | 2023-09-15 | 上海大学 | 基于长短时记忆网络的外骨骼运动协同方法 |
| CN115294653A (zh) * | 2022-08-10 | 2022-11-04 | 电子科技大学 | 一种基于高斯过程回归的下肢外骨骼步态预测方法 |
| CN119723666A (zh) * | 2024-12-17 | 2025-03-28 | 南京邮电大学 | 一种基于步态分析与姿态估计的人体髋关节炎步态特征检测方法 |
| CN120578884A (zh) * | 2025-05-15 | 2025-09-02 | 国网湖北省电力有限公司超高压公司 | 基于运动意图识别的外骨骼轨迹预测方法、系统及设备 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5007938A (en) * | 1989-07-08 | 1991-04-16 | Ipos Gmbh & Co. Kg | Artificial foot for a leg prosthesis |
| CN101036601A (zh) * | 2007-04-24 | 2007-09-19 | 杭州电子科技大学 | 二自由度肌电假手实时控制装置及控制方法 |
| CN102639082A (zh) * | 2009-08-27 | 2012-08-15 | 科特拉有限公司 | 在关节中对力进行重新分布的方法和设备 |
| CN103637840A (zh) * | 2005-08-23 | 2014-03-19 | 史密夫和内修有限公司 | 遥测矫形植入物 |
| EP2825134A1 (en) * | 2012-03-14 | 2015-01-21 | Vanderbilt University | System and method for providing biomechanically suitable running gait in powered lower limb devices |
| CN109464193A (zh) * | 2018-12-27 | 2019-03-15 | 北京爱康宜诚医疗器材有限公司 | 数据预测方法、装置及系统 |
Family Cites Families (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2004041132A2 (en) * | 2002-11-01 | 2004-05-21 | Otto Bock Healthcare Lp | Pressure/temperature monitoring device for prosthetics |
| JP2008527002A (ja) * | 2005-01-13 | 2008-07-24 | サートリス ファーマシューティカルズ, インコーポレイテッド | 神経変性障害および血液凝固障害を予防および処置するための新規組成物 |
| US20080109295A1 (en) * | 2006-07-12 | 2008-05-08 | Mcconochie Roberta M | Monitoring usage of a portable user appliance |
| CA2672209C (en) * | 2006-12-08 | 2016-07-19 | Hanger Orthopedic Group, Inc. | Prosthetic device and connecting system using vacuum |
| ES2659713T3 (es) * | 2008-04-30 | 2018-03-19 | Officine Ortopediche Rizzoli S.R.L. | Prótesis automática para personas con amputación por encima de la rodilla |
| KR20110074520A (ko) * | 2008-09-04 | 2011-06-30 | 아이워크, 아이엔씨. | 하이브리드 지형-적응형 의족 시스템 |
| CN101579238B (zh) * | 2009-06-15 | 2012-12-19 | 吴健康 | 人体运动捕获三维再现系统及其方法 |
| EP2841064B1 (en) * | 2012-04-26 | 2019-06-12 | Sentient Lifesciences, Inc. | Use of n-acetylcysteine amide in the treatment of cataracts |
-
2019
- 2019-12-28 CN CN201911384974.3A patent/CN111096830B/zh active Active
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5007938A (en) * | 1989-07-08 | 1991-04-16 | Ipos Gmbh & Co. Kg | Artificial foot for a leg prosthesis |
| CN103637840A (zh) * | 2005-08-23 | 2014-03-19 | 史密夫和内修有限公司 | 遥测矫形植入物 |
| CN101036601A (zh) * | 2007-04-24 | 2007-09-19 | 杭州电子科技大学 | 二自由度肌电假手实时控制装置及控制方法 |
| CN102639082A (zh) * | 2009-08-27 | 2012-08-15 | 科特拉有限公司 | 在关节中对力进行重新分布的方法和设备 |
| EP2825134A1 (en) * | 2012-03-14 | 2015-01-21 | Vanderbilt University | System and method for providing biomechanically suitable running gait in powered lower limb devices |
| CN109464193A (zh) * | 2018-12-27 | 2019-03-15 | 北京爱康宜诚医疗器材有限公司 | 数据预测方法、装置及系统 |
Non-Patent Citations (3)
| Title |
|---|
| N. Shiozawa.Virtual walkway system and prediction of gait mode transition for the control of the gait simulator.《The 26th Annual International Conference of the IEEE Engineering in Medicine and Biology Society》.2004, * |
| Optimal Feature Selection for EMG-Based Finger Force Estimation Using LightGBM Model;Yuhang Ye;《2019 28th IEEE International Conference on Robot and Human Interactive Communication (RO-MAN)》;20191031;全文 * |
| 下肢外骨骼步态感知预测与控制方法研究与应用;宋国明;《中国优秀硕士学位论文全文库》;20210415;全文 * |
Also Published As
| Publication number | Publication date |
|---|---|
| CN111096830A (zh) | 2020-05-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111096830B (zh) | 一种基于LightGBM的外骨骼步态预测方法 | |
| CN106067178B (zh) | 一种基于肌肉协同激活模型的手部关节运动连续估计方法 | |
| CN109009586B (zh) | 一种假手腕关节人机自然驱动角度的肌电连续解码方法 | |
| CN109620493B (zh) | 基于脑控的残疾人生活辅助装置的控制方法 | |
| Zeng et al. | Feature fusion of sEMG and ultrasound signals in hand gesture recognition | |
| Wang et al. | Research on multimodal fusion recognition method of upper limb motion patterns | |
| CN111399640A (zh) | 一种面向柔性臂的多模态人机交互控制方法 | |
| WO2024103371A1 (zh) | 手部关节角度估计方法 | |
| Wahid et al. | sEMG-based upper limb elbow force estimation using CNN, CNN-LSTM, and CNN-GRU Models | |
| CN109758336A (zh) | 一种利用患者患侧sEMG进行主动康复治疗的控制方法 | |
| Han et al. | Physics-Informed Deep Transfer Learning for sEMG-Based Multiple Joint Angle and Torque Estimation | |
| CN116421443B (zh) | 三维肢体镜像康复机器人的控制方法及康复机器人 | |
| Johan et al. | Preliminary design of an Intention-based sEMG-controlled 3 DOF upper limb exoskeleton for assisted therapy in activities of daily life in patients with hemiparesis | |
| Zhang et al. | Real‐time gait intention recognition for active control of unilateral knee exoskeleton | |
| Chen et al. | Towards Neurorobotic Interface for Finger Joint Angle Estimation: A Multi-Stage CNN-LSTM Network with Transfer Learning | |
| Lv et al. | SEMG-based lower limb joint angle prediction with muscle synergy spatio-temporal fusion and DWCIT model | |
| CN118402935A (zh) | 一种基于sEMG驱动的上肢康复机器人仿康复师牵引训练方法及系统 | |
| CN111772638A (zh) | 步态控制方法、装置、电子设备及存储介质 | |
| CN106598243B (zh) | 一种多模态自适应光标控制方法及系统 | |
| Ma et al. | sEMG-based estimation of human arm endpoint stiffness using long short-term memory neural networks and autoencoders | |
| CN116910515A (zh) | 一种复杂场景下的表面肌电信号解码方法及系统 | |
| Yan et al. | Gait recognition based on Minirocket with inertial measurement units | |
| Su et al. | A Recurrent Neural Network Based Prediction Method for Continuous Joint Angle Movement | |
| Shi et al. | Research on prediction of human lower limb joint angle based on sEMG signal | |
| Wang et al. | Online hand movement recognition system with EEG-EMG fusion using one-dimensional convolutional neural network |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |























































































