控制与决策  2020, Vol. 35 Issue (9): 2153-2161  
0

引用本文 [复制中英文]

盛敏, 刘双庆, 王婕, 苏本跃. 基于改进模板匹配的智能下肢假肢运动意图实时识别[J]. 控制与决策, 2020, 35(9): 2153-2161.
[复制中文]
SHENG Min, LIU Shuang-qing, WANG Jie, SU Ben-yue. Real-time motion intent recognition of intelligent lower limb prosthesis based on improved template matching technique[J]. Control and Decision, 2020, 35(9): 2153-2161. DOI: 10.13195/j.kzyjc.2019.0070.
[复制英文]

基金项目

国家自然科学基金项目(11475003, 61603003, 11471093);教育部“云数融合科教创新”基金项目(2017A09116);安徽省科技重大专项项目(18030901021);安徽省高校领军人才团队项目;安徽省高校优秀拔尖人才培育项目(gxbjZD26)

作者简介

盛敏(1975-), 女, 教授, 从事模式识别与图像及视频处理等研究, E-mail: msheng0125@aliyun.com;
刘双庆(1992-), 男, 硕士生, 从事机器学习与运动意图识别的研究, E-mail: 2287107038@qq.com;
王婕(1995-), 女, 硕士生, 从事机器学习与运动意图识别的研究, E-mail: wangjiexiaogui@126.com;
苏本跃(1971-), 男, 教授, 从事模式识别与机器学习、图形图像处理等研究, E-mail: bysu@aqnu.edu.cn

通讯作者

盛敏, E-mail: msheng0125@aliyun.com

文章历史

收稿日期:2019-01-14
修回日期:2019-04-07
基于改进模板匹配的智能下肢假肢运动意图实时识别
盛敏 1,2, 刘双庆 1,2, 王婕 2,3, 苏本跃 2,3     
1. 安庆师范大学 数学与计算科学学院,安徽 安庆 246133;
2. 安徽省智能感知与计算重点实验室,安徽 安庆 246133;
3. 安庆师范大学 计算机与信息学院,安徽 安庆 246133
摘要:传统下肢假肢运动意图识别常使用多模态传感器采集残肢侧时频域特征, 在短时意图识别中, 具有一定的复杂性和滞后性, 且时频域特征不稳定难以达到实时意图识别的目的.鉴于此, 提出基于改进模板匹配技术的智能下肢假肢运动意图实时识别的方法.在重新定义单侧下肢截肢者的运动模式后, 仅采用惯性传感器采集健肢侧位于摆动相的数据, 基于改进的模板匹配, 通过滑动窗口创建完备的模板库, 使得每类运动模式在库中有充足的原子模式, 对下肢假肢的运动意图进行实时识别.实验结果表明, 所提出方法在5种稳态模式(平地行走、上下楼、上下坡)的识别率为99.50 %, 在引入8种转换模式后的识别率为97.03 %, 可以大大提高下肢假肢实时识别性能, 助力单侧下肢截肢者更自然地行走.
关键词意图识别    完备模板库    原子模式    模板匹配    转换模式    
Real-time motion intent recognition of intelligent lower limb prosthesis based on improved template matching technique
SHENG Min 1,2, LIU Shuang-qing 1,2, WANG Jie 2,3, SU Ben-yue 2,3     
1. School of Mathematics and Computational Science, Anqing Normal University, Anqing 246133, China;
2. University Key Laboratory of Intelligent Perception and Computing of Anhui Province, Anqing 246133, China;
3. School of Computer and Information, Anqing Normal University, Anqing 246133, China
Abstract: Traditional lower limb prosthesis motion intent recognition often uses multi-modal sensors to collect timefrequency domain features of the residual limb side. In short-term intent recognition, it has certain complexity and lag, and time-frequency domain features are unstable, which is difficult to achieve the purpose of real-time intent recognition. This paper proposes a real-time intelligent lower limb prosthesis motion intent recognition method based on improved template matching technology. After the amputee's motion pattern is acquired, onlys an inertial sensor is used to collect the data of the sound limb side in the swing phase. Based on the improved template matching, a complete template library is created through sliding window, so that each kind of motion pattern is sufficient atomic patterns in the library, and the motion intent of the lower limb prosthesis is recognized in real time. The experimental results show that the recognition rate of the algorithm reaches 99.50% in 5 steady states: level-ground walking, stair ascent, stair descent, ramp ascent and ramp descent, and 97.03% after introducing 8 transitional states. This method can greatly improve the real-time recognition performance of lower limb prosthesis and help unilateral lower limb amputees walk more naturally.
Keywords: motion intent recognition    complete template set    atomic pattern    improved template matching    transitional state    
0 引言

2006年12月国务院公布的第二次全国残疾人抽样调查结果显示, 我国残疾人口总数加大且有所上升, 全国现有各类残疾人8 000余万, 其中肢体残疾者逾2 400万[1].肢体截肢人数众多的原因有很多, 比如:疾病(糖尿病等)、交通事故、自然灾害(地震等)、天生缺陷等意外因素[2].随着人民生活水平的提高和科技的进步, 截肢者要求提高生活质量的需求也日益迫切, 对假肢的要求也不满足于笨重的被动型假肢.为了促进和谐社会的发展, 社会各界对智能化假肢的研究正在火热地进行.

假肢是截肢者运动功能的替代工具, 弥补了患者的肢体缺失, 补偿了肢体功能[3].与上肢假肢有所不同, 下肢假肢涉及到人体的运动平衡问题, 且直接影响着患者独立的生活[4].下肢假肢可分为主动型假肢(也称智能假肢)和被动型假肢, 智能假肢与被动假肢根本不同之处在于后者只能被动地做出反应, 而前者可以主动地做出运动, 减少患者能量消耗[5], 更好地助力截肢者行走.

目前, 国内外对智能假肢的研究主要包含两个方面:下肢假肢的设计方案与控制策略[6-7]和基于多模态融合的下肢运动意图识别的研究[8-9].前者主要探究和应用仿生技术设计假肢的机械结构和控制策略, 使下肢假肢关节在行走中更具有接近于人体关节的力学特性; 后者关注的是根据多模态传感器采集的人体生物电信号和生物力学信号识别下肢假肢的运动意图.只有准确和及时的意图识别, 才能驱动假肢调整参数, 实现患者自然、流畅、稳定地行走, 故下肢假肢意图识别的方法研究有巨大的意义.

在下肢假肢意图识别中, 依据采集的信号源不同, 可分为基于生物力学信号[10-11]的意图识别、基于生物电学信号[12-13]的意图识别和融合多种类型数据[14-15]的意图识别.由于采集的信号多为长时数据, 在特征选择和提取上, 传统意图识别多采用时域特征, 如均值[16](mean, M)、标准差[16](standard deviation, std)、相关系数[17](correlation coefficient, CC)、最大值[16](maximum, max)和最小值[16](minimum, min)等.根据选取的数据类型及特征类型选择相应的分类器模型, 常用的分类器有隐马尔可夫模型[18-19] (hidden Markov model, HMM)、动态贝叶斯网络[20] (dynamic Bayesian network, DBN)、支持向量机[21] (support vector machine, SVM)、二次判别分析[21] (quadratic discriminant analysis, QDA)、线性判别分析[16](linear discriminate analysis, LDA)和高斯混合模型[22](Gaussian mixture model, GMM)等. Young等[16]采集加速度、角速度和压力等数据, 选取均值、标准差、最大值、最小值作为特征, 对5种稳态模式和8种转换模式, 在LDA下取得了93.9 %的识别率, 后续工作中[20]引入一段时间的历史数据, 在DBN下降低了50 %的稳态模式识别错误率, 采集的信号来自步态周期内的残肢侧(简称患侧)运动模式切换前支撑相和转换后摆动相的数据, 因此带有一定的滞后性.赵丽娜等[18]利用安装在假肢上的加速度计, 采集了5种地形模式的长时信号, 解算出患侧髋关节的角度信息, 基于HMM分类器, 识别率为96%. Liu等[19]加入陀螺仪和压力鞋垫传感器, 采用组内相关系数(intraclass correlation coefficient, ICC)为特征, 采集支撑相的数据进行数据融合, 基于HMM识别率达到95.8 %.

上述传统意图识别的研究多数采集单侧截肢者患侧的信息, 且信号时长不少于一个步态周期, 当样本长度短于一个步态周期时, 所选取的时域特征不稳定, 无法提供准确的、短时的无滞后识别.在对运动模态尤其是模态之间的转换进行再定义后, 采用单一类型惯性传感器, 采集了健肢侧处于摆动相前期的短时数据, 借助滑动窗口创建完备的模板库, 基于改进的模板匹配技术, 真正实现了下肢假肢运动意图的实时识别.

1 相关工作

基于模式识别和机器学习的角度, 意图识别方法一般流程与人体行为识别方法相似, 如图 1所示.意图识别的本质要求能够无延迟地识别短时行为, 但短时行为包含的时频域特征统计量不稳定, 以采集的平地行走数据为例, 当窗口长度小于一个步态周期时, 时域特征震荡幅度较大, 无法提供稳定的意图识别, 如图 2所示.多数研究者采集长时运动数据, 采用时域特征进行意图识别, 表 1列举了相关文献在意图识别中一般采集时长的样本数据及其对应的识别环境和效果.

图 1 人体行为识别的一般流程
图 2 全局均值与局部均值对应的图像
表 1 基于机械传感器的运动意图识别研究

为了针对传统意图识别方法在短时识别上的缺点, 基于文献[23-24]的思想, 提出了改进的模板匹配(template matching, TM)算法.通过滑动窗口提取意图数据短时模板和创建带标签的过完备的短时模板库, 解决了短时样本小数据量的问题.每个大范围的运动均可分解成若干个局部小范围运动组合, 这些局部小范围运动模式可定义为原子模式, 若干小的原子模式组合能够较好地描述原来的运动状态.基于此, 可以将实时采集反映运动意图的数据模板与过完备的短时模板库中的原子模式作匹配, 通过计算两者之间的残差度量相似性, 残差公式如下:

(1)

其中: y为运动意图的原子模式, S为模板库中的模板, d为两者间的残差, ||d||1用来衡量两者的相似性.

2 运动模式的介绍

一般一个步态周期可包含两个步态事件, 即脚尖离地(toe off, TO)和脚跟触地(heel strike, HS), 因此可分为两个步态相位, 即支撑相(stance phase)和摆动相(swing phase).传统运动意图识别的传感器一般嵌于假肢上, 相应的转换步定义在患侧, 而本文的创新点是将传感器绑定在健侧(如图 3所示), 通过识别健侧的运动状态, 映射出患侧的运动意图.鉴于此, 定义两种类型的转换步[25]: 1)起始于前一个地形条件下前一只脚脚尖离地时刻, 终止于同侧脚脚后跟着地于后一地形; 2)考虑到平地行走至上楼和上楼至平地行走的特殊性, 第2类型转换步起始于前一个地形条件下后一只脚的脚尖离地时刻, 终止于同侧脚脚后跟着地于后一个地形.

图 3 惯性传感器位置示意图

涉及到运动模式包括5种稳态模式(steady state, SS):平地行走(walking, W)、上楼(stair ascent, SA)、下楼(stair dscent, SD)、上坡(ramp ascent, RA)和下坡(ramp dscent, RD), 及其相互切换的8种转换模式(transitional states, ST):平地行走向上楼转换(W-SA)、上楼向平地行走转换(SA-W)、平地行走向下楼转换(W-SD)、下楼向平地行走转换(SD-W)、平地行走向上坡转换(W-RA)、上坡向平地行走转换(RA-W)和平地行走向下坡转换(W-RD)、下坡向平地行走转换(RD-W), 如表 2所示.

表 2 13类运动模式

下肢假肢运动意图识别本质上属于短时人体行为识别, 因此人体行为识别的方法可用于假肢的意图识别.在基于视频的人体动作识别中, 通常将视频序列按照时间帧分割成一组静态的图像, 与模板库进行匹配[26].鉴于此, 本文提出改进的模板匹配算法.首先通过滑动窗口分割采集的意图数据; 然后创建带标签的完备的模板库; 接着计算测试集与库中模板之间的残差; 最后根据最小残差对应的库中标签得到测试集的标签, 完成意图的识别.算法过程如图 4所示.

图 4 本文模板匹配算法流程
3.1 数据预处理

原始数据的采集会不可避免地引入噪声, 在运动意图识别前需要对原始信号进行滤波处理, 如图 5所示.选取低通滤波的方法, 能够较好地保留原始信号的波形和局部特征(其中图 5(a)为脚踝的三轴加速度原始信号, 图 5(b)为滤波后的信号).对8类转换模式, 依据惯性传感器获得双脚触地状态序列, 首先找到转换步的起始点和终止点, 如图 6所示; 然后通过加窗处理, 将整个摆动相数据提取出来, 如图 7所示.对5种稳态模式, 首先找到每一步TO的位置, 然后从稳态步的起始点开始, 提取与转换模式相应的摆动相数据. 图 8为8类转换模式的大腿加速度信号图.

图 5 加速度信号(W-SA)
图 6 双脚触地状态(1:触地, 0:离地)
图 7 加窗信号
图 8 8种转换模式大腿处加速度数据
3.2 创建完备的意图模板库

由于模板匹配算法的实现依赖完备的模板库, 完备的意图模板库包含了丰富的不同运动模式的原子模式, 库中模板数量的多少会影响算法的冗余程度, 模板量过多发生过拟合, 增加计算的复杂度, 模板量过少出现欠拟合, 不足以囊括不同运动模式及其原子模式.本文使用合适的窗口大小(window size、WS)、适当的滑动距离(sliding distance, SD)以及滑动步长(sliding step), 根据提取的健侧摆动相短时数据构建完备的模板库, 如图 9所示.

图 9 滑动窗口草图

对任意的转换步可以提取摆动相数据S, 表示为

(2)

其中: n为意图数据包含的模板数, 即滑动距离的长度; S(j)为短时模板, j=1, 2,..., n, 表示为

(3)

t为模板的长度, 即窗口的大小, Si(t)为第i个传感器节点的模板数据, i=1, 2, 3, 表示为

(4)
3.3 算法参数的设定

通过上节方法得到完备的模板库, 匹配前得到大小相等的短时模板, 下面考虑算法参数的选取.适当的参数选取是算法实现的前提, 本文通过大量的实验对比, 训练最优的模板集与测试集比例、滑动距离SD、窗口大小WS、滑动步长以及松弛的判别准则, 文中滑动步长为1.

3.3.1 模板集和测试集的比例

本文采集的数据共有1 300个样本, 每类动作有100个样本, 分别由10个受试者重复做5遍.在测试集与模板库的匹配中, 对于模板库中的模板, 希望其包含每个人每个动作的多个原子模式.因此选取模板集与测试集的比例为: 1: 4, 2: 3, 3: 2和4: 1, 随机将数据集分成上述比例, 相应的识别率如表 3所示.

表 3 不同比例的识别结果 
3.3.2 合适的滑动距离和窗口大小

选取适当的滑动距离, 将实验数据分解成数量充足小的模板, 为完备模板库的建立提供前提条件. 图 10为滑动距离与匹配精度之间的关系.

图 10 滑动距离对识别率的影响

图 10可见:当滑动距离小于20帧时, 匹配精度有不同程度的上升; 当大于40帧时, 识别精度出现了震荡.因为随着库中样本量的增加, 匹配的准确度有所上升, 模板库接近完备, 当库中样本量达到一定程度后, 继续增加样本便会引起过拟合, 出现匹配精度不稳定甚至下降的情况, 同时增加了计算的复杂度.综合考虑, 本文滑动距离选为30帧.

由上述实验结果, 本组实验选取滑动距离为30帧.当窗口大小为1帧时, 模板为18维向量, 该模板空间对噪声十分敏感, 为此对模板空间采用松弛法, 并增大窗口大小. 图 11为窗口大小与识别率之间的联系.

图 11 窗口大小对识别率的影响

图 11可见, 随着窗口大小的增大, 滑动窗口含有的信息也更为丰富, 带动识别率有所提升.当窗口大于20帧时, 识别率稳定下来, 因此本文算法窗口大小取为20帧.

3.3.3 松弛的判别准则

对于随机的测试样本y, 由式(1)计算其与训练集模板S的匹配矩阵D, 有

(5)

其中: i为意图的种类; j为每种意图的原子模式个数, 即滑动距离.取D中每行最小值对应的行的意图标签作为y的标签.

由于数据噪声的存在, 该决策的方式不够准确.本文采取松弛的归类判别准则:从D中选取较小的元素集(包含多个次小值和最小值), 对应标签的众数为测试标签.不同的测试样本, D中值的分布差距较大, 故对D进行标准化处理, 有

(6)

其中d为标准化后的数据.

将单个测试样本与模板库中所有模板作残差, 并进行标准化处理, 在模板库完备的条件下, 即在大样本环境下, 其残差近似呈现正态分布. d中元素越接近于1, 表示模板与测试样本越相似.根据3σ准则设置实验, 由图 12可见, 当d中较大元素集内的最小值为0.99时, 匹配准确度最高.

图 12 较大元素集内最小值对识别率的影响
4 实验结果与分析 4.1 实验设备及方案

实验所用设备为Noitom Perception Legacy惯性传感器, 如图 13(a)所示.采样频率为96 Hz, 加速度量程为24 g, 角速度量程为2 000 dps.实验平台包括8阶高度为16 cm的楼梯和一个长度为6 m、坡度为10^º的斜坡, 如图 13(b)所示.软件部分采用Windows10操作系统和Matlab 2017b环境进行实验.

图 13 实验设备及实验环境

本文共采集10名健康受试者(5男5女, 身高158 ~ 183 cm, 体重40 ~ 86 kg)绑定在健侧(本文模拟患侧为左侧, 健侧为右侧)的大腿、小腿和脚踝处的传感器数据, 如图 13(c)所示.实验采用的数据类型为加速度和角速度数据.

实验中, 由于要采集健侧摆动相数据, 即要求在转换步时, 健侧处于摆动相, 患侧处于支撑相, 受试者需要遵循事先设定的迈步顺序(见表 4), 以正常的行走速度在平地、上坡、下坡、上楼和下楼5种地形中行走, 实验包括5种稳态模式和8种转换模式, 每类模式执行10遍, 并为每个样本打上相应标签, 共计1 300个样本.

表 4 运动模式及迈步顺序
4.2 实验结果

本文运动模式重新定义后, 在短时识别的前提下对5种稳态模式(平地行走、上坡、下坡、上楼和下楼)的识别率可达到99.50 %, 混淆矩阵如图 14所示.

图 14 5种稳态模式的混淆矩阵

图 14可见, 平地行走、上楼和上坡识别结果较好, 下楼识别成下坡的错误率为0.02 %, 下坡有0.01 %的错误率识别为平地行走.这是因为在匹配模板时, 下楼与下坡、下坡与平地行走在短时窗口下具有较高的姿态相似性.加入8种转换模式后, 对13类运动模式在短时匹配的条件下识别率达到了97.03 %, 图 15为其混淆矩阵.

图 15 13种运动模式的混淆矩阵

图 15可见, 相比之下只有下楼到平地行走识别效果相比之下最低, 其中0.01 %误识别为下坡, 0.04 %误识别为下坡至平地行走, 因为下坡和下坡至平地行走是一个重心下降的过程, 拥有较高的相似性; 0.05 %误识别为下楼, 由于在下楼到走的转换中, 人体由于惯性的作用会将前一个运动模式的残留运动状态延伸至下一运动模式状态中, 在短时的条件下更为明显, 因此更容易相互识别错误.此外, 其他模式已经可以得到较好的识别.

4.3 实验分析

在传统的下肢假肢意图识别研究中, 模式发生切换时, 通常提取固定在假肢上的传感器处于摆动相时的数据进行实验和分析.转换步为连接前后两个不同或相同的运动模式, 即摆动相连接了前后两个不同或相同的稳态运动模式的过渡阶段, 因此采集数据进行实验和分析意味下一运动模式已经发生, 必然造成控制的滞后问题, 不能体现运动意图的本质.本文对运动模式进行再定义, 采集健侧传感器处于摆动相数据, 通过改进的模板匹配算法进行研究.在健侧摆动相前期便可识别出运动的意图, 可以在假肢运动模式未转变前, 将识别的结果传递给假肢, 提前改变假肢的控制参数, 实现了无延迟的模式切换, 使假肢平稳地过渡到下一个运动模式, 真正做到让假肢按照人的意图运动.

对于5种稳态模式, 本文的识别率已达到99.50 %, 高于文献[16, 18-21]的识别结果.当引入8种转换模式时, 文中的识别率为97.03 %, 依然高于文献[16]和文献[21], 这与运动模式的重定义有内在的联系.文献[16]意图识别转换步起始于脚跟触地时刻, 在脚跟触地时或脚跟触地后, 而本文使用的转换步起始于前一个地形条件下一只脚脚尖离地时刻, 结束于同侧脚脚后跟着地于后一个地形.此外, 本文实验采集的数据均来自健侧的大腿、小腿及脚踝处的传感器, 这样在转换步摆动相即可识别出健侧的运动意图, 由对称性可识别假肢的运动意图.而且, 假肢运动模式还未切换, 此时调节假肢的控制参数可以解决传统意图识别中的滞后性问题.文中采用单惯性传感器, 与文献[18-20]速度计、陀螺仪、压力传感器等多类型传感器相比, 无需解决多模态数据信号融合的问题, 降低了算法的复杂度, 且在识别时间方面做到了短时、无延迟, 识别精度上也不低于传统意图识别的结果(如表 5所示).

表 5 实验方法与结果对比
5 结论

在重定义后的运动模式上, 本文提出了基于改进模板匹配的智能下肢假肢运动意图短时识别方法.采集绑定在健侧的大腿、小腿和脚踝处摆动相的惯性传感器数据, 通过滑动窗口创建完备的短时模板库, 使得每类运动模式在库中有足够的原子模式, 在匹配阶段采用松弛的判别准则, 提高了算法的鲁棒性, 在短时识别上, 解决了传统意图识别使用时域特征不稳定的问题, 提高了识别的性能, 帮助下肢截肢者自然的行走.从模式识别的角度而言, 本文基于对模式空间的重定义, 将每帧数据作为特征进行模板匹配, 增大了计算量.未来研究将挖掘数据的深层特征, 在特征空间到类型空间中选择更优的分类模型, 结合下肢假肢的运动意图识别与应用, 进一步提高下肢假肢识别精度和实时性.

参考文献
[1]
第二次全国残疾人抽样调查领导小组, 中华人民共和国国家统计局. 2006年第二次全国残疾人抽样调查主要数据公报[J].中国康复理论与实践, 2006, 12(12): 1013.
(Leading Group of the Second China National Sample Survey on Disability, National Bureau of Statistics of the People's Republic of China. 2006 communiqueon major statistics of the second China national sample survey on disability[J]. Chinese Journal of Rehabilitation Theory and Practice, 2006, 12(12): 1013.)
[2]
侯增广, 赵新刚, 程龙, 等. 康复机器人与智能辅助系统的研究进展[J]. 自动化学报, 2016, 42(12): 1765-1779.
(Hou Z G, Zhao X G, Cheng L, et al. Recent advances in rehabilitation robots and intelligent assistance systems[J]. Acta Automatica Sinica, 2016, 42(12): 1765-1779.)
[3]
Chen B J, Wang Q N. Design and evaluation of a vibrotactile feedback system to improve volitional myoelectric control for robotic transtibial prostheses: a preliminary study[C]. Proceedings of the 6th IEEE International Conference on Biomedical Robotics and Biomechatronics. Singapore: IEEE, 2016: 1049-1054.
[4]
王启宁, 郑恩昊, 陈保军, 等. 面向人机融合的智能动力下肢假肢研究现状与挑战[J]. 自动化学报, 2016, 42(12): 1780-1793.
(Wang Q N, Zheng E H, Chen B J, et al. Recent progress and challenges of robotic lower-limb prostheses for human-robot integration[J]. Acta Automatica Sinica, 2016, 42(12): 1780-1793.)
[5]
Au S K, Weber J, Herr H. Powered ankle-foot prosthesis improves walkingmetabolic economy[J]. IEEE Transactions on Robotics, 2009, 25(1): 51-66.
[6]
Sup F, Varol H, Mitchell J, et al. Preliminary evaluations of a self-contained anthropomorphic transfemoral prosthesis[J]. IEEE/ASME Transactions on Mechatronics, 2009, 14(6): 667-676.
[7]
Wang Q N, Yuan K B, Zhu J Y, et al. Walk the walk: A lightweight active transtibial prosthesis[J]. IEEE Robotics and Automation Magazine, 2015, 22(4): 80-89.
[8]
Huang H, Kuiken T A, Lipschutz R D. A strategy for identifying locomotion modes using surface electromyography[J]. IEEE Transactions on Biomedical Engineering, 2009, 56(1): 65-73.
[9]
Chen B J, Feng Y G, Wang Q N. Combining vibrotactile feedback with volitional myoelectric control for robotic transtibial prostheses[J]. Frontiers in Neurorobotics, 2016, 10(8): 1-14.
[10]
Young A J, Hargrove L J. A classification method for user independent intent recognition for transfemoral amputees using powered lower limb prostheses[J]. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2016, 24(2): 217-225.
[11]
Li X, Zong Y, Li S, et al. Assessing muscle compliance in stroke with the myotonometer[J]. Clinical Biomechanics, 2017, 50: 110-113.
[12]
Hargrove L J, Simon A M, Lipschutz R, et al. Non-weight-bearing neural control of a powered transfemoral prosthesis[J]. Journal of NeuroEngineering and Rehabilitation, 2013, 10(1): 62.
[13]
Zhang F, Liu M, Huang H. Effects of locomotion mode recognition errors on volitional control of powered above-knee prostheses[J]. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2015, 23(1): 64-72.
[14]
Huang H, Zhang F, Hargrove L J, et al. Continuous locomotion-mode identification for prosthetic legs based on neuromuscular-mechanical fusion[J]. IEEE Transactions on Biomedical Engineering, 2011, 58(10): 2867-2875.
[15]
Hargrove L J, Young A J, Simon A M, et al. Intuitive control of a powered prosthetic leg during ambulation: a randomized clinical trial[J]. Journal of the American Medical Association, 2015, 313(22): 2244-2252.
[16]
Young A J, Simon A M, Hargrove L J. A training method for locomotion mode prediction using powered lower limb prostheses[J]. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2014, 22(3): 671-677.
[17]
Preece S J, Goulermas J Y, Kenney L P, et al. A comparison of feature extraction methods for the classification of dynamic activities from accelerometer data[J]. IEEE Transactions on Biomedical Engineering, 2009, 56(3): 871-879.
[18]
赵丽娜, 刘作军, 苟斌, 等. 基于隐马尔可夫模型的动力型下肢假肢步态预识别[J]. 机器人, 2014, 36(3): 337-341.
(Zhao L N, Liu Z J, Gou B, et al. Gait pre-recognition of dynamic lower limb prosthesis based on hidden markov model[J]. Robot, 2014, 36(3): 337-341.)
[19]
Liu Z J, Lin W, Geng Y L, et al. Intent pattern recognition of lower-limb motion based on mechanical sensors[J]. Journal of Automatica Sinica, 2017, 4(4): 651-660.
[20]
Young A J, Simon A M, Fey N P, et al. Intent recognition in a powered lower limb prosthesis using time history information[J]. Annals of Biomedical Engineering, 2014, 42(3): 631-641.
[21]
Zheng E H, Wang Q N. Noncontact capacitive sensing-based locomotion transition recognition for amputees with robotic transtibial prostheses[J]. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2017, 25(2): 161-170.
[22]
Varol H A, Sup F, Goldfarb M. Multiclass real-time intent recognition of powered lower limb prosthesis[J]. IEEE Transactions on Biomedical Engineering, 2010, 57(3): 542-551.
[23]
Li L J, Su H, Lim Y, et al. Object bank: An object-level image representation for high-level visual recognition[J]. International Journal of Computer Vision, 2014, 107(1): 20-39.
[24]
Sadanand S, Corso J J. Action bank: A high-level representation of activity in video[C]. Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Rhode Island: IEEE, 2012: 1234-1241.
[25]
苏本跃, 王婕, 刘双庆, 等.惯性动捕数据驱动下的智能下肢假肢运动意图识别方法[DB/OL]. (2018-12-18)[2019-01-15]. http://kns.cnki.net/kcms/detail/11.2109.TP.20181218.1710.011.html.
(Su B Y, Wang J, Liu S Q, et al. An improved motion intent recognition method for intelligent lower limb prosthesis driven by inertial motion capture data[DB/OL]. (2018-12-18)[2019-01-15]. http://kns.cnki.net/kcms/detail/11.2109.TP.20181218.1710.011.html.)
[26]
Hu Q, Qin L, Huang Q M. A survey on visual human action recognition[J]. Chinese Journal of Computers, 2013, 36(12): 2512-2524.