买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:中南大学
摘要:本发明提供了一种融合ZED视觉的人体健康特征大数据智慧计算方法与装置,该方法包括:步骤1:构建人体自然体征数据库和人体极限运动数据库;步骤2:利用搭载在无人机上的ZED相机获取的人体身高,筛选出待识别人体群;步骤3:基于Hadoop平台对待识别人体脸部图像利用PID神经网络进行快速识别;步骤4:无人机跟踪已识别人体,获取待识别人体的健康数据传输至远程服务器;步骤5:将获取的健康数据以及眼部、嘴部特征输入基于深度置信网络DBN的人体健康评估模型,得到待识别人体的健康检测程度。本发明基于大数据平台,运用穿戴设备、无人机、双目相机对户外运动人体健康信息采集,进行实时健康监测,从而做出合理决策。
主权项:一种融合ZED视觉的人体健康特征大数据智慧计算方法,其特征在于,包括以下步骤:步骤1:构建人体健康特征数据库;所述人体健康特征数据库包括人体自然体征数据库和人体极限运动数据库;其中,所述人体自然体征数据库包括不同人的脸部图像和对应的身高,且所述脸部图像包括在不同光照强度下获得的各种正面图像、左脸图像以及右脸图像;所述人体极限运动数据库包括人体健康特征数据库中每个人在不同极限运动的各种运动量情况下的健康数据,所述健康数据是指在运动过程中10s内采集的心率、血压和体温;步骤2:依据搭载在无人机上的ZED相机获取的人体身高,筛选出待识别人体群并且获取对应的脸部图像数据块;步骤3:基于Hadoop平台对待识别人体脸部图像数据块进行待识别人体的快速识别;步骤3.1:将待识别人体的脸部图像数据块,利用MapReduce进行切片,并为每一个数据分片构造一个Map任务;步骤3.2:利用Input Format类将每个数据分片转换成keyvalue对,以key记录每个数据分片起点的存储位置,以value记录每个数据分片的数据长度;步骤3.3:对步骤3.2得到的所有keyvalue对对应的脸部图像数据进行Map操作;所述Map操作是指对一个数据分片中的脸部图像依次进行预处理、Gabor特征提取、PCA降维处理后,采用在Hadoop平台训练得到的基于PID神经网络的脸部识别模型进行识别;步骤3.4:利用Reduce函数融合所有Map操作输出的识别结果;其中,所述在Hadoop平台训练得到的基于PID神经网络的脸部识别模型是指将脸部图像训练数据按照步骤3.1‑3.2的过程利用MapReduce进行多次数据分片处理,并将每个数据分片对应的训练数据,训练基于PID神经网络的脸部识别模型,将所有训练完后的基于PID神经网络的脸部识别模型中的权值和阈值求平均,直到最终基于PID神经网络的脸部识别模型的精度满足设定的识别精度或者执行MapReduce次数达到设定的最大执行次数;步骤4:利用识别结果,使得无人机跟踪待识别人体,并与待识别人体的穿戴设备进行通信,获取待识别人体的健康数据传输至远程服务器;步骤5:将获取的待识别人体的健康数据和对应的眼部、嘴部特征输入基于深度置信网络DBN的数据融合模型,计算得到待识别人体的健康检测程度。
全文数据:一种融合ZED视觉的人体健康特征大数据智慧计算方法与装置技术领域[0001]本发明涉及一种融合ZED视觉的人体健康特征大数据智慧计算方法与装置。背景技术[0002]随着社会经济的不断发展,健康观念逐步深入人心,参加户外运动的人数日益壮大。与此同时,因运动个体的运动量过大导致的运动事故率也节节攀高。因此,在户外运动中对人体的健康情况进行实时监测,有效的保障运动者安全的问题就十分有意义。[0003]近些年,信息多元化的发展,以及计算机技术、微电子技术和多传感器网络日益成熟,信息融合作为一种有效的信息综合处理方法,在目标识别、故障诊断、态势估计、图像处理、遥感等领域发展迅猛。但是目前,信息融合技术在生理信息领域的应用研究还处于初级阶段,尤其是运动保健、体育等领域。[0004]目前,穿戴设备可以快速准确地测出测量心率、汗液、体温、酬民、步数、血压、葡萄糖水平等人体健康数据。但是人体是庞大而复杂的有机系统,只通过简单的一项生理指标信息很难对人体健康状态进行准确的判断。借助信息融合技术,利用神经网络建立人体健康评估模型,通过对这些人体健康数据的智能融合,从而监测人体的身体健康状况。[0005]因此,在户外运动过程中,实时监测人体健康数据并进行智能融合、运动环境以及人体位置,可以很大程度上防止户外运动意外事故的发生,保障生命安全。发明内容[0006]本发明提供了一种融合ZED视觉的人体健康特征大数据智慧计算方法与装置,通过无人机装载双目相机ZED对运动环境中运动人体的识别,跟踪以及基于穿戴设备的健康检测数据,结合PID神经网络和深度置信网络模型进行人脸检测和人体健康评估计算,从而有效保障人的安全。[0007]—种融合ZED视觉的人体健康特征大数据智慧计算方法,包括以下步骤:[0008]步骤1:构建人体健康特征数据库;[0009]所述人体健康特征数据库包括人体自然体征数据库和人体极限运动数据库;[0010]其中,所述人体自然体征数据库包括不同人的脸部图像和对应的身高,且所述脸部图像包括在不同光照强度下获得的各种正面图像、左脸图像以及右脸图像;[0011]所述人体极限运动数据库包括人体健康特征数据库中每个人在不同极限运动的各种运动量情况下的健康数据,所述健康数据是指在运动过程中IOs内采集的心率、血压和体温;[0012]步骤2:依据搭载在无人机上的ZED相机获取的人体身高,筛选出待识别人体群并且获取对应的脸部图像数据块;[0013]步骤3:基于Hadoop平台对待识别人体脸部图像数据块进行待识别人体的快速识别;[0014]步骤3.1:将待识别人体的脸部图像数据块,利用MapReduce进行切片,并为每一个数据分片构造一个Map任务;[0015]步骤3.2:利用InputFormat类将每个数据分片转换成〈keyvalue〉对,以key记录每个数据分片起点的存储位置,以value记录每个数据分片的数据长度;[0016]步骤3.3:对步骤3.2得到的所有对对应的脸部图像数据进行Map操作;[0017]所述Map操作是指对一个数据分片中的脸部图像依次进行预处理、Gabor特征提取、PCA降维处理后,采用在Hadoop平台训练得到的基于PID神经网络的脸部识别模型进行识别;[0018]步骤3.4:利用Reduce函数融合所有Map操作输出的识别结果;[0019]其中,所述在Hadoop平台训练得到的基于PID神经网络的脸部识别模型是指将脸部图像训练数据按照步骤3.1-3.2的过程利用MapReduce进行多次数据分片处理,并将每个数据分片对应的训练数据,训练基于PID神经网络的脸部识别模型,将所有训练完后的基于PID神经网络的脸部识别模型中的权值和阈值求平均,直到最终基于PID神经网络的脸部识别模型的精度满足设定的识别精度或者执行MapReduce次数达到设定的最大执行次数;[0020]步骤4:利用识别结果,使得无人机跟踪待识别人体,并与待识别人体的穿戴设备进行通信,获取待识别人体的健康数据传输至远程服务器;[0021]步骤5:将获取的待识别人体的健康数据和对应的眼部、嘴部特征输入基于深度置信网络DBN的数据融合模型,计算得到待识别人体的健康检测程度。[0022]进一步地,所述基于PID神经网络脸部识别模型的构建过程如下:[0023]步骤3.3.1:对每一幅训练图像进行预处理和Garbor特征提取,并对提取的图像Gabor特征进行PCA降维,得到降维矩阵;[0024]步骤3.3.2:利用MapReduce对训练图像数据和对应的图像编号进行切片,依次将每个数据分片中所有训练图像的降维矩阵对应的特征向量作为输入层节点,输出层节点为数据分片中每个训练图像的编号,对PID神经网络进行训练,得到基于PID神经网络的脸部识别模型;[0025]其中,最大迭代次数为100,训练学习率为0.1,在训练过程中,所述PID神经网络的权值和阈值采用自适应花授粉算法进行寻优获得。[0026]进一步地,所述PID神经网络的权值和阈值采用自适应花授粉算法进行寻优获得的过程如下:[0027]步骤Al:种群花粉个体的位置作为PID神经网络的权值和阈值,初始化种群;[0028]种群规模的取值范围为[50,200],变异因子初始值的取值范围为[0.04,0.15],最大迭代次数的取值范围为[120,500],最大搜索精度的取值范围为[0.005,0.12];[0029]步骤A2:设定适应度函数,并获取种群中的最优个体;[0030]将种群个体位置对应的PID神经网络的权值和阈值代入基于PID神经网络的人脸识别模型中,并利用种群个体位置确定的基于PID神经网络的权值和阈值的人脸识别模型计算出输出值,将输出值和实际值的均方差MSE的倒数作为第一适应度函数ΠX;[0031]步骤A3:计算每个个体的适应值,并保留适应度值最小的个体;[0032]步骤A4:随机生成randi,按照下式计算转换概率p,以调节花授粉算法中全局搜索和局部搜索之间的转化;[0033]p=0.8+0.2Xrandi[0034]步骤A5:随机生成rande[0,1],若转换概率prand,计算ε,并利用ε进行局部搜索;[0035]步骤Α6:计算更新后的所有个体的适应度值,判断是否达到最大迭代次数或者最大搜索精度,若达到,则以适应度最大的个体作为最优个体,输出最优个体对应的PID神经网络的权值和阈值,否则返回步骤Α4,进行下一次迭代。[0036]进一步地,所述基于深度置信网络DBN的数据融合模型的构建过程如下:[0037]将人体极限运动量训练数据库中各种运动量的人体健康数据以及对应的眼部、嘴部特征作为输入层节点,对深度置信网络DBN进行预训练,对预训练结束后得到的深度置信网络DBN,采用BP算法,使用输入数据对应的健康评估状态对深度置信网络DBN进行微调,使深度置信网络DBN进每一层的初始化权值矩阵W、可见层偏置c、隐藏层偏置b达到最优,得到基于深度置信网络DBN的数据融合模型;[0038]其中,所述深度置信网络DBN学习速率设为0.01,最大迭代次数1000次;[0039]所述眼部特征和嘴部特征是指从脸部图像中分别提取出的眼部图像和嘴部图像进行滤波处理后,利用PCA降维得到的特征;[0040]所述深度置信网络DBN包括4层,第一层RBM将输入视为显层,输入人体健康数据以及对应的眼部、嘴部特征,最后一层RBM包括4个单元,输出四种健康评估结果;[0041]所述眼部图像区域获取过程如下:[0042]步骤SI.1:采用直方图均衡化法对脸部图像进行预处理;[0043]从而减轻光照在后续人脸特征提取的影响程度。[0044]步骤Sl.2:利用肤色特征从步骤SI.1获得预处理图像中,分割出人脸区域;[0045]步骤SI.3:对分割出来的人脸区域进行二值化处理,使得人脸区域中的肤色区域像素为白色,非肤色区域像素为黑色;[0046]人脸区域中非肤色区域包括眼睛、眉毛、嘴巴、头发;[0047]步骤SI.4:对步骤SI.3获得的二值化图像进行水平积分投影,以投影曲线第二个低谷处为人眼中心的垂直坐标y,并以y为中心确定一个竖直宽度为90_的条形区域;[0048]眉毛和眼睛在竖直位置上是相对靠近的黑色区域;[0049]步骤SI.5:对确定的条形区域进行形态学处理后,再通过反色操作得到两个最大的连通区域;[0050]排除鼻梁、鬓角等暗区域对眼部的干扰。[0051]步骤1.6:对步骤SI.5获得的两个连通区域进行垂直积分投影,以投影曲线中的两个波峰区域并按照人眼大致形状对所述连个连通区域的宽度进行限定,获得眼部图像区域;[0052]所述嘴部图像获取过程如下[0053]步骤S2.1:利用唇色与肤色的差异,从脸部图像获得嘴部感兴趣区域;[0054]对获取的嘴部感兴趣区域的图像先进行肤色约束,排除胡须、嘴唇内腔的阴影区域等黑色部分;[0055]步骤2.2:对嘴部感兴趣区域进行像素颜色的Fisher线性变换处理,将嘴部感兴趣区域的图像分割成相互孤立的多个独立区域;[0056]步骤2.3:利用八连通成分标示算法对所述的每个孤立的独立区域进行区域标示,获取各独立区域的坐标位置和像素个数等;[0057]步骤2.4:根据嘴唇的大小形状以及和脸部的相对约束关系对所有独立区域进行判断,嘴部图像区域;[0058]所述嘴唇的大小形状以及嘴唇和脸部的相对约束关系至少包括以下一条:[0059]a嘴部区域位于人脸图像下半部分的中间位置,且嘴部宽度中心线位于人脸的中心对称线附近;[0060]b嘴部区域的宽度小于人脸图像宽度的12,且大于人脸图像宽度的13;[0061]c嘴部区域内唇色像素总数大于人脸图像宽度的6倍,且小于人脸图像宽度的15倍;[0062]d嘴部区域内唇色像素总数大于人脸图像高度的6倍,且小于人脸图像高度的15倍;[0063]所述深度置信网络DBN使用的BP反向传播微调阶段采用水循环算法进行寻优获得;[0064]所述人体健康数据包括在各种运动量下IOs内的血压、心率以及体温;[0065]0%极限运动量对应健康评估分数为0;10%的极限运动量,对应健康评估分数为〇.1,依次类推,达到1〇〇%极限运动量,对应健康评估分数为1;[0066]将健康评估分数属于区间[0,0.7的人体健康标记为1000,健康评估分数属于区间[0.7,0.8的人体健康标记为0100,健康评估分数属于区间[0.8,0.9的人体健康标记为0010,健康评估分数属于区间[0.9,1]的人体健康标记为0001。[0067]进一步地,所述深度置信网络DBN使用的BP反向传播微调阶段采用水循环算法进行寻优获得的过程如下:[0068]步骤Bl:设置初始参数;[0069]确定降雨层总个数N_pop为50,其中河流与海洋的总数8,作为最优解的海洋个数为1,极小值d_max=0,05,最大迭代次数max_iteration为500;[0070]步骤B2:降雨层初始化,生成初始降雨,河流和海洋;[0071]以预训练过程中得到的深度置信网络DBN各层的初始化权值矩阵W、可见层偏置c、隐藏层偏置b作为其中一个降雨层,每一个降雨层作为基于深度置信网络DBN的数据融合模型中各层的初始化权值矩阵W、可见层偏置c、隐藏层偏置b;[0072]步骤B3:依次将降雨层代入预训练完成的基于深度置信网络DBN的数据融合模型中计算结果,将计算结果和实际值的均方误差的倒数作为第二适应度函数;[0073]步骤Μ:以适应度大的降雨层作为大海,以适应度次小的降雨层作为河流,其余的降雨层作为流入河流或海洋的溪流;[0074]步骤Β5:使溪流汇入河流,使河流流入海洋;[0075]步骤Β6:如果发现溪流的解比河流的更好,则它们互相交换位置:若河流的解比海洋的解较优,则河流与海洋交换位置;最终海洋为最优解。[0076]步骤Β7:检查是否满足蒸发条件:判断河流与海洋的适应度值之差的绝对值是否小于极小值d_max,如果满足蒸发条件,则从种群中去掉该河流,并重新进行降雨过程,随机生成新的降雨层加入种群,返回步骤M继续一次迭代,否则,减小d_max值,进入步骤B8;[0077]步骤B8:判断是否到达最大迭代次数,若是则输出最优的降雨层对应的基于深度置信网络DBN的数据融合模型的最优参数,若不是,则返回步骤M,继续下一次迭代。[0078]进一步地,所述远程服务器依据接收到人体健康检测结果,并发出预警指令至人体穿戴设备上:[0079]若分数达到[0.7,0.8,服务器向手环发送指令,手环做出一级震动,提醒该个体休息;[0080]若分数达到[0.8,0.9服务器向手环发送指令,手环做出二级震动,提醒该个体身体状态已不适合继续运动;[0081]若分数达到0.9,服务器向手环发送指令,手环做出三级震动,提醒该个体身体状态必须要停止运动,同时无人机会发出警报。[0082]若分数位于区间[0,0.7,无反应;[0083]进一步地,在进行户外运动监测过程中,每架无人机的电量实时向远程服务器反馈,远程服务器根据反馈的电量,对无人机发出指令:[0084]当无人机剩余电量大于等于20%,保持监测状态;[0085]当无人机剩余电量小于20%,无人机返回充电区;同时,远程服务器指派一架电量充足的无人机飞去指定区域继续监测。[0086]进一步地,所述步骤3.3.1中对每一幅训练图像进行预处理,是指对脸部图像分别进行几何预处理、灰度预处理以及人脸肤色检测;[0087]所述几何预处理是将人脸图像变换到同一位置和同一大小;[0088]所述灰度预处理是将彩色图像进行灰度化处理。[0089]同时消除噪声,增加对比度,进行光线补偿,改善图像的效果。[0090]所述人脸肤色检测是指基于脸部肤色的人脸检测,除去照片中的非人脸区域,提取出包含人脸特征的轮廓。[0091]—种融合ZED视觉的人体健康特征大数据智慧计算平台,包括:[0092]人体健康特征数据库,包括人体自然体征数据库和人体极限运动数据库;[0093]其中,所述人体自然体征数据库包括不同人的脸部图像和对应的身高,且所述脸部图像包括在不同光照强度下获得的各种正面图像、左脸图像以及右脸图像;[0094]所述人体极限运动数据库包括人体健康特征数据库中每个人在不同极限运动的各种运动量情况下的健康数据,所述健康数据是指在运动过程中IOs内采集的心率、血压和体温;[0095]脸部图像视觉筛选模块,依据搭载在无人机上的ZED相机获取的人体身高,筛选出待识别人体群并且获取对应的脸部图像数据块;[0096]Hadoop平台识别模块,采用上述方法基于Hadoop平台对待识别人体脸部图像数据块进行待识别人体的快速识别;[0097]追踪模块,依据Hadoop平台识别模块的识别结果,使得无人机跟踪待识别人体,并与待识别人体的穿戴设备进行通信,获取待识别人体的健康数据传输至远程服务器;[0098]健康测量模块,将获取的待识别人体的健康数据和对应的眼部、嘴部特征输入基于深度置信网络DBN的人体健康评估模型,采用上述的方法得到待识别人体的健康程度。[0099]进一步地,所述无人机包括飞行装置以及搭载在飞行装置上的电池模块、GPS模块、无线通信模块、惯性装置、ZED模块和补光模块。[0100]有益效果[0101]本发明提供了一种融合ZED视觉的人体健康特征大数据智慧计算方法与装置,通过无人机装载双目相机ZED对运动环境的监测以及对环境中运动人体的识别、跟踪,以及结合穿戴设备的健康数据融合,对人体健康特征进行计算,并且相对于现有技术具有以下优占.[0102]1.将脸部识别和云计算相结合,利用MapReduce并行分布式运行机制,提升脸部识别效率,缩短训练周期;[0103]2.采用PCA主成分分析处理基于多尺度Gabor滤波后的图像特征维,大大的降低了数据处理量,有效的提高了人脸识别的效率和准确率;[0104]3.采用自适应花授粉算法对PID神经网络进行优化,克服训练结果可能会陷入局部最优、学习过程收敛速度慢的缺点,从而提高了脸部识别的准确率和效率;[0105]4.通过水循环算法优化的深度学习模型DBN融合人体眼睛、嘴部图像和健康体征数据心率、体温、血压对疲劳程度进行检测,能够准确地表示人体的疲劳程度并作出合理决策;附图说明[0106]图1为脸部智能识别方法示意图;[0107]图2为深度置信网络DBN模型结构示意图;[0108]图3为本发明所使用的Hadoop框架示意图;[0109]图4为本发明所述平台的结构示意图;[0110]图5为本发明所述方法的流程示意图。具体实施方式[0111]下面将结合附图和实例对本发明做进一步地说明。[0112]如图5所示,一种融合ZED视觉的人体健康特征大数据智慧计算方法,包括以下步骤:[0113]步骤1:构建人体健康特征数据库;[0114]所述人体健康特征数据库包括人体自然体征数据库和人体极限运动数据库;[0115]其中,所述人体自然体征数据库包括不同人的脸部图像和对应的身高,且所述脸部图像包括在不同光照强度下获得的各种正面图像、左脸图像以及右脸图像;[0116]所述人体极限运动数据库包括人体健康特征数据库中每个人在不同极限运动的各种运动量情况下的健康数据,所述健康数据是指在运动过程中IOs内采集的心率、血压和体温;[0117]采集系统中每个人的极限运动量,同时分别记录下在不同运动量下(极限运动量的10%、20%……100%,测量IOs内个体的健康数据,包括心率、血压、体温;[0118]建立人体健康数据的评分机制,最高为1,最低为0。其中0%极限运动量对应分数1;10%的极限运动量,对应分数0.9。依次类推,达到极限运动量,对应分数0。[0119]步骤2:如图4所示,依据搭载在无人机上的ZED相机获取的人体身高,筛选出待识别人体群并且获取对应的脸部图像数据块;[0120]每个ZED基于自身的双目视觉,得出视野内所有人体的身高数据,与待识别目标在数据库中的身高信息进行比对,筛选出与其身高差距±3cm的若干个体。[0121]ZED相机获取该若干个体脸部图像,拍摄授权人脸部40帧图像。利用Hadoop平台的MapReduce并行分布式运行机制,快速识别目标个体,并传回指令给无人机的车载控制器,对目标个体持续追踪。[0122]步骤3:如图3所示,基于Hadoop平台对待识别人体脸部图像数据块进行待识别人体的快速识别;[0123]离线训练过程:将事先采集的脸部图像库中的大量脸部图像进行并行训练。[0124]将系统中人体进行编号,如个体1编号000001,个体2编号000002。[0125]步骤3.1:将待识别人体的脸部图像数据块,利用MapReduce进行切片,并为每一个数据分片构造一个Map任务;[0126]步骤3.2:利用InputFormat类将每个数据分片转换成〈keyvalue〉对,以key记录每个数据分片起点的存储位置,以value记录每个数据分片的数据长度;[0127]其中,所述在Hadoop平台训练得到的基于PID神经网络的脸部识别模型是指将脸部图像训练数据按照步骤3.1-3.2的过程利用MapReduce进行多次数据分片处理,并将每个数据分片对应的训练数据,训练基于PID神经网络的脸部识别模型,将所有训练完后的基于PID神经网络的脸部识别模型中的权值和阈值求平均,直到最终基于PID神经网络的脸部识别模型的精度满足设定的识别精度或者执行MapReduce次数达到设定的最大执行次数;[0128]户外运动环境下运动人体实时的脸部识别:将待识别人体脸部图像数据块实时输入脸部识别模型;[0129]其中,户外运动环境下运动人体实时的脸部识别过程中将脸部图像训练数据按照步骤3.1-3.2的过程利用MapReduce进行多次数据分片处理;[0130]步骤3.3:对步骤3.2得到的所有〈1«^八1116对对应的脸部图像数据进行1?操作;[0131]所述Map操作是指对一个数据分片中的脸部图像依次进行预处理、Gabor特征提取、PCA降维处理后,采用在Hadoop平台训练得到的基于PID神经网络的脸部识别模型进行识别;[0132]步骤3.4:利用Reduce函数融合所有Map操作输出的识别结果;[0133]服务器根据输出的识别结果生成指令并传送给无人机:[0134]其中,输出的识别结果为一个6X40的矩阵,矩阵的每一个列向量为个人编号或者接近某一个体编号。若追踪的个体编号为000001,则通过判断6X40的矩阵中每一列与000001的相似程度来进行确定目标个体的脸部图像。生成指令并发送给其中一个无人机对个体进行追踪,其余无人机协同追踪。[0135]其中,所述脸部识别智能模型建立过程如下:[0136]a脸部图像预处理[0137]对脸部图像分别进行几何预处理和灰度预处理,几何预处理是将人脸图像变换到同一位置和同一大小;灰度预处理是将彩色图像进行灰度化处理,同时消除噪声,增加对比度,进行光线补偿,改善图像的效果。[0138]通过基于脸部肤色的人脸检测,除去照片中的非人脸区域,提取出包含人脸特征的轮廓。[0139]b脸部特征提取:如图1所示,采用Gabor小波滤波器后再利用主成分分析法进行降维处理;[0140]本实例采用5个中心频率和8个方向组成的40个滤波器对人脸图像进行特征提取,艮Pv=l,2......5,u=l,2......8Λν和的取值如下:[0141][0142]人脸的特征提取通过与Gabor小波滤波器卷积获得。[0143]主成分分析法:通过特征的线性组合来实现人脸图像的降维[0144]Α.假设人脸图像i的像素为mXη,则通过与Gabor卷积后共有40mn个像素点,将这40mn个像素点依次排列起来作为一个列向量X1。输入N张人脸图像,依次表示为X^X2……Xn,每个Xi维数为M=40mn,则可以表示为X=[Xi、X2......Xn]m*n;[0145]B.先计算样本每一维的均值,然后计算观察值与均值之间的偏差,在计算样本协方差矩阵;[0M6]C.计算协方差矩阵的特征值和特征向量;[0147]D.计算总能量,选取贡献率大的特征值和对应的特征向量;[0148]其中,总能量指的是所有特征值相加的和;贡献率是指前q个特征值之和与所有特征值之和的比值;如果贡献率大于90%,那么只需要提取前q个特征值与其相对应的特征向量,从而降低了样本数据的维数。[0M9]E.计算前q个特征值所对应的特征向量组成的矩阵,计算降维后的样本矩阵。根据上一步得到的新特征向量,用原始的协方差矩阵乘以此新特征向量组成的矩阵,则可以得到人脸图片降维后的样本矩阵。[0150]c脸部识别模型[0151]PID神经网络:将每个脸部图像的降维之后的特征向量作为输入,输出为对应的编号,如000001。设置最大迭代次数设置为100,训练学习率为0.1。[0152]采用自适应花授粉算法优化PID神经网络的权值和阈值;[0153]所述PID神经网络的权值和阈值采用自适应花授粉算法进行寻优获得的过程如下:[0154]步骤Al:种群花粉个体的位置作为PID神经网络的权值和阈值,初始化种群;[0155]种群规模的取值范围为[50,200],变异因子初始值的取值范围为[0.04,0.15],最大迭代次数的取值范围为[120,500],最大搜索精度的取值范围为[0.005,0.12];[0156]步骤A2:设定适应度函数,并获取种群中的最优个体;[0157]将种群个体位置对应的PID神经网络的权值和阈值代入基于PID神经网络的人脸识别模型中,并利用种群个体位置确定的基于PID神经网络的权值和阈值的人脸识别模型计算出输出值,将输出值和实际值的均方差MSE的倒数作为第一适应度函数ΠX;[0158]步骤A3:计算每个个体的适应值,并保留适应度值最小的个体;[0159]步骤A4:随机生成randi,按照下式计算转换概率p,以调节花授粉算法中全局搜索和局部搜索之间的转化;[0160]p=0.8+0.2Xrandi[0161]步骤A5:随机生成rande[0,1],若转换概率prand,计算ε,并利用ε进行局部搜索;[0162]步骤Α6:计算更新后的所有个体的适应度值,判断是否达到最大迭代次数或者最大搜索精度,若达到,则以适应度最大的个体作为最优个体,输出最优个体对应的PID神经网络的权值和阈值,否则返回步骤Α4,进行下一次迭代。[0163]步骤4:利用识别结果,使得无人机跟踪待识别人体,并与待识别人体的穿戴设备进行通信,获取待识别人体的健康数据传输至远程服务器;[0164]在户外运动环境中,目标个体随着运动量的增加,人体血压,心率,体温等特征数据会发生明显变化。目标个体佩戴的手环具有人体健康数据检测模块以及无线通信模块。手环通过实时监测目标个体在运动中的血压,心率,体温,并将这些人体健康数据通过无线通讯模块传输至服务器每IOs内发送一次)。[0165]步骤5:人体健康数据融合测量;[0166]将获取的待识别人体的健康数据和对应的眼部、嘴部特征输入基于深度置信网络DBN的人体健康评估模型,得到待识别人体的健康检测程度。[0167]所述深度置信网络DBN结构如图2所示;[0168]所述基于深度置信网络DBN的人体健康评估模型的构建过程如下:[0169]将人体极限运动量训练数据库中各种运动量的人体健康数据以及对应的眼部、嘴部特征作为输入层节点,对深度置信网络DBN进行预训练,对预训练结束后得到的深度置信网络DBN,采用BP算法,使用输入数据对应的健康评估状态作为深度置信网络DBN的输出层结果,对深度置信网络DBN进行微调,使深度置信网络DBN进每一层的初始化权值矩阵W、可见层偏置c、隐藏层偏置b达到最优,得到基于深度置信网络DBN的人体健康评估模型;[0170]其中,所述深度置信网络DBN学习速率设为0.01,最大迭代次数1000次;[0171]所述眼部特征和嘴部特征是指从脸部图像中分别提取出的眼部图像和嘴部图像进行滤波处理后,利用PCA降维得到的特征;[0172]所述深度置信网络DBN包括4层,第一层RBM将输入视为显层,输入人体健康数据以及对应的眼部、嘴部特征,最后一层RBM包括4个单元,输出四种健康评估结果;[0173]DBN采用4个RBM组成的深层结构,其结构为80-171-171-171-4。第一层RBM将输入视为显层,共有80个节点,对应着50个眼部、脸部特征向量和血压、心率以及体温这3个人体健康体征的30维向量。最后一层是DBN的输出,包括4个单元,得出个体的身体状态评分;[0174]其中四个输出单元的输出对应着四种健康评估结果,如1000,则对应评分区间[0,0.7;如0100,则对应评分区间[0.7,0.8;[0175]采用5个中心频率和8个方向组成的40个Gabor小波滤波器对眼睛和嘴部图像进行特征提取,通过PCA对其进行降维,得到眼睛和嘴部图像的特征矩阵,并将其组合成一个矩阵,共50个特征。[0176]所述眼部图像区域获取过程如下:[0177]步骤SI.1:采用直方图均衡化法对脸部图像进行预处理;[0178]从而减轻光照在后续人脸特征提取的影响程度。[0179]步骤SI.2:利用肤色特征从步骤SI.1获得预处理图像中,分割出人脸区域;[0180]步骤SI.3:对分割出来的人脸区域进行二值化处理,使得人脸区域中的肤色区域像素为白色,非肤色区域像素为黑色;[0181]人脸区域中非肤色区域包括眼睛、眉毛、嘴巴、头发;[0182]步骤SI.4:对步骤SI.3获得的二值化图像进行水平积分投影,以投影曲线第二个低谷处为人眼中心的垂直坐标y,并以y为中心确定一个竖直宽度为90_的条形区域;[0183]因为眉毛和眼睛在竖直位置上是相对靠近的黑色区域;[0184]步骤SI.5:对确定的条形区域进行形态学处理后,再通过反色操作得到两个最大的连通区域;[0185]排除鼻梁、鬓角等暗区域对眼部的干扰。[0186]步骤1.6:对步骤SI.5获得的两个连通区域进行垂直积分投影,以投影曲线中的两个波峰区域并按照人眼大致形状对所述连个连通区域的宽度进行限定,获得眼部图像区域;[0187]所述嘴部图像获取过程如下[0188]步骤S2.1:利用唇色与肤色的差异,从脸部图像获得嘴部感兴趣区域;[0189]对获取的嘴部感兴趣区域的图像先进行肤色约束,排除胡须、嘴唇内腔的阴影区域等黑色部分;[0190]步骤S2.2:对嘴部感兴趣区域进行像素颜色的Fisher线性变换处理,将嘴部感兴趣区域的图像分割成相互孤立的多个独立区域;[0191]步骤S2.3:利用八连通成分标示算法对所述的每个孤立的独立区域进行区域标示,获取各独立区域的坐标位置和像素个数等;[0192]步骤S2.4:根据嘴唇的大小形状以及和脸部的相对约束关系对所有独立区域进行判断,嘴部图像区域;[0193]所述嘴唇的大小形状以及嘴唇和脸部的相对约束关系至少包括以下一条:[0194]a嘴部区域位于人脸图像下半部分的中间位置,且嘴部宽度中心线位于人脸的中心对称线附近;[0195]b嘴部区域的宽度小于人脸图像宽度的12,且大于人脸图像宽度的13;[0196]c嘴部区域内唇色像素总数大于人脸图像宽度的6倍,且小于人脸图像宽度的15倍;[0197]d嘴部区域内唇色像素总数大于人脸图像高度的6倍,且小于人脸图像高度的15倍;[0198]所述深度置信网络DBN使用的BP反向传播微调阶段采用改进狼群算法进行寻优获得;[0199]所述人体健康数据包括在各种运动量下IOs内的血压、心率以及体温;[0200]0%极限运动量对应健康评估分数为0;10%的极限运动量,对应健康评估分数为〇.1,依次类推,达到1〇〇%极限运动量,对应健康评估分数为1;[0201]将健康评估分数属于区间[0,0.7的人体健康标记为1000,健康评估分数属于区间[0.7,0.8的人体健康标记为0100,健康评估分数属于区间[0.8,0.9的人体健康标记为0010,健康评估分数属于区间[0.9,1]的人体健康标记为0001。[0202]所述深度置信网络DBN使用的BP反向传播微调阶段采用水循环算法进行寻优获得的过程如下:[0203]步骤Bl:设置初始参数;[0204]确定降雨层总个数N_pop为50,其中河流与海洋的总数8,作为最优解的海洋个数为1,极小值d_max=0,05,最大迭代次数max_iteration为500;[0205]步骤B2:降雨层初始化,生成初始降雨,河流和海洋;[0206]以预训练过程中得到的深度置信网络DBN各层的初始化权值矩阵W、可见层偏置c、隐藏层偏置b作为其中一个降雨层,每一个降雨层作为基于深度置信网络DBN的数据融合模型中各层的初始化权值矩阵W、可见层偏置c、隐藏层偏置b;[0207]步骤B3:依次将降雨层代入预训练完成的基于深度置信网络DBN的数据融合模型中计算结果,将计算结果和实际值的均方误差的倒数作为第二适应度函数;[0208]步骤Μ:以适应度大的降雨层作为大海,以适应度次小的降雨层作为河流,其余的降雨层作为流入河流或海洋的溪流;[0209]步骤Β5:使溪流汇入河流,使河流流入海洋;[0210]步骤Β6:如果发现溪流的解比河流的更好,则它们互相交换位置:若河流的解比海洋的解较优,则河流与海洋交换位置;最终海洋为最优解。[0211]步骤Β7:检查是否满足蒸发条件:判断河流与海洋的适应度值之差的绝对值是否小于极小值d_max,如果满足蒸发条件,则从种群中去掉该河流,并重新进行降雨过程,随机生成新的降雨层加入种群,返回步骤M继续一次迭代,否则,减小d_max值,进入步骤B8;[0212]步骤B8:判断是否到达最大迭代次数,若是则输出最优的降雨层对应的基于深度置信网络DBN的数据融合模型的最优参数,若不是,则返回步骤M,继续下一次迭代。[0213]步骤6:在进行户外运动监测过程中,每架无人机的电量会实时向服务器反馈。月艮务器根据反馈的电量,对无人机发出指令:[0214]当无人机剩余电量大于等于20%,保持监测状态。[0215]当无人机剩余电量小于20%,无人机返回充电区;同时,服务器指派一架电量充足的无人机飞去指定区域继续监测。[0216]步骤7:当待测目标终止运动,离开该户外环境。无人机返回充电区,准备下一次任务。[0217]—种融合ZED视觉的人体健康特征大数据智慧计算装置,包括:[0218]人体健康特征数据库,包括人体自然体征数据库和人体极限运动数据库;[0219]其中,所述人体自然体征数据库包括不同人的脸部图像和对应的身高,且所述脸部图像包括在不同光照强度下获得的各种正面图像、左脸图像以及右脸图像;[0220]所述人体极限运动数据库包括人体健康特征数据库中每个人在不同极限运动的各种运动量情况下的健康数据,所述健康数据是指在运动过程中IOs内采集的心率、血压和体温;[0221]脸部图像视觉筛选模块,依据搭载在无人机上的ZED相机获取的人体身高,筛选出待识别人体群并且获取对应的脸部图像数据块;[0222]Hadoop平台识别模块,采用上述方法基于Hadoop平台对待识别人体脸部图像数据块进行待识别人体的快速识别;[0223]追踪模块,依据Hadoop平台识别模块的识别结果,使得无人机跟踪待识别人体,并与待识别人体的穿戴设备进行通信,获取待识别人体的健康数据传输至远程服务器;[0224]健康测量模块,将获取的待识别人体的健康数据和对应的眼部、嘴部特征输入基于深度置信网络DBN的人体健康评估模型,采用上述的方法得到待识别人体的健康程度。[0225]所述无人机包括飞行装置以及搭载在飞行装置上的电池模块、GPS模块、无线通信模块、惯性装置、ZED模块和补光模块。[0226]以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求范围当中。
权利要求:1.一种融合ZED视觉的人体健康特征大数据智慧计算方法,其特征在于,包括以下步骤:步骤1:构建人体健康特征数据库;所述人体健康特征数据库包括人体自然体征数据库和人体极限运动数据库;其中,所述人体自然体征数据库包括不同人的脸部图像和对应的身高,且所述脸部图像包括在不同光照强度下获得的各种正面图像、左脸图像以及右脸图像;所述人体极限运动数据库包括人体健康特征数据库中每个人在不同极限运动的各种运动量情况下的健康数据,所述健康数据是指在运动过程中IOs内采集的心率、血压和体温;步骤2:依据搭载在无人机上的ZED相机获取的人体身高,筛选出待识别人体群并且获取对应的脸部图像数据块;步骤3:基于Hadoop平台对待识别人体脸部图像数据块进行待识别人体的快速识别;步骤3.1:将待识别人体的脸部图像数据块,利用MapReduce进行切片,并为每一个数据分片构造一个Map任务;步骤3.2:利用InputFormat类将每个数据分片转换成〈keyvalue〉对,以key记录每个数据分片起点的存储位置,以value记录每个数据分片的数据长度;步骤3.3:对步骤3.2得到的所有〈keyvalue对对应的脸部图像数据进行Map操作;所述Map操作是指对一个数据分片中的脸部图像依次进行预处理、Gabor特征提取、PCA降维处理后,采用在Hadoop平台训练得到的基于PID神经网络的脸部识别模型进行识别;步骤3.4:利用Reduce函数融合所有Map操作输出的识别结果;其中,所述在Hadoop平台训练得到的基于PID神经网络的脸部识别模型是指将脸部图像训练数据按照步骤3.1-3.2的过程利用MapReduce进行多次数据分片处理,并将每个数据分片对应的训练数据,训练基于PID神经网络的脸部识别模型,将所有训练完后的基于PID神经网络的脸部识别模型中的权值和阈值求平均,直到最终基于PID神经网络的脸部识别模型的精度满足设定的识别精度或者执行MapReduce次数达到设定的最大执行次数;步骤4:利用识别结果,使得无人机跟踪待识别人体,并与待识别人体的穿戴设备进行通信,获取待识别人体的健康数据传输至远程服务器;步骤5:将获取的待识别人体的健康数据和对应的眼部、嘴部特征输入基于深度置信网络DBN的数据融合模型,计算得到待识别人体的健康检测程度。2.根据权利要求1所述的方法,其特征在于,所述基于PID神经网络脸部识别模型的构建过程如下:步骤3.3.1:对每一幅训练图像进行预处理和Garbor特征提取,并对提取的图像Gabor特征进行PCA降维,得到降维矩阵;步骤3.3.2:利用MapReduce对训练图像数据和对应的图像编号进行切片,依次将每个数据分片中所有训练图像的降维矩阵对应的特征向量作为输入层节点,输出层节点为数据分片中每个训练图像的编号,对PID神经网络进行训练,得到基于PID神经网络的脸部识别丰旲型;其中,最大迭代次数为100,训练学习率为0.1,在训练过程中,所述PID神经网络的权值和阈值采用自适应花授粉算法进行寻优获得。3.根据权利要求2所述的方法,其特征在于,所述PID神经网络的权值和阈值采用自适应花授粉算法进行寻优获得的过程如下:步骤Al:种群花粉个体的位置作为PID神经网络的权值和阈值,初始化种群;种群规模的取值范围为[50,200],变异因子初始值的取值范围为[0.04,0.15],最大迭代次数的取值范围为[120,500],最大搜索精度的取值范围为[0.005,0.12];步骤A2:设定适应度函数,并获取种群中的最优个体;将种群个体位置对应的PID神经网络的权值和阈值代入基于PID神经网络的人脸识别模型中,并利用种群个体位置确定的基于PID神经网络的权值和阈值的人脸识别模型计算出输出值,将输出值和实际值的均方差MSE的倒数作为第一适应度函数ΠX;步骤A3:计算每个个体的适应值,并保留适应度值最小的个体;步骤A4:随机生成randi,按照下式计算转换概率p,以调节花授粉算法中全局搜索和局部搜索之间的转化;p=0.8+0.2Xrandi步骤A5:随机生成rande[〇,1],若转换概率prand,计算ε,并利用ε进行局部搜索;步骤Α6:计算更新后的所有个体的适应度值,判断是否达到最大迭代次数或者最大搜索精度,若达到,则以适应度最大的个体作为最优个体,输出最优个体对应的PID神经网络的权值和阈值,否则返回步骤Α4,进行下一次迭代。4.根据权利要求1所述的方法,其特征在于,所述基于深度置信网络DBN的数据融合模型的构建过程如下:将人体极限运动量训练数据库中各种运动量的人体健康数据以及对应的眼部、嘴部特征作为输入层节点,对深度置信网络DBN进行预训练,对预训练结束后得到的深度置信网络DBN,采用BP算法,使用输入数据对应的健康评估状态对深度置信网络DBN进行微调,使深度置信网络DBN进每一层的初始化权值矩阵W、可见层偏置c、隐藏层偏置b达到最优,得到基于深度置信网络DBN的数据融合模型;其中,所述深度置信网络DBN学习速率设为0.01,最大迭代次数1000次;所述眼部特征和嘴部特征是指从脸部图像中分别提取出的眼部图像和嘴部图像进行滤波处理后,利用PCA降维得到的特征;所述深度置信网络DBN包括4层,第一层RBM将输入视为显层,输入人体健康数据以及对应的眼部、嘴部特征,最后一层RBM包括4个单元,输出四种健康评估结果;所述眼部图像区域获取过程如下:步骤SI.1:采用直方图均衡化法对脸部图像进行预处理;步骤SI.2:利用肤色特征从步骤SI.1获得预处理图像中,分割出人脸区域;步骤SI.3:对分割出来的人脸区域进行二值化处理,使得人脸区域中的肤色区域像素为白色,非肤色区域像素为黑色;步骤SI.4:对步骤SI.3获得的二值化图像进行水平积分投影,以投影曲线第二个低谷处为人眼中心的垂直坐标y,并以y为中心确定一个竖直宽度为90mm的条形区域;步骤SI.5:对确定的条形区域进行形态学处理后,再通过反色操作得到两个最大的连通区域;步骤1.6:对步骤Sl.5获得的两个连通区域进行垂直积分投影,以投影曲线中的两个波峰区域并按照人眼大致形状对所述连个连通区域的宽度进行限定,获得眼部图像区域;所述嘴部图像获取过程如下步骤S2.1:利用唇色与肤色的差异,从脸部图像获得嘴部感兴趣区域;步骤2.2:对嘴部感兴趣区域进行像素颜色的Fisher线性变换处理,将嘴部感兴趣区域的图像分割成相互孤立的多个独立区域;步骤2.3:利用八连通成分标示算法对所述的每个孤立的独立区域进行区域标示,获取各独立区域的坐标位置和像素个数等;步骤2.4:根据嘴唇的大小形状以及和脸部的相对约束关系对所有独立区域进行判断,嘴部图像区域;所述嘴唇的大小形状以及嘴唇和脸部的相对约束关系至少包括以下一条:a嘴部区域位于人脸图像下半部分的中间位置,且嘴部宽度中心线位于人脸的中心对称线附近;b嘴部区域的宽度小于人脸图像宽度的12,且大于人脸图像宽度的13;c嘴部区域内唇色像素总数大于人脸图像宽度的6倍,且小于人脸图像宽度的15倍;d嘴部区域内唇色像素总数大于人脸图像高度的6倍,且小于人脸图像高度的15倍;所述深度置信网络DBN使用的BP反向传播微调阶段采用水循环算法进行寻优获得;所述人体健康数据包括在各种运动量下IOs内的血压、心率以及体温;0%极限运动量对应健康评估分数为0;10%的极限运动量,对应健康评估分数为0.1,依次类推,达到100%极限运动量,对应健康评估分数为1;将健康评估分数属于区间[0,0.7的人体健康标记为1000,健康评估分数属于区间[0.7,0.8的人体健康标记为0100,健康评估分数属于区间[0.8,0.9的人体健康标记为0010,健康评估分数属于区间[0.9,1]的人体健康标记为0001。5.根据权利要求4所述的方法,其特征在于,所述深度置信网络DBN使用的BP反向传播微调阶段采用水循环算法进行寻优获得的过程如下:步骤BI:设置初始参数;确定降雨层总个数N_pop为50,其中河流与海洋的总数8,作为最优解的海洋个数为1,极小值d_max=0,05,最大迭代次数max_iteration为500;步骤B2:降雨层初始化,生成初始降雨,河流和海洋;以预训练过程中得到的深度置信网络DBN各层的初始化权值矩阵W、可见层偏置c、隐藏层偏置b作为其中一个降雨层,每一个降雨层作为基于深度置信网络DBN的数据融合模型中各层的初始化权值矩阵W、可见层偏置c、隐藏层偏置b;步骤B3:依次将降雨层代入预训练完成的基于深度置信网络DBN的数据融合模型中计算结果,将计算结果和实际值的均方误差的倒数作为第二适应度函数;步骤Μ:以适应度大的降雨层作为大海,以适应度次小的降雨层作为河流,其余的降雨层作为流入河流或海洋的溪流;步骤Β5:使溪流汇入河流,使河流流入海洋;步骤Β6:如果发现溪流的解比河流的更好,则它们互相交换位置:若河流的解比海洋的解较优,则河流与海洋交换位置;最终海洋为最优解。步骤Β7:检查是否满足蒸发条件:判断河流与海洋的适应度值之差的绝对值是否小于极小值d_max,如果满足蒸发条件,则从种群中去掉该河流,并重新进行降雨过程,随机生成新的降雨层加入种群,返回步骤M继续一次迭代,否则,减小d_max值,进入步骤B8;步骤B8:判断是否到达最大迭代次数,若是则输出最优的降雨层对应的基于深度置信网络DBN的数据融合模型的最优参数,若不是,则返回步骤M,继续下一次迭代。6.根据权利要求5所述的方法,其特征在于,所述远程服务器依据接收到人体健康检测结果,并发出预警指令至人体穿戴设备上:若分数达到[0.7,0.8,服务器向手环发送指令,手环做出一级震动,提醒该个体休息;若分数达到[0.8,0.9服务器向手环发送指令,手环做出二级震动,提醒该个体身体状态已不适合继续运动;若分数达到0.9,服务器向手环发送指令,手环做出三级震动,提醒该个体身体状态必须要停止运动,同时无人机会发出警报。7.根据权利要求1-7任一项所述的方法,其特征在于,在进行户外运动监测过程中,每架无人机的电量实时向远程服务器反馈,远程服务器根据反馈的电量,对无人机发出指令:当无人机剩余电量大于等于20%,保持监测状态;当无人机剩余电量小于20%,无人机返回充电区;同时,远程服务器指派一架电量充足的无人机飞去指定区域继续监测。8.根据权利要求2-6任一项所述的方法,其特征在于,所述步骤3.3.1中对每一幅训练图像进行预处理,是指对脸部图像分别进行几何预处理、灰度预处理以及人脸肤色检测;所述几何预处理是将人脸图像变换到同一位置和同一大小;所述灰度预处理是将彩色图像进行灰度化处理。所述人脸肤色检测是指基于脸部肤色的人脸检测,除去照片中的非人脸区域,提取出包含人脸特征的轮廓。9.一种融合ZED视觉的人体健康特征大数据智慧计算装置,其特征在于,包括:人体健康特征数据库,包括人体自然体征数据库和人体极限运动数据库;其中,所述人体自然体征数据库包括不同人的脸部图像和对应的身高,且所述脸部图像包括在不同光照强度下获得的各种正面图像、左脸图像以及右脸图像;所述人体极限运动数据库包括人体健康特征数据库中每个人在不同极限运动的各种运动量情况下的健康数据,所述健康数据是指在运动过程中IOs内采集的心率、血压和体温;脸部图像视觉筛选模块,依据搭载在无人机上的ZED相机获取的人体身高,筛选出待识别人体群并且获取对应的脸部图像数据块;Hadoop平台识别模块,采用权利要求1-8任一项所述方法基于Hadoop平台对待识别人体脸部图像数据块进行待识别人体的快速识别;追踪模块,依据Hadoop平台识别模块的识别结果,使得无人机跟踪待识别人体,并与待识别人体的穿戴设备进行通信,获取待识别人体的健康数据传输至远程服务器;健康测量模块,将获取的待识别人体的健康数据和对应的眼部、嘴部特征输入基于深度置信网络DBN的人体健康评估模型,采用权利要求1-8任一项所述的方法计算得到待识别人体的健康程度。10.根据权利要求9所述的装置,其特征在于,所述无人机包括飞行装置以及搭载在飞行装置上的电池模块、GPS模块、无线通信模块、惯性装置、ZED模块和补光模块。
百度查询: 中南大学 一种融合ZED视觉的人体健康特征大数据智慧计算方法与装置
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。