Document
拖动滑块完成拼图
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种改进的海马体-前额皮层网络空间认知方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:北京工业大学

摘要:本发明公开了一种改进的海马体‑前额皮层网络空间认知方法,首先机器人探索环境收集信息,海马体位置细胞接收环境信息并形成类拓扑认知地图;前额皮层中皮质柱神经元接收并整合海马体信息投射,环境奖励刺激信号对类拓扑认知地图进行评估,在评估过程中,若机器人检测到环境发生动态变化,则会激发应急变更模块,若环境中存在多个目标,则会激发奖励重估模块;最后,刺激信号以神经活动波的形式在模型中扩散,评估完成后,由奖励刺激信号在前额皮层网络中扩散,并按照STDP规则改变前额皮层中皮质柱神经元之间的突触连接,形成全局矢量场;最终实现机器人目标导向的空间导航。

主权项:1.一种改进的海马体-前额皮层网络空间认知方法,首先机器人探索环境收集信息,海马体位置细胞接收环境信息并形成类拓扑认知地图;前额皮层中皮质柱神经元接收并整合海马体信息投射,环境奖励刺激信号对类拓扑认知地图进行评估,在评估过程中,若机器人检测到环境发生动态变化,则会激发应急变更模块,若环境中存在多个目标,则会激发奖励重估模块;最后,刺激信号以神经活动波的形式在模型中扩散,评估完成后,由奖励刺激信号在前额皮层网络中扩散,并按照STDP规则改变前额皮层中皮质柱神经元之间的突触连接,形成全局矢量场;最终实现机器人目标导向的空间导航;该方法基于MATLAB仿真平台,模型由两大模块组成,第一个模块为海马体模块,负责接收环境信息并形成认知拓扑地图;第二个模块为前额皮层模块,其又分为基本组成框架,应急变更模块,奖励重估模块,负责评估认知地图并完成机器人的导航规划;具体步骤如下:S1.机器人在环境中自由移动,采集环境坐标点;S2.机器人采集的环境信息作为海马体模块的输入,其输出为环境认知拓扑地图,具体步骤如下:1初始化,海马体模块的初始结构H由自组织增量神经网络表示,其由位置细胞集合C组成,每个位置细胞都对应一个位置向量wC;2机器人采集的环境信息作为海马体模块的输入信号ξ;3寻找输入信号ξ的最近位置细胞和次近位置细胞,如式1式2所示;C1=argminC∈H||ξ-wC||1 4根据式3增加和C1相连的连接边的年龄,标记为其中表示和C1相连的位置细胞,i表示位置细胞的索引; 5根据式4更新C1的累计误差,其中表示C1的位置向量; 6利用因子εb和εn调整C1及与其相连接的位置细胞的位置,根据式5调整C1和其相邻位置细胞的位置向量; 7如果最近位置细胞C1与次近位置细胞C2之间存在连接关系,则将该边的年龄置0;否则创建连接边;8移除网络所有年龄大于年龄阈值的边;同时,如果网络中存在孤立位置细胞,删除该位置细胞;9网络增长条件;如果输入信号ξ出现的次数是参数λ的整数倍,按照下列规则扩大网络;a标记具有最大累计误差的位置细胞为q;b将与q直接连接的位置细胞中累计误差最大标记为f,插入新位置细胞r,其为q及f的中点;c分别建立r与q,f之间的连接关系,断开q与f之间的连接边;d设置r的初始累计误差和q的当前累计误差相同;10停止;S3.前额皮层模块评估环境认知拓扑地图;1前额皮层网络由大量的皮质柱单元组成,皮质柱单元基于人工整合激发神经元建模,其膜电位服从公式7; 式7中Vit是第i个皮质柱单元在t时刻的膜电位;τ是时间常数;Iit是第i个皮质柱单元的整合突触电流,如公式8所示Iit=∑wij·Vjt8式8中wij是第i个皮质柱单元和第j个皮质柱单元之间的突触连接;当皮质柱单元膜电位超过阈值时,细胞激发脉冲电位,并进入死区变为抑制状态,避免误操作,如公式9所示; 式9中tf是皮质柱单元激发动作电位的时间,td是皮质柱单元进入抑制状态的持续时间,τARP是时间常数;皮质柱单元之间的连接权值根据脉冲依赖可塑性规则STDP进行学习,如公式10所示; 式10中M是幅值,是突触后神经元与突触前神经元间的放电时间差,τSTDP控制放电时间差对权值变化的影响;2在前额皮层模块评估环境认知地图的过程中,若机器人检测到环境发生动态变化,则激发应急变更模块,具体步骤如下:a机器人评估认知地图并进行路径规划;b检测环境是否发生变化;c若环境发生变化,根据环境的变化程度设置临界点及虚拟半径,确定虚拟子目标,规划局部路径逃离环境变化区域;d若环境未发生变化,则按照已规划路径运行;3在前额皮层模块评估环境认知地图的过程中,若机器人检测到环境中存在多个目标,则会激发奖励重估模块,并做出决策,具体步骤如下:a环境中存在一个目标,机器人无需判断;b环境中存在多个目标时:若多个目标奖励价值相同,则机器人选择最近的目标;若多个目标具有不同的奖励价值,则机器人基于净回报NR选择目标,如公式11所示;NR=R-C·L11式11中,R为机器人选择该目标得到的奖励,L为机器人到达被选择目标的路径总长度,C为单位路径长度需要消耗的成本。

全文数据:

权利要求:

百度查询: 北京工业大学 一种改进的海马体-前额皮层网络空间认知方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。