浙江工业大学吴哲夫获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉浙江工业大学申请的专利一种基于审美特征和对抗性学习的协同过滤推荐方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114065025B 。
龙图腾网通过国家知识产权局官网在2025-08-01发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202111305777.5,技术领域涉及:G06F16/9535;该发明授权一种基于审美特征和对抗性学习的协同过滤推荐方法是由吴哲夫;曹俊卓设计研发完成,并于2021-11-05向国家知识产权局提交的专利申请。
本一种基于审美特征和对抗性学习的协同过滤推荐方法在说明书摘要公布了:一种基于审美特征和对抗性学习的协同过滤推荐方法,利用美学网络将审美特征融入评价体系中,并通过对抗性学习提高推荐精度和鲁棒性,本方法可以分为两个阶段:特征采集阶段和模型训练阶段。特征采集阶段输入产品数据集到CNN和审美网络,分别提取产品的CNN特征和审美特征,拼接两种特征获得新的特征矩阵,用于构成CFA模型;模型训练阶段,采用SGD学习算法首先进行模型参数的学习使模型性能达到最佳,然后在模型参数处加入对抗性扰动构成ACFA模型,并使模型性能尽可能降低进行对抗性学习。本发明能提高推行系统的推荐精度和鲁棒性,在推荐系统领域具有一定的应用价值。
本发明授权一种基于审美特征和对抗性学习的协同过滤推荐方法在权利要求书中公布了:1.一种基于审美特征和对抗性学习的协同过滤推荐方法,其特征在于,该方法包括如下步骤: 步骤1:从产品数据集中分别提取出CNN特征和AES特征,AES特征即审美特征; 步骤2:拼接CNN特征和AES特征,得到新的特征矩阵Fq; 步骤3:在协同过滤的基础上加入审美特征,定义所提出的原始CFA模型,用表示; 步骤4:确定对抗性扰动的目标和添加位置,提高算法的精度和准确性,同时使模型训练过程的复杂度尽可能降低; 步骤5:定义所提出的对抗性扰动ACFA模型,用表示; 步骤6:模型训练,通过最小化目标函数来实现模型参数学习,以获得最佳的模型参数; 步骤7:调整模型中关于扰动的两个超参数和,使得模型性能最佳; 步骤8:选取推荐系统评价指标作为评价模型性能的依据; 步骤9:记录、整理实验结果,与基线模型对比,形成结论; 所述步骤2中,得到新的特征矩阵表示为,其中CNN特征和AES特征分别通过CNN卷积神经网络和BDN美学网络从产品数据集中提取; 所述步骤3中,在加入审美特征后,得到的未添加对抗性扰动的CFA模型的定义如1所示: (1) 其中,M是用户偏好矩阵,U代表用户的嵌入矩阵,V代表产品的嵌入矩阵,F是特征矩阵,p、q分别表示用户和产品,是基于潜在特征所得到的,V捕捉的是用户的偏好信息,而是基于图片特征所得到的,M是对用户偏好的编码,特征矩阵的构建已在步骤2中给出; 所述步骤3中,由于CFA模型使用典型的贝叶斯个性化排序优化标准对用户的隐式反馈进行优化,所以将BPR损失作为对应的目标函数,如2所示: (2) 其中,D是训练集,是模型的参数,p、q、q’分别表示用户、该用户购买过的产品和该用户未购买过的产品,表示各参数对应系数,是L 2 范数,其中表示为: (3) 所述步骤4中,由于对抗性学习的第一个重要过程,是构建能够使BPR损失最大的扰动,所以确定所引入的对抗性扰动表示为: (4) 其中,,D是训练集,是模型的参数,是控制扰动幅度的超参数,是L 2 范数;并选择在模型参数中加入扰动,通过在模型的参数处加入扰动,一方面它能避免提取图片特征的网络与模型训练过程产生交叉影响,提高算法的精度和准确性,另一方面它能避免模型训练过程中产生过大的复杂度,提升算法的效率; 所述步骤5中,确定对抗性扰动加入的位置后,将对抗性扰动模型ACFA定义为如5所示: (5) 其中,表示加入到审美特征矩阵的对抗性扰动; 所述步骤6中,模型训练过程中,对于一个实例(p,q,q’),需要在已确定对抗性扰动的条件下,通过最小化相对应的目标函数来实现对模型参数的更新,因为相关的目标函数固定不变,所以此时的模型参数学习又看作是一个求最小值问题,能够将其近似为梯度下降,如6表示: (6) 其中,,表示学习率,选择Tensorflow中的Adagrad优化器参与模型参数学习,它能对克服SGD对学习率不能进行自适应调整的局限性。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人浙江工业大学,其通讯地址为:310014 浙江省杭州市下城区潮王路18号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。