期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
基于HTM-Attention的时序数据异常检测方法 被引量:1
1
作者 张晨林 张素莉 +2 位作者 陈冠宇 王福德 孙启涵 《吉林大学学报(信息科学版)》 CAS 2024年第3期457-464,共8页
针对现有工业时间序列数据异常检测算法并未充分考虑时序数据在时间相关性方面的研究问题,提出了一种改进的HTM(Hierarchical Temporal Memory)-Attention算法。该算法结合了HTM算法和Attention机制,能学习数据之间的时间依赖关系,并在... 针对现有工业时间序列数据异常检测算法并未充分考虑时序数据在时间相关性方面的研究问题,提出了一种改进的HTM(Hierarchical Temporal Memory)-Attention算法。该算法结合了HTM算法和Attention机制,能学习数据之间的时间依赖关系,并在单变量和多变量时序数据上得到验证。同时,通过引入Attention机制,算法可以关注输入数据中的重要部分,进一步提高了异常检测的效率和准确性。实验结果表明,该算法对不同类型的时间序列异常数据能进行有效地检测,并且比其他常用的无监督异常检测算法具有更高的准确率和更低的运行时间。该算法在工业时间序列数据异常检测的应用中具有较大的潜力。 展开更多
关键词 层级时序记忆 注意力机制 时序数据 异常检测
在线阅读 下载PDF
基于预训练Transformer语言模型的源代码剽窃检测研究 被引量:1
2
作者 钱亮宏 王福德 孙晓海 《吉林大学学报(信息科学版)》 CAS 2024年第4期747-753,共7页
为解决源代码剽窃检测的问题,以及针对现有方法需要大量训练数据且受限于特定语言的不足,提出了一种基于预训练Transformer语言模型的源代码剽窃检测方法,其结合了词嵌入,相似度计算和分类模型。该方法支持多种编程语言,不需要任何标记... 为解决源代码剽窃检测的问题,以及针对现有方法需要大量训练数据且受限于特定语言的不足,提出了一种基于预训练Transformer语言模型的源代码剽窃检测方法,其结合了词嵌入,相似度计算和分类模型。该方法支持多种编程语言,不需要任何标记为剽窃的训练样本,即可达到较好的检测性能。实验结果表明,该方法在多个公开数据集上取得了先进的检测效果,F1值接近。同时,对特定的能获取到较少标记为剽窃训练样本的场景,还提出了一种结合有监督学习分类模型的方法,进一步提升了检测效果。该方法能广泛应用于缺乏训练数据、计算资源有限以及语言多样的源代码剽窃检测场景。 展开更多
关键词 源代码剽窃检测 TRANSFORMER 模型 预训练模型 机器学习 深度学习
在线阅读 下载PDF
金融交易反欺诈人工智能建模方法研究
3
作者 钱亮宏 王福德 宋海龙 《吉林大学学报(信息科学版)》 CAS 2024年第5期930-936,共7页
为解决金融交易反欺诈和维护金融安全,针对金融交易数据不平衡、类别离散的特点,提出一套端到端的建模流程、方法和模型结构。该流程涵盖数据预处理、模型训练和预测。同时比较了不同模型在不同特征数量情况下的效果和效率,并基于真实... 为解决金融交易反欺诈和维护金融安全,针对金融交易数据不平衡、类别离散的特点,提出一套端到端的建模流程、方法和模型结构。该流程涵盖数据预处理、模型训练和预测。同时比较了不同模型在不同特征数量情况下的效果和效率,并基于真实数据集进行验证,从而为金融机构根据自身的优化目标和资源限制选用不同类别和特征数量的模型提供参考。特征数较大(200以上)的基于树的模型适用于资源较充裕切追求极致模型效果的场景,中等规模(特征数100~200)的神经网络模型适用于资源一般的场景,而特征数较小的决策树模型或逻辑回归模型适用于资源有限且模型效果要求不高的长尾场景。 展开更多
关键词 金融交易反欺诈 人工智能 模型选择 机器学习 深度学习
在线阅读 下载PDF
基于Deep Q-Learning的抽取式摘要生成方法
4
作者 王灿宇 孙晓海 +4 位作者 吴叶辉 季荣彪 李亚东 张少如 杨士豪 《吉林大学学报(信息科学版)》 CAS 2023年第2期306-314,共9页
为解决训练过程中需要句子级标签的问题,提出一种基于深度强化学习的无标签抽取式摘要生成方法,将文本摘要转化为Q-learning问题,并利用DQN(Deep Q-Network)学习Q函数。为有效表示文档,利用BERT(Bidirectional Encoder Representations ... 为解决训练过程中需要句子级标签的问题,提出一种基于深度强化学习的无标签抽取式摘要生成方法,将文本摘要转化为Q-learning问题,并利用DQN(Deep Q-Network)学习Q函数。为有效表示文档,利用BERT(Bidirectional Encoder Representations from Transformers)作为句子编码器,Transformer作为文档编码器。解码器充分考虑了句子的信息富集度、显著性、位置重要性以及其与当前摘要之间的冗余程度等重要性等信息。该方法在抽取摘要时不需要句子级标签,可显著减少标注工作量。实验结果表明,该方法在CNN(Cable News Network)/DailyMail数据集上取得了最高的Rouge-L(38.35)以及可比较的Rouge-1(42.07)和Rouge-2(18.32)。 展开更多
关键词 抽取式文本摘要 BERT模型 编码器 深度强化学习
在线阅读 下载PDF
多源异构教育大数据挖掘与应用平台 被引量:5
5
作者 王福德 宋海龙 +1 位作者 孙小海 陈雷 《吉林大学学报(信息科学版)》 CAS 2023年第5期922-929,共8页
为解决校园不同信息、应用系统间不能互通互联、共享数据等问题,利用数据整合技术将多源教育数据进行融合,搭建一套多源异构教育大数据挖掘与应用平台。该平台利用人工智能模型的输出以及多源异构教育大数据挖掘引擎的输入,基于大数据... 为解决校园不同信息、应用系统间不能互通互联、共享数据等问题,利用数据整合技术将多源教育数据进行融合,搭建一套多源异构教育大数据挖掘与应用平台。该平台利用人工智能模型的输出以及多源异构教育大数据挖掘引擎的输入,基于大数据挖掘技术对学生档案、教学资源和社交行为等多源信息进行分析处理,实现教学体征诊断、学习状态智能对比、教学影响因素分析、潜在问题挖掘、教学质量趋势预测等功能。为科学提升校园个性化教学服务质量,客观评价教学个体及团队教学水平,辅助分析教学个体及团队长板、短板,科学指导决策者管理教学体系提供有力支撑。 展开更多
关键词 多源异构 教育大数据 数据挖掘 应用平台
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部