期刊导航
期刊开放获取
唐山市科学技术情报研究..
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于ANFIS-LSSVM的计算颜色恒常性算法研究
1
作者
王兴光
罗运辉
+1 位作者
王庆
陈业红
《齐鲁工业大学学报》
CAS
2024年第2期62-72,共11页
计算颜色恒常性是指消除场景光源的影响从而再现物体真实颜色的能力。目前,深度神经网络的应用使颜色恒常性精度显著提高,但大多数深度学习算法训练时间长、计算复杂度高,且需要大量的训练样本。针对此问题,提出了一种结合自适应神经模...
计算颜色恒常性是指消除场景光源的影响从而再现物体真实颜色的能力。目前,深度神经网络的应用使颜色恒常性精度显著提高,但大多数深度学习算法训练时间长、计算复杂度高,且需要大量的训练样本。针对此问题,提出了一种结合自适应神经模糊推理系统(ANFIS)和最小二乘支持向量机(LSSVM)的简单有效的方法。该方法分为训练和预测两个阶段:在训练阶段,首先提取图像特征分别训练ANFIS、LSSVM两种初始光源估计模型,接着利用核函数变换将两种模型融合,然后利用预留训练样本进一步训练得到多元线性回归光源估计模型;在预测阶段,提取测试图像特征后,直接由训练所得模型预测得到该测试图像最终的场景光源颜色值。实验结果表明,与深度学习方法相比,本文所提方法计算复杂度较低,即使在小训练样本中也能有很好的光源估计性能。
展开更多
关键词
计算颜色恒常性
光源估计
自适应神经模糊推理系统(ANFIS)
最小二乘支持向量机(LSSVM)
在线阅读
下载PDF
职称材料
ELM网络结构自适应正交搜索算法
被引量:
5
2
作者
徐睿
梁循
+1 位作者
马跃峰
齐金山
《计算机学报》
EI
CAS
CSCD
北大核心
2021年第9期1888-1906,共19页
由于具有灵活的非线性建模能力和良好的模式识别能力,单隐藏层前馈神经网络(Single Hidden Layer Feedforward Neural Network,SLFN)一直是机器学习和数据挖掘领域关注的焦点.众所周知,网络结构是影响SLFN泛化能力的重要因素之一.给定...
由于具有灵活的非线性建模能力和良好的模式识别能力,单隐藏层前馈神经网络(Single Hidden Layer Feedforward Neural Network,SLFN)一直是机器学习和数据挖掘领域关注的焦点.众所周知,网络结构是影响SLFN泛化能力的重要因素之一.给定一个具体应用,如何在训练过程中自动选取最优的隐节点个数,仍是一大挑战.极限学习机(Extreme Learning Machine,ELM)通过随机生成隐藏层节点参数,并利用最小二乘法求解输出层权值的方式来训练SLFN,在一定程度上克服了传统的基于梯度类学习方法收敛速度慢、容易陷入局部最小值等问题.然而,ELM仍需要人为确定隐节点个数,不仅过程繁琐,而且无法保证得到最优或者次优的网络结构.在不影响泛化能力的前提下,为了进一步降低网络的复杂度,本文对ELM进行了改进,通过将网络结构学习转化为子集模型选择,提出了一种隐节点自适应正交搜索方法.首先,利用标准ELM构建隐节点候选池.然后,采用正交前向选择算法选择与网络期望输出相关度最大的候选隐节点加入到模型中.同时,每向前引入一个新的隐节点,就要向后对已选入的隐节点进行逐个检查,将变得不重要的隐节点从网络中删除.最后,设计了一种增强的向后移除策略来纠正前面步骤中所犯的错误,进一步剔除模型内残留的冗余隐节点.本文方法充分考虑了隐节点间的内在联系和相互影响,实验结果表明,该方法不仅具有良好的泛化性能,而且能够产生比较紧凑的网络结构.
展开更多
关键词
子集模型选择
紧凑网络结构
极限学习机
正交前向选择
正交后向移除
颜色
恒常
性
计算
在线阅读
下载PDF
职称材料
题名
基于ANFIS-LSSVM的计算颜色恒常性算法研究
1
作者
王兴光
罗运辉
王庆
陈业红
机构
齐鲁工业大学(山东省科学院)轻工学部
出处
《齐鲁工业大学学报》
CAS
2024年第2期62-72,共11页
基金
齐鲁工业大学教育部制浆造纸重点实验室开放基金项目(ZR202001)。
文摘
计算颜色恒常性是指消除场景光源的影响从而再现物体真实颜色的能力。目前,深度神经网络的应用使颜色恒常性精度显著提高,但大多数深度学习算法训练时间长、计算复杂度高,且需要大量的训练样本。针对此问题,提出了一种结合自适应神经模糊推理系统(ANFIS)和最小二乘支持向量机(LSSVM)的简单有效的方法。该方法分为训练和预测两个阶段:在训练阶段,首先提取图像特征分别训练ANFIS、LSSVM两种初始光源估计模型,接着利用核函数变换将两种模型融合,然后利用预留训练样本进一步训练得到多元线性回归光源估计模型;在预测阶段,提取测试图像特征后,直接由训练所得模型预测得到该测试图像最终的场景光源颜色值。实验结果表明,与深度学习方法相比,本文所提方法计算复杂度较低,即使在小训练样本中也能有很好的光源估计性能。
关键词
计算颜色恒常性
光源估计
自适应神经模糊推理系统(ANFIS)
最小二乘支持向量机(LSSVM)
Keywords
computational color constancy
illuminant estimation
adaptive-network-based fuzzy inference system(ANFIS)
least squares support vector machine(LSSVM)
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
ELM网络结构自适应正交搜索算法
被引量:
5
2
作者
徐睿
梁循
马跃峰
齐金山
机构
中国人民大学信息学院
曲阜师范大学信息科学与工程学院
淮阴师范学院计算机科学与技术学院
出处
《计算机学报》
EI
CAS
CSCD
北大核心
2021年第9期1888-1906,共19页
基金
国家自然科学基金(62072463,71531012)
国家社会科学基金重大项目(18ZDA309)
+4 种基金
北京市自然科学基金(4172032)
京东商城电子商务研究项目(413313012)
北大方正集团有限公司数字出版技术国家重点实验室开放课题
江苏省高校自然科学基金项目(19KJB520024)
江苏省大学生实践创新训练计划项目(201910323057Y)资助
文摘
由于具有灵活的非线性建模能力和良好的模式识别能力,单隐藏层前馈神经网络(Single Hidden Layer Feedforward Neural Network,SLFN)一直是机器学习和数据挖掘领域关注的焦点.众所周知,网络结构是影响SLFN泛化能力的重要因素之一.给定一个具体应用,如何在训练过程中自动选取最优的隐节点个数,仍是一大挑战.极限学习机(Extreme Learning Machine,ELM)通过随机生成隐藏层节点参数,并利用最小二乘法求解输出层权值的方式来训练SLFN,在一定程度上克服了传统的基于梯度类学习方法收敛速度慢、容易陷入局部最小值等问题.然而,ELM仍需要人为确定隐节点个数,不仅过程繁琐,而且无法保证得到最优或者次优的网络结构.在不影响泛化能力的前提下,为了进一步降低网络的复杂度,本文对ELM进行了改进,通过将网络结构学习转化为子集模型选择,提出了一种隐节点自适应正交搜索方法.首先,利用标准ELM构建隐节点候选池.然后,采用正交前向选择算法选择与网络期望输出相关度最大的候选隐节点加入到模型中.同时,每向前引入一个新的隐节点,就要向后对已选入的隐节点进行逐个检查,将变得不重要的隐节点从网络中删除.最后,设计了一种增强的向后移除策略来纠正前面步骤中所犯的错误,进一步剔除模型内残留的冗余隐节点.本文方法充分考虑了隐节点间的内在联系和相互影响,实验结果表明,该方法不仅具有良好的泛化性能,而且能够产生比较紧凑的网络结构.
关键词
子集模型选择
紧凑网络结构
极限学习机
正交前向选择
正交后向移除
颜色
恒常
性
计算
Keywords
subset model selection
parsimonious network structure
extreme learning machine
orthogonal forward selection
orthogonal backward elimination
color constancy computation
分类号
TP18 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于ANFIS-LSSVM的计算颜色恒常性算法研究
王兴光
罗运辉
王庆
陈业红
《齐鲁工业大学学报》
CAS
2024
0
在线阅读
下载PDF
职称材料
2
ELM网络结构自适应正交搜索算法
徐睿
梁循
马跃峰
齐金山
《计算机学报》
EI
CAS
CSCD
北大核心
2021
5
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部