期刊文献+
共找到97篇文章
< 1 2 5 >
每页显示 20 50 100
NEURAL NETWORK TRAINING WITH PARALLEL PARTICLE SWARM OPTIMIZER
1
作者 覃征 刘宇 王昱 《Journal of Pharmaceutical Analysis》 SCIE CAS 2006年第2期109-112,共4页
Objective To reduce the execution time of neural network training. Methods Parallel particle swarm optimization algorithm based on master-slave model is proposed to train radial basis function neural networks, which i... Objective To reduce the execution time of neural network training. Methods Parallel particle swarm optimization algorithm based on master-slave model is proposed to train radial basis function neural networks, which is implemented on a cluster using MPI libraries for inter-process communication. Results High speed-up factor is achieved and execution time is reduced greatly. On the other hand, the resulting neural network has good classification accuracy not only on training sets but also on test sets. Conclusion Since the fitness evaluation is intensive, parallel particle swarm optimization shows great advantages to speed up neural network training. 展开更多
关键词 parallel computation neural network particle swarm optimization CLUSTER
在线阅读 下载PDF
Chip-Based High-Dimensional Optical Neural Network 被引量:7
2
作者 Xinyu Wang Peng Xie +1 位作者 Bohan Chen Xingcai Zhang 《Nano-Micro Letters》 SCIE EI CAS CSCD 2022年第12期570-578,共9页
Parallel multi-thread processing in advanced intelligent processors is the core to realize high-speed and high-capacity signal processing systems.Optical neural network(ONN)has the native advantages of high paralleliz... Parallel multi-thread processing in advanced intelligent processors is the core to realize high-speed and high-capacity signal processing systems.Optical neural network(ONN)has the native advantages of high parallelization,large bandwidth,and low power consumption to meet the demand of big data.Here,we demonstrate the dual-layer ONN with Mach-Zehnder interferometer(MZI)network and nonlinear layer,while the nonlinear activation function is achieved by optical-electronic signal conversion.Two frequency components from the microcomb source carrying digit datasets are simultaneously imposed and intelligently recognized through the ONN.We successfully achieve the digit classification of different frequency components by demultiplexing the output signal and testing power distribution.Efficient parallelization feasibility with wavelength division multiplexing is demonstrated in our high-dimensional ONN.This work provides a high-performance architecture for future parallel high-capacity optical analog computing. 展开更多
关键词 Integrated optics Optical neural network High-dimension Mach-Zehnder interferometer Nonlinear activation function parallel high-capacity analog computing
在线阅读 下载PDF
Neighborhood fusion-based hierarchical parallel feature pyramid network for object detection 被引量:3
3
作者 Mo Lingfei Hu Shuming 《Journal of Southeast University(English Edition)》 EI CAS 2020年第3期252-263,共12页
In order to improve the detection accuracy of small objects,a neighborhood fusion-based hierarchical parallel feature pyramid network(NFPN)is proposed.Unlike the layer-by-layer structure adopted in the feature pyramid... In order to improve the detection accuracy of small objects,a neighborhood fusion-based hierarchical parallel feature pyramid network(NFPN)is proposed.Unlike the layer-by-layer structure adopted in the feature pyramid network(FPN)and deconvolutional single shot detector(DSSD),where the bottom layer of the feature pyramid network relies on the top layer,NFPN builds the feature pyramid network with no connections between the upper and lower layers.That is,it only fuses shallow features on similar scales.NFPN is highly portable and can be embedded in many models to further boost performance.Extensive experiments on PASCAL VOC 2007,2012,and COCO datasets demonstrate that the NFPN-based SSD without intricate tricks can exceed the DSSD model in terms of detection accuracy and inference speed,especially for small objects,e.g.,4%to 5%higher mAP(mean average precision)than SSD,and 2%to 3%higher mAP than DSSD.On VOC 2007 test set,the NFPN-based SSD with 300×300 input reaches 79.4%mAP at 34.6 frame/s,and the mAP can raise to 82.9%after using the multi-scale testing strategy. 展开更多
关键词 computer vision deep convolutional neural network object detection hierarchical parallel feature pyramid network multi-scale feature fusion
在线阅读 下载PDF
Convolutional neural network adaptation and optimization method in SIMT computing mode
4
作者 Feng Zhenfu Zhang Yaying +1 位作者 Yang Lele Xing Lidong 《The Journal of China Universities of Posts and Telecommunications》 EI CSCD 2024年第2期105-112,共8页
For studying and optimizing the performance of general-purpose computing on graphics processing units(GPGPU)based on single instruction multiple threads(SIMT)processor about the neural network application,this work co... For studying and optimizing the performance of general-purpose computing on graphics processing units(GPGPU)based on single instruction multiple threads(SIMT)processor about the neural network application,this work contributes a self-developed SIMT processor named Pomelo and correlated assembly program.The parallel mechanism of SIMT computing mode and self-developed Pomelo processor is briefly introduced.A common convolutional neural network(CNN)is built to verify the compatibility and functionality of the Pomelo processor.CNN computing flow with task level and hardware level optimization is adopted on the Pomelo processor.A specific algorithm for organizing a Z-shaped memory structure is developed,which addresses reducing memory access in mass data computing tasks.Performing the above-combined adaptation and optimization strategy,the experimental result demonstrates that reducing memory access in SIMT computing mode plays a crucial role in improving performance.A 6.52 times performance is achieved on the 4 processing elements case. 展开更多
关键词 parallel computing single instruction multiple threads(SIMT) convolutional neural network(CNN) memory optimization
原文传递
A Neurocomputing Model for Binary Coded Genetic Algorithm
5
作者 GongDaoxiong RuanXiaogang 《工程科学(英文版)》 2004年第3期85-91,共7页
A neurocomputing model for Genetic Algorithm (GA) to break the speed bottleneck of GA was proposed. With all genetic operations parallel implemented by NN-based sub-modules, the model integrates both the strongpoint o... A neurocomputing model for Genetic Algorithm (GA) to break the speed bottleneck of GA was proposed. With all genetic operations parallel implemented by NN-based sub-modules, the model integrates both the strongpoint of parallel GA (PGA) and those of hardware GA (HGA). Moreover a new crossover operator named universe crossover was also proposed to suit the NN-based realization. This model was tested with a benchmark function set, and the experimental results validated the potential of the neurocomputing model. The significance of this model means that HGA and PGA can be integrated and the inherent parallelism of GA can be explicitly and farthest realized, as a result, the optimization speed of GA will be accelerated by one or two magnitudes compered to the serial implementation with same speed hardware, and GA will be turned from an algorithm into a machine. 展开更多
关键词 神经计算模型 二进制编码 遗传算法 神经网络 交叉算子 并行计算
在线阅读 下载PDF
基于并行计算的计算智能综述
6
作者 吴菲 陈嘉诚 王万良 《浙江大学学报(工学版)》 北大核心 2025年第1期27-38,共12页
传统计算智能技术缺乏实时性和适应性,基于并行计算的计算智能技术能够提高计算效率,解决多模态信息兼容处理的问题.分别从智能计算的3个分支(神经网络、进化算法和群智能算法)介绍计算智能与大数据并行计算融合的研究现状.总结并行计... 传统计算智能技术缺乏实时性和适应性,基于并行计算的计算智能技术能够提高计算效率,解决多模态信息兼容处理的问题.分别从智能计算的3个分支(神经网络、进化算法和群智能算法)介绍计算智能与大数据并行计算融合的研究现状.总结并行计算智能面临的问题与挑战,思考相关研究的发展方向. 展开更多
关键词 并行计算 计算智能 神经网络 进化算法 群智能
在线阅读 下载PDF
基于动态自适应计算引擎的MobileNetV3网络加速器设计
7
作者 项浩斌 杨瑞敏 +2 位作者 吴文涛 李春雷 董燕 《电子技术应用》 2025年第1期8-17,共10页
现有面向高效轻量化MobileNetV3网络的加速方法通常采用高度定制的计算引擎进行模型计算,从而限制了加速器的可扩展性使其仅适用于小型网络或资源丰富的硬件平台。针对此问题,提出了基于动态自适应计算引擎的MobileNetV3网络加速器。首... 现有面向高效轻量化MobileNetV3网络的加速方法通常采用高度定制的计算引擎进行模型计算,从而限制了加速器的可扩展性使其仅适用于小型网络或资源丰富的硬件平台。针对此问题,提出了基于动态自适应计算引擎的MobileNetV3网络加速器。首先,设计了局部感知区域卷积的流水线推理架构实现特征、权重的高度并行处理和缓冲调度。其次,提出全局自适应的点卷积方法优化点卷积,并结合空间探索获得最优的参数配置以实现最大计算并行性。此外,加速器可以根据模型参数变化动态配置以适应不同场景。实验结果显示加速器推理速度为8 F/s,是现有方法速度的2.7倍。 展开更多
关键词 卷积神经网络 并行计算 动态自适应 边缘设备 硬件加速
在线阅读 下载PDF
PARALLEL SELF-ORGANIZING MAP 被引量:1
8
作者 Li Weigang Department of Computer Science CIC, University of Brasilia UnB, C. P. 4466, CEP: 70919-970, Brasilia DF, Brazil, E mail: Weigang@cic.unb.br 《中国有色金属学会会刊:英文版》 EI CSCD 1999年第1期174-182,共9页
1INTRODUCTION“Oncesaw,neverforgoten”isasentencewhichusedtodescribeahumansenseandlearningsequence.Forexample,... 1INTRODUCTION“Oncesaw,neverforgoten”isasentencewhichusedtodescribeahumansenseandlearningsequence.Forexample,aboyglancedatalo... 展开更多
关键词 artificial neural networks COMPETITIVE learning parallel computing QUANTUM computing
在线阅读 下载PDF
HOPE:a heterogeneity-oriented parallel execution engine for inference on mobiles
9
作者 XIA Chunwei ZHAO Jiacheng +1 位作者 CUI Huimin FENG Xiaobing 《High Technology Letters》 EI CAS 2022年第4期363-372,共10页
It is significant to efficiently support artificial intelligence(AI)applications on heterogeneous mobile platforms,especially coordinately execute a deep neural network(DNN)model on multiple computing devices of one m... It is significant to efficiently support artificial intelligence(AI)applications on heterogeneous mobile platforms,especially coordinately execute a deep neural network(DNN)model on multiple computing devices of one mobile platform.This paper proposes HOPE,an end-to-end heterogeneous inference framework running on mobile platforms to distribute the operators in a DNN model to different computing devices.The problem is formalized into an integer linear programming(ILP)problem and a heuristic algorithm is proposed to determine the near-optimal heterogeneous execution plan.The experimental results demonstrate that HOPE can reduce up to 36.2%inference latency(with an average of 22.0%)than MOSAIC,22.0%(with an average of 10.2%)than StarPU and 41.8%(with an average of 18.4%)thanμLayer respectively. 展开更多
关键词 deep neural network(DNN) mobile heterogeneous scheduler parallel computing
在线阅读 下载PDF
基于轻量化多尺度神经网络的ZPW-2000移频信号检测方法
10
作者 武晓春 刘欣然 《中国铁道科学》 EI CAS CSCD 北大核心 2024年第5期187-197,共11页
针对ZPW-2000移频信号在不平衡牵引电流干扰时低频信号难以检测的问题,提出基于卷积注意力模块的轻量化多尺度神经网络的移频信号低频信息检测方法。首先,根据ZPW-2000移频信号的载频范围,使用不同卷积核大小的多尺度层提取相应载频调... 针对ZPW-2000移频信号在不平衡牵引电流干扰时低频信号难以检测的问题,提出基于卷积注意力模块的轻量化多尺度神经网络的移频信号低频信息检测方法。首先,根据ZPW-2000移频信号的载频范围,使用不同卷积核大小的多尺度层提取相应载频调制下的移频信号特征;其次,建立线性倒残差模块实现网络轻量化,在保证网络检测准确率的同时减少网络参数,缩短网络检测时长;最后,引入卷积注意力模块,标定通道和空间特征权重,提升网络性能,通过全连接层进行分类,输出18种低频信号的概率分布。结果表明:将含有工频谐波干扰等5类噪声的移频信号输入低频检测模型中进行检测,平均准确率可达99.22%,召回率达到99.21%,综合评价指标值为0.992,检测时间不超过0.249 s。该方法检测效果更优,具有良好的抗干扰能力,可为带内噪声干扰条件下检测ZPW-2000移频信号的低频信息提供重要参考。 展开更多
关键词 轻量化卷积神经网络 谐波干扰 多尺度神经网络 信号检测 ZPW-2000移频信号
在线阅读 下载PDF
面向微控制器的卷积神经网络加速器设计
11
作者 乔建华 吴言 +1 位作者 栗亚宁 雷光政 《电子器件》 CAS 2024年第1期48-54,共7页
针对目前嵌入式微控制器的性能难以满足实时图像识别任务的问题,提出一种适用于微控制器的卷积神经网络加速器。该加速器在卷积层设计了无阻塞的行并行乘法-加法树结构,获得了更高的硬件利用率;为了满足行并行的数据吞吐量,设计了卷积专... 针对目前嵌入式微控制器的性能难以满足实时图像识别任务的问题,提出一种适用于微控制器的卷积神经网络加速器。该加速器在卷积层设计了无阻塞的行并行乘法-加法树结构,获得了更高的硬件利用率;为了满足行并行的数据吞吐量,设计了卷积专用SRAM存储器。加速器将池化和激活单元融入数据通路,有效减少数据重复存取带来的时间开销。FPGA原型验证表明加速器的性能达到92.2 GOPS@100 MHz;基于TSMC 130 nm工艺节点进行逻辑综合,加速器的动态功耗为33 mW,面积为90 764.2μm^(2),能效比高达2 793 GOPS/W,比FPGA加速器方案提高了约100倍。该加速器低功耗、低成本的特性,有利于实现嵌入式系统在目标检测、人脸识别等机器视觉领域的广泛应用。 展开更多
关键词 卷积神经网络 并行计算 流水线 硬件加速器 专用集成电路
在线阅读 下载PDF
轻量级卷积神经网络的硬件加速方法
12
作者 吕文浩 支小莉 童维勤 《计算机工程与设计》 北大核心 2024年第3期699-706,共8页
为提升轻量级卷积神经网络在硬件平台的资源利用效率和推理速度,基于软硬件协同优化的思想,提出一种面向FPGA平台的轻量级卷积神经网络加速器,并针对网络结构的特性设计专门的硬件架构。与多级并行策略结合,设计一种统一的卷积层计算单... 为提升轻量级卷积神经网络在硬件平台的资源利用效率和推理速度,基于软硬件协同优化的思想,提出一种面向FPGA平台的轻量级卷积神经网络加速器,并针对网络结构的特性设计专门的硬件架构。与多级并行策略结合,设计一种统一的卷积层计算单元。为降低模型存储成本、提高加速器的吞吐量,提出一种基于可微阈值的选择性移位量化方案,使计算单元能够以硬件友好的形式执行计算。实验结果表明,在Arria 10 FPGA平台上部署的MobileNetV2加速器能够达到311 fps的推理速度,相比CPU版本实现了约9.3倍的加速比、GPU版本约3倍的加速比。在吞吐量方面,加速器能够实现98.62 GOPS。 展开更多
关键词 软硬件协同优化 现场可编程门阵列 轻量级卷积神经网络 移位量化 并行计算 硬件加速 开放式计算语言
在线阅读 下载PDF
基于动态可重构结构的卷积数据复用优化设计 被引量:1
13
作者 宋佳 蒋林 +1 位作者 朱育琳 朱家扬 《传感器与微系统》 CSCD 北大核心 2024年第6期105-108,共4页
针对卷积神经网络(CNN)计算效率低、速度慢、硬件资源消耗大等问题,提出了基于动态可重构结构的卷积数据复用优化设计方案。利用可重构阵列邻接互连寄存器实现输入特征图数据和权值数据的复用,提高内存访问效率,采用层间多通道并行计算... 针对卷积神经网络(CNN)计算效率低、速度慢、硬件资源消耗大等问题,提出了基于动态可重构结构的卷积数据复用优化设计方案。利用可重构阵列邻接互连寄存器实现输入特征图数据和权值数据的复用,提高内存访问效率,采用层间多通道并行计算对神经网络卷积运算进行加速。经在AlexNet上测试,论文提出的数据复用策略使得卷积运算乘累加操作最高可减少44.05%。在Zynq—7000开发板上实现本文提出的优化方案。结果表明:相比于现有的基于现场可编程门阵列(FPGA)实现AlexNet的计算,本实验LUTs资源消耗减少12.86%、FF资源消耗减少约97.5%、DSP资源消耗减少约66.7%。 展开更多
关键词 卷积神经网络 并行计算 数据复用
在线阅读 下载PDF
基于APSOC的心音特征提取及分类
14
作者 田英杰 杨宏波 +3 位作者 汪琴 郭涛 潘家华 王威廉 《计算机工程与设计》 北大核心 2024年第12期3779-3785,共7页
在云南一些边远山区网络信号弱甚至无信号,为在便携式设备上实现心音分类算法,满足离线式、可移动的需求,提出一种可部署在APSOC平台上的心音分类方法。在PS部分实现心音信号的特征提取,在PL部分实现CNN的卷积层和池化层。使用多通道并... 在云南一些边远山区网络信号弱甚至无信号,为在便携式设备上实现心音分类算法,满足离线式、可移动的需求,提出一种可部署在APSOC平台上的心音分类方法。在PS部分实现心音信号的特征提取,在PL部分实现CNN的卷积层和池化层。使用多通道并行及流水线等方式,实现对系统的硬件加速。实验结果表明,与通用CPU相比,该方法实现了8.91倍的硬件加速,分类准确率仅损失了2%,对心音辅助诊断有实用价值。 展开更多
关键词 全可编程片上系统 心音分类 先天性心脏病 硬件加速 卷积神经网络 梅尔频率倒谱系数 并行计算
在线阅读 下载PDF
一种面向通用计算设备的自动流水线并行训练框架
15
作者 钟震宇 林勇良 +3 位作者 王昊天 李东闻 孙羽菲 张玉志 《计算机科学》 CSCD 北大核心 2024年第12期129-136,共8页
训练大规模神经网络通常会出现单个计算节点的内存和计算能力不足的情况,需要通过多个节点分布式训练来实现。现有的分布式深度学习框架主要针对特定的硬件环境设计,不能够有效适应各类通用计算设备。为支持大规模深度神经网络的高效训... 训练大规模神经网络通常会出现单个计算节点的内存和计算能力不足的情况,需要通过多个节点分布式训练来实现。现有的分布式深度学习框架主要针对特定的硬件环境设计,不能够有效适应各类通用计算设备。为支持大规模深度神经网络的高效训练,实现了一种通用的自动流水线并行分布式训练框架。本框架通过结合基于流水线并行的模型并行策略与神经网络模型自动拆分算法,实现了在包括国内新一代超级计算机在内的通用计算机集群上,对大规模神经网络模型与训练数据进行自动并行化处理和训练,显著减轻单个计算节点的内存和计算压力。该框架无需人工调整,可以自动高效地在多节点分布式环境中部署深度神经网络,不仅适用于超级计算机等高性能计算机集群,还可以部署到其他通用的分布式计算环境中,为大规模神经网络的自动化分布式训练提供支持。 展开更多
关键词 流水线并行 深度神经网络 超级计算机 MPI 并行计算
在线阅读 下载PDF
Accelerated Elliptical PDE Solver for Computational Fluid Dynamics Based on Configurable U-Net Architecture: Analogy to V-Cycle Multigrid
16
作者 Kiran Bhaganagar David Chambers 《Machine Intelligence Research》 2025年第2期324-336,共13页
A configurable U-Net architecture is trained to solve the multi-scale elliptical partial differential equations.The motivation is to improve the computational cost of the numerical solution of Navier-Stokes equations... A configurable U-Net architecture is trained to solve the multi-scale elliptical partial differential equations.The motivation is to improve the computational cost of the numerical solution of Navier-Stokes equations–the governing equations for fluid dynamics.Building on the underlying concept of V-Cycle multigrid methods,a neural network framework using U-Net architecture is optimized to solve the Poisson equation and Helmholtz equations–the characteristic form of the discretized Navier-Stokes equations.The results demonstrate the optimized U-Net captures the high dimensional mathematical features of the elliptical operator and with a better convergence than the multigrid method.The optimal performance between the errors and the FLOPS is the(3,2,5)case with 3 stacks of UNets,with 2 initial features,5 depth layers and with ELU activation.Further,by training the network with the multi-scale synthetic data the finer features of the physical system are captured. 展开更多
关键词 Configurable U-Net architecture neural network methods for elliptical equations multi-scale partial differential equations Poisson and Helmholtz equation solvers computational fluid dynamics solutions.
原文传递
深度神经网络并行化研究综述 被引量:60
17
作者 朱虎明 李佩 +2 位作者 焦李成 杨淑媛 侯彪 《计算机学报》 EI CSCD 北大核心 2018年第8期1861-1881,共21页
神经网络是人工智能领域的核心研究内容之一.在七十年的发展历史中,神经网络经历了从浅层神经网络到深度神经网络的重要变革.深度神经网络通过增加模型深度来提高其特征提取和数据拟合的能力,在自然语言处理、自动驾驶、图像分析等问题... 神经网络是人工智能领域的核心研究内容之一.在七十年的发展历史中,神经网络经历了从浅层神经网络到深度神经网络的重要变革.深度神经网络通过增加模型深度来提高其特征提取和数据拟合的能力,在自然语言处理、自动驾驶、图像分析等问题上相较浅层模型具有显著优势.随着训练数据规模的增加和模型的日趋复杂,深度神经网络的训练成本越来越高,并行化成为增强其应用时效性的重要技术手段.近年来计算平台的硬件架构更新迭代,计算能力飞速提高,特别是多核众核以及分布式异构计算平台发展迅速,为深度神经网络的并行化提供了硬件基础;另一方面,日趋丰富的并行编程框架也为计算设备和深度神经网络的并行化架起了桥梁.该文首先介绍了深度神经网络发展背景和常用的计算模型,然后对多核处理器、众核处理器和异构计算设备分别从功耗、计算能力、并行算法的开发难度等角度进行对比分析,对并行编程框架分别从支持的编程语言和硬件设备、编程难度等角度进行阐述.然后以AlexNet为例分析了深度神经网络模型并行和数据并行两种方法的实施过程.接下来,从支持硬件、并行接口、并行模式等角度比较了常用的深度神经网络开源软件,并且通过实验比较和分析了卷积神经网络在多核CPU和GPU上的并行性能.最后,对并行深度神经网络的未来发展趋势和面临的挑战进行展望. 展开更多
关键词 深度神经网络 并行计算 异构计算 模型并行 数据并行
在线阅读 下载PDF
神经网络七十年:回顾与展望 被引量:385
18
作者 焦李成 杨淑媛 +2 位作者 刘芳 王士刚 冯志玺 《计算机学报》 EI CSCD 北大核心 2016年第8期1697-1716,共20页
作为联接主义智能实现的典范,神经网络采用广泛互联的结构与有效的学习机制来模拟人脑信息处理的过程,是人工智能发展中的重要方法,也是当前类脑智能研究中的有效工具.在七十年的发展历程中,神经网络曾历经质疑、批判与冷落,同时也几度... 作为联接主义智能实现的典范,神经网络采用广泛互联的结构与有效的学习机制来模拟人脑信息处理的过程,是人工智能发展中的重要方法,也是当前类脑智能研究中的有效工具.在七十年的发展历程中,神经网络曾历经质疑、批判与冷落,同时也几度繁荣并取得了许多瞩目的成就.从20世纪40年代的M-P神经元和Hebb学习规则,到50年代的Hodykin-Huxley方程、感知器模型与自适应滤波器,再到60年代的自组织映射网络、神经认知机、自适应共振网络,许多神经计算模型都发展成为信号处理、计算机视觉、自然语言处理与优化计算等领域的经典方法,为该领域带来了里程碑式的影响.目前,模拟人脑复杂的层次化认知特点的深度学习已经成为类脑智能中的一个重要研究方向.通过增加网络层数所构造的"深层神经网络"使机器能够获得"抽象概念"能力,在诸多领域都取得了巨大的成功,又掀起了神经网络研究的一个新高潮.文中回顾了神经网络的发展历程,综述了其当前研究进展以及存在的问题,展望了未来神经网络的发展方向. 展开更多
关键词 类脑智能 神经网络 深度学习 大数据 并行计算 机器学习
在线阅读 下载PDF
结构分析和设计中神经网络计算研究评述 被引量:9
19
作者 高行山 李红达 叶天麒 《计算力学学报》 CAS CSCD 2000年第2期223-228,共6页
综述了工程结构分析和设计中神经网络计算研究的现状与趋势 ,指出了进一步发展神经计算的策略及方向。
关键词 结构分析 神经网络 并行计算
在线阅读 下载PDF
基于模拟退火的并行粒子群优化研究 被引量:45
20
作者 王华秋 曹长修 《控制与决策》 EI CSCD 北大核心 2005年第5期500-504,共5页
针对粒子群优化(PSO)容易陷入局部极小,提出将模拟退火(SA)引入并行PSO算法.这种模拟退火并行粒子群算法,结合了并行粒子群算法的快速寻优能力和SA的概率突跳特性,保持了群体多样性,从而避免了种群退化.针对转炉提钒过程是一个复杂非线... 针对粒子群优化(PSO)容易陷入局部极小,提出将模拟退火(SA)引入并行PSO算法.这种模拟退火并行粒子群算法,结合了并行粒子群算法的快速寻优能力和SA的概率突跳特性,保持了群体多样性,从而避免了种群退化.针对转炉提钒过程是一个复杂非线性反应过程而难以建立终点控制模型的问题,提出了基于模拟退火的并行粒子群RBF网络的辨识模型,优化了RBF核中心个数,从而克服了随机性选择.将该模型用于预测提钒吹氧时间,仿真结果表明预测误差不超过真实值的20%. 展开更多
关键词 并行粒子群优化 模拟退火 径向基网络 转炉提钒
在线阅读 下载PDF
上一页 1 2 5 下一页 到第
使用帮助 返回顶部