期刊文献+
共找到74篇文章
< 1 2 4 >
每页显示 20 50 100
MRNDA:一种基于资源受限片上网络的深度神经网络加速器组播机制研究
1
作者 欧阳一鸣 王奇 +2 位作者 汤飞扬 周武 李建华 《电子学报》 EI CAS CSCD 北大核心 2024年第3期872-884,共13页
片上网络(Network-on-Chip,NoC)在多处理器系统中得到了广泛的应用.近年来,有研究提出了基于NoC的深度神经网络(Deep Neural Network,DNN)加速器.基于NoC的DNN加速器设计利用NoC连接神经元计算设备,能够极大地减少加速器对片外存储的访... 片上网络(Network-on-Chip,NoC)在多处理器系统中得到了广泛的应用.近年来,有研究提出了基于NoC的深度神经网络(Deep Neural Network,DNN)加速器.基于NoC的DNN加速器设计利用NoC连接神经元计算设备,能够极大地减少加速器对片外存储的访问从而减少加速器的分类延迟和功耗.但是,若采用传统的单播NoC,大量的一对多数据包会极大的提高加速器的通信延迟.并且,目前的深度神经网络规模往往非常庞大,而NoC的核心数量是有限的.因此,文中提出了一种针对资源受限的NoC的组播方案.该方案利用有限数量的处理单元(Processor Element,PE)来计算大型的DNN,并且利用特殊的树形组播加速网络来减少加速器的通信延迟.仿真结果表明,和基准情况相比,本文提出的组播机制使加速器的分类延迟最高降低了86.7%,通信延迟最高降低了88.8%,而它的路由器面积和功耗仅占基准路由器的9.5%和10.3%. 展开更多
关键词 片上网络 深度神经网络加速器 组播 路由器架构 多物理网络
在线阅读 下载PDF
基于神经网络加速器的FPGA语音情感识别系统
2
作者 乔栋 陈章进 +1 位作者 邓良 张廓 《计算机应用与软件》 北大核心 2024年第10期163-169,246,共8页
针对现有语音情感识别系统的部署功耗高、不具有便携性的缺点,提出一种基于神经网络加速器的FPGA语音情感识别系统设计。在FPGA上实现语音MFCC(Mel Frequency Cepstrum Coefficient)特征的提取,便于进行识别;为神经网络加速器设计指令... 针对现有语音情感识别系统的部署功耗高、不具有便携性的缺点,提出一种基于神经网络加速器的FPGA语音情感识别系统设计。在FPGA上实现语音MFCC(Mel Frequency Cepstrum Coefficient)特征的提取,便于进行识别;为神经网络加速器设计指令生成算法,将网络模型部署在神经网络加速器实现语音情感识别。整个系统主要硬件资源消耗为37078个LUT和153个DSP,支持在主流FPGA平台上的部署。经过检验,语音情感识别系统的指令运算误差可达0.06以下,输出误差为0.0004以下,满足语音情感识别的需求。 展开更多
关键词 MFCC 语音情感识别 神经网络加速器 FPGA
在线阅读 下载PDF
基于拟神经突触的概率计算神经网络加速器
3
作者 闫家均 熊兴中 +2 位作者 黄见 周义卓 邵子扬 《电子设计工程》 2024年第12期10-16,共7页
深度卷积神经网络是人工智能应用中最有前途的神经网络类别之一。但是与其性能相关的计算量和计算复杂度也呈现爆炸式增长,导致了实现的高功耗和巨大的硬件成本。因此,研究基于概率计算空间编码的思想,使用电路中信号线密度模拟神经突... 深度卷积神经网络是人工智能应用中最有前途的神经网络类别之一。但是与其性能相关的计算量和计算复杂度也呈现爆炸式增长,导致了实现的高功耗和巨大的硬件成本。因此,研究基于概率计算空间编码的思想,使用电路中信号线密度模拟神经突触可塑性的工作原理,将传统乘法器复杂的运算变成了简单线与的低复杂度方式,实现了一种拟神经突触概率乘法器。并以此为基础,实现了基于多段分解的空间并行高精度概率乘法器,并提出了一种以突触可塑性计算单元为基础的低复杂度、低开销的神经网络加速器。实验使用该概率乘法器基于LeNet-5网络在MNIST上和基于VGG13的CIFAR-10上分别达到了97.99%和85.21%的正确率,与传统乘法器相比,降低了面积和功耗,提升了运行速度。同比其他神经网络加速器,提高了吞吐量、面积效率、功率效率。 展开更多
关键词 突触可塑性 神经网络加速器 概率计算 概率乘法器
在线阅读 下载PDF
Bi-SCNN:二值随机混合神经网络加速器
4
作者 于启航 文渊博 杜子东 《高技术通讯》 北大核心 2024年第12期1243-1255,共13页
二值神经网络(BNN)具有硬件友好的特性,但为了保证计算精度,在输入层仍需要使用浮点或定点计算,增加了硬件开销。针对该问题,本文将另一种同样具有硬件友好特性的随机计算方法应用于BNN,实现了BNN输入层的高效计算,并设计了二值随机混... 二值神经网络(BNN)具有硬件友好的特性,但为了保证计算精度,在输入层仍需要使用浮点或定点计算,增加了硬件开销。针对该问题,本文将另一种同样具有硬件友好特性的随机计算方法应用于BNN,实现了BNN输入层的高效计算,并设计了二值随机混合计算架构Bi-SCNN。首先,在BNN输入层使用高精度的随机运算单元,实现了与定点计算近似的精度;其次,通过在处理单元(PE)内和PE间2个层次对随机数生成器进行复用,并优化运算单元,有效降低了硬件开销;最后,根据输入数据的特性对权值配置方式进行优化,进而降低了整体计算延迟。相比于现有性能最优的BNN加速器,Bi-SCNN在保证计算精度的前提下,实现了2.4倍的吞吐量、12.6倍的能效比和2.2倍的面积效率提升,分别达到2.2 TOPS、7.3 TOPS·W^(-1)和1.8 TOPS·mm^(-2)。 展开更多
关键词 二值神经网络(BNN) 随机计算(SC) 神经网络加速器
在线阅读 下载PDF
基于卷积网络加速器的FPGA数据处理研究 被引量:1
5
作者 李政清 穆继亮 《计算机仿真》 北大核心 2022年第3期244-248,共5页
在FPGA数据处理应用场合中,引入神经网络能够提高数据特征的学习能力。但是基于非嵌入式的神经网络在运算过程中通常具有显著的复杂性和稀疏性,难以直接应用于FPGA上。于是,为了提高FPGA在数据处理时的并行性和高效性,设计了基于卷积网... 在FPGA数据处理应用场合中,引入神经网络能够提高数据特征的学习能力。但是基于非嵌入式的神经网络在运算过程中通常具有显著的复杂性和稀疏性,难以直接应用于FPGA上。于是,为了提高FPGA在数据处理时的并行性和高效性,设计了基于卷积网络加速器的FPGA数据处理架构。首先对卷积网络的层进行优化设计,采用ReLU函数来加速卷积层的收敛,同时采用平均池化方案增强网络适应性,通过卷积的尺度变换对特征图采取压缩,达到在一个层中并行计算的目的。然后对FPGA的处理模块和缓存模块进行优化设计,判定器对有效数据的权值索引和计数等参数采取验证,将大量的乘加操作递交给FPGA的DSP来处理;对特征图及其中间变量采取BRAM缓存,根据横向、纵向,以及深度分别采取分配。最后,对加速器执行过程中FPGA的资源利用和执行时间进行分析,通过资源和时间因素对加速器执行过程采取调整。实验结果表明,基于卷积网络加速器的FPGA数据处理方案提高了FPGA的资源利用率和有效算力,无论是在不同平台或是不同加速器的对比情况下,都能够获得更为优秀的数据处理性能。 展开更多
关键词 卷积网络加速器 特征权值 并行计算 数据处理
在线阅读 下载PDF
新树型网络加速器的研究与实现
6
作者 张志立 齐德昱 龙颂潜 《计算机工程》 CAS CSCD 北大核心 2007年第20期4-7,共4页
基于缓存间协同工作的思想,提出一种新的树型网络加速器(TIA),探讨了关键技术,包括扩大查询范围、增强层次连接、使用动态双亲、对象快速定位等。研究了改善层次缓存性能的元算法,开发并实现了能够稳定运行的网络加速器系统,基于日志驱... 基于缓存间协同工作的思想,提出一种新的树型网络加速器(TIA),探讨了关键技术,包括扩大查询范围、增强层次连接、使用动态双亲、对象快速定位等。研究了改善层次缓存性能的元算法,开发并实现了能够稳定运行的网络加速器系统,基于日志驱动的试验表明TIA具有良好的加速效果。 展开更多
关键词 树型网络加速器 协同缓存 网络加速 元算法
在线阅读 下载PDF
基于RTLINUX的网络加速器
7
作者 陈健 陈文智 《计算机应用与软件》 CSCD 北大核心 2001年第6期11-14,55,共5页
Internet的普及和发展,给人们带来了许多意想不到的好处。同时也存在着上网速度慢、链路拥塞、安全性不高等问题。本文介绍了一种软硬件结合的网络加速器,它以X86PC为硬件平台,运行于RTLINUX,采用独特的文件管理系统以及Cache算法。实... Internet的普及和发展,给人们带来了许多意想不到的好处。同时也存在着上网速度慢、链路拥塞、安全性不高等问题。本文介绍了一种软硬件结合的网络加速器,它以X86PC为硬件平台,运行于RTLINUX,采用独特的文件管理系统以及Cache算法。实验证明,这种加速器能够较好地应用于企业上网,ICP或ISP环境中。 展开更多
关键词 INTERNET 网络加速器 RTLINUX 文件管理系统
在线阅读 下载PDF
基于自动网络加速器的云计算能耗降低的方法研究
8
作者 吴国芳 《计算机测量与控制》 北大核心 2014年第12期4143-4146,共4页
虚拟计算机在云计算中被广泛使用时,会导致用户到服务器的距离比以前更长,引起虚拟计算机的性能退化,这会带来服务质量的恶化和ICT(information communication technology)设备能源消耗的增加;针对该问题,提出了把网络加速器自动应用到... 虚拟计算机在云计算中被广泛使用时,会导致用户到服务器的距离比以前更长,引起虚拟计算机的性能退化,这会带来服务质量的恶化和ICT(information communication technology)设备能源消耗的增加;针对该问题,提出了把网络加速器自动应用到云计算网络中的方法;为了使用当前主流的网络加速器,方案采用了基于mSCTP的数据传输,该协议在迁移前后使用不同的传输控制协议(TCP)连接的;文章没有考虑动态迁移本身会使虚拟计算机的性能退化,实验结果表明,虽然需要安装网络加速器作为云资源的一部分并暂时地增加通信链路的数据包传输速度,但是文章提出的使用网络加速器方法,可明显地降低ICT设备的能源消耗,其降低量是原来不使用网络加速器时的1/3。 展开更多
关键词 云计算 网络加速器 能源消耗 服务性能 动态迁移
在线阅读 下载PDF
华为昇腾神经网络加速器性能评测与优化 被引量:10
9
作者 鲁蔚征 张峰 +3 位作者 贺寅烜 陈跃国 翟季冬 杜小勇 《计算机学报》 EI CAS CSCD 北大核心 2022年第8期1618-1637,共20页
华为昇腾是一款新型神经网络加速器.与GPU相比,昇腾加速器专门面向神经网络计算,设计了专用计算单元,核心算力集中在低精度,基于昇腾的软件栈与GPU有所差异.现有研究大多专注于GPU上的深度学习负载性能分析和优化,由于昇腾平台推出不久... 华为昇腾是一款新型神经网络加速器.与GPU相比,昇腾加速器专门面向神经网络计算,设计了专用计算单元,核心算力集中在低精度,基于昇腾的软件栈与GPU有所差异.现有研究大多专注于GPU上的深度学习负载性能分析和优化,由于昇腾平台推出不久且具有新的体系结构特征,其实际表现仍有待探索.为深入挖掘昇腾的性能和优化方法,本文对其进行了系统性的评测和分析,包括:(1)基于标准数据集在四个端到端神经网络(ResNet、Transformer、DeepFM和LSTM)上对昇腾和GPU的性能和功耗进行了对比;(2)研究了昇腾上深度学习框架、算子和混合精度训练优化策略;(3)测试三个计算密集型算子(全连接、卷积和RNN)的浮点计算能力、硬件利用率和访存性能.评测结果表明:华为昇腾加速器适合进行稠密型神经网络工作负载,且功耗低于GPU;使用昇腾进行模型训练,需要将神经网络模型从32位精度量化到16位精度.针对昇腾的体系结构和编译软件栈特点,本文提出如下优化策略:深度学习框架开发时应进行整图编译构建,进行算子融合;算子开发时应合理设置分块大小,尽量使用低精度实现算子;模型训练时要合理设置混合精度参数. 展开更多
关键词 深度学习 神经网络加速器 华为昇腾 高性能计算 评测基准
在线阅读 下载PDF
UCLA网络加速器路由表快速查找改进模型
10
作者 孟繁杰 刘庆文 +1 位作者 胡玥 张铁壁 《计算机工程与应用》 CSCD 北大核心 2004年第27期138-141,232,共5页
论文针对网络服务的应用,研究了UCLA设计的网络加速器模型,发现UCLA网络加速器设计在某些情况下得到较多不合理的下一跳出口地址,减低了加速器的性能。通过增加运算符改进加速器的运算,减少了所查找的路由表的出口数目,能更准确地定位... 论文针对网络服务的应用,研究了UCLA设计的网络加速器模型,发现UCLA网络加速器设计在某些情况下得到较多不合理的下一跳出口地址,减低了加速器的性能。通过增加运算符改进加速器的运算,减少了所查找的路由表的出口数目,能更准确地定位下一跳的位置,提高了加速器的效率。 展开更多
关键词 网络处理器 网络加速器 radix树 路由表查找
在线阅读 下载PDF
基于FPGA模拟的阻变神经网络加速器评估方法 被引量:2
11
作者 石永泉 景乃锋 《计算机工程》 CAS CSCD 北大核心 2021年第12期209-214,共6页
基于阻变器件的存算一体神经网络加速器需在架构设计初期进行仿真评估,确保神经网络精度符合设计要求,但传统阻变神经网络加速器的软件模拟器运行速度较慢,难以应对大规模网络的架构评估需求。为加快仿真评估速度,设计一种基于现场可编... 基于阻变器件的存算一体神经网络加速器需在架构设计初期进行仿真评估,确保神经网络精度符合设计要求,但传统阻变神经网络加速器的软件模拟器运行速度较慢,难以应对大规模网络的架构评估需求。为加快仿真评估速度,设计一种基于现场可编程门阵列(FPGA)模拟的阻变神经网络加速器评估方法,分析现有阻变神经网络加速器的架构通用性,利用FPGA资源的高度并行性和运行时指令驱动的灵活模拟方式,通过硬件资源的分时复用实现多层次存算一体架构和指令集的功能模拟及主流神经网络的快速性能评估。实验结果表明,针对不同规模的忆阻器阵列和深度神经网络,该评估方法相比MNSIM和DNN NeuroSim软件模拟器运行速度分别提升了40.0~252.9倍和194.7~234.2倍。 展开更多
关键词 神经网络加速器 存算一体 现场可编程门阵列 忆阻器 模拟器 深度神经网络
在线阅读 下载PDF
神经网络加速器指令控制系统设计 被引量:2
12
作者 焦峰 马瑶 +1 位作者 毕思颖 马钟 《微电子学与计算机》 2022年第8期78-85,共8页
深度神经网络在图像语音智能化处理领域的应用越来越广泛,但其算子、参数类型多,计算、存储密集大的特点制约了在航空航天、移动智能终端等嵌入式场景中的应用.针对这一问题,提出了解耦输入数据流,进行高效流水并行处理的思路,设计了一... 深度神经网络在图像语音智能化处理领域的应用越来越广泛,但其算子、参数类型多,计算、存储密集大的特点制约了在航空航天、移动智能终端等嵌入式场景中的应用.针对这一问题,提出了解耦输入数据流,进行高效流水并行处理的思路,设计了一种神经网络加速器指令控制系统.不同算子的输入数据循环分块后,对应到指令组配置中,多状态机协同完成指令信息三阶段分发控制,实现指令解析、数据输入、计算、数据输出四级并行流水,充分利用分块内的数据复用机会,减少访存带宽及流水周期空闲率.将其部署在ZCU102开发板上,测试中支持常见的多种神经网络层类型和宽范围参数配置.频率为200 M时,峰值算力800 GOPS,运行VGG16网络模型,实际测试运行算力为489.4 GOPS,功耗4.42 W,能效比为113.3 GOPS/W,优于调研对比的同类神经网络加速器和CPU、GPU.实验结果表明,分解数据流,采用指令调度实现高效并行流水的方法解决了通用性和能效比两大难题,基于此方法设计的指令控制系统,可为神经网络加速器的嵌入式平台应用提供方案. 展开更多
关键词 深度神经网络 神经网络加速器 指令控制系统 通用性 能效比
在线阅读 下载PDF
面向舰船检测的神经网络加速器设计
13
作者 肖奇 程利甫 +2 位作者 蒋仁兴 柳宜川 王琴 《制导与引信》 2020年第3期11-17,45,共8页
针对卫星遥感图像的舰船目标检测需求,设计了基于现场可编程门阵列(Field Programmable Gate Array,FPGA)的卷积神经网络(Convolution Neural Network,CNN)加速器。运算单元采用多层次并行化结构,底层采用乘法器级并行结构,使用行缓存... 针对卫星遥感图像的舰船目标检测需求,设计了基于现场可编程门阵列(Field Programmable Gate Array,FPGA)的卷积神经网络(Convolution Neural Network,CNN)加速器。运算单元采用多层次并行化结构,底层采用乘法器级并行结构,使用行缓存单元优化数据流;顶层采用模块级并行结构,可灵活调整输出通道的并行度。针对片外数据访问延时高的问题,提出了基于FPGA块随机存储器(Block Random Access Memory,BRAM)的阵列式片上数据缓存单元,保证数据的实时读取和数据流的灵活分配。实验结果表明:加速器移植到Xilinx KC705开发平台,工作频率达100 MHz,平均吞吐率为217 GOPS,能效比为86.8 GOPS/W,对连续遥感舰船图像的检测速率可达105帧/秒。 展开更多
关键词 舰船目标检测 卷积神经网络加速器 现场可编程门阵列 并行计算
在线阅读 下载PDF
PowerVR Series2NX神经网络加速器内核为性能和成本效益树立标准
14
《电子测量技术》 2018年第12期123-123,共1页
通过在边缘设备上添加低成本的AI功能,为消费者带来全新级别的智能应用2018年6月8日,英国伦敦和中国北京-Imagination Technologies宣布推出两款神经网络内核AX2185和AX2145,其设计目的是在极小芯片面积上以极低功耗实现神经网络高性能... 通过在边缘设备上添加低成本的AI功能,为消费者带来全新级别的智能应用2018年6月8日,英国伦敦和中国北京-Imagination Technologies宣布推出两款神经网络内核AX2185和AX2145,其设计目的是在极小芯片面积上以极低功耗实现神经网络高性能计算。这两款内核是基于Imagination革命性的神经网络加速器(NNA)架构PowerVR Series2NX设计的,该架构可以使"智能"从云端转移至边缘设备,从而实现更高的效率和实时响应。 展开更多
关键词 网络加速器 神经网络 性能计算 成本效益 内核 标准 芯片面积 实时响应
在线阅读 下载PDF
多功能网络加速器SPEEDNET
15
作者 陆澄睿 《软件》 2001年第8期29-29,共1页
在用过各种各样的网络加速工具之后,如果你还是对上网浏览、下载的速度感到不满意,那么现在不妨试试SpeedNet。SpeedNet是一个获得过美国《PC World》杂志编辑选择奖、号称能提升上网速度达到600%的优秀的多功能网络加速软件。之所以... 在用过各种各样的网络加速工具之后,如果你还是对上网浏览、下载的速度感到不满意,那么现在不妨试试SpeedNet。SpeedNet是一个获得过美国《PC World》杂志编辑选择奖、号称能提升上网速度达到600%的优秀的多功能网络加速软件。之所以称其为“多功能”,是因为它除网络加速功能外,还具有下载管理、IP解析、网络安全防护等多种实用功能。 展开更多
关键词 多功能网络加速器 SpeedNet 计算机网络
在线阅读 下载PDF
Imagination发布PowerVR NNA神经网络加速器
16
《单片机与嵌入式系统应用》 2017年第11期86-86,共1页
Imagination Technologies宣布推出完整、独立式的硬件IP神经网络加速器,通过神经网络(NN)专用的PowerVR架构实现,可提供业界领先的面积效率。为移动、监控、汽车与消费系统开发SoC的公司将能以非常低的功耗,在最小的芯片面积中集... Imagination Technologies宣布推出完整、独立式的硬件IP神经网络加速器,通过神经网络(NN)专用的PowerVR架构实现,可提供业界领先的面积效率。为移动、监控、汽车与消费系统开发SoC的公司将能以非常低的功耗,在最小的芯片面积中集成新款PowerVR Series2NX NNA神经网络加速器,以实现神经网络的高性能运算。 展开更多
关键词 网络加速器 神经网络 芯片面积 消费系统 SOC 硬件 架构 移动
在线阅读 下载PDF
基于ReRAM的神经网络加速器发展概况
17
作者 周川波 《西部广播电视》 2018年第24期246-251,共6页
本文关注2016年体系结构领域两个重要的峰会ISCA和MICRO,简单介绍了这两个会议有关神经网络加速器的研究成果,重点关注了基于金属氧化物的电阻式随机访问存储器(Metal-oxide Resistive Random Access Memory,ReRAM)的有关文章。参照计... 本文关注2016年体系结构领域两个重要的峰会ISCA和MICRO,简单介绍了这两个会议有关神经网络加速器的研究成果,重点关注了基于金属氧化物的电阻式随机访问存储器(Metal-oxide Resistive Random Access Memory,ReRAM)的有关文章。参照计算机系统层次化结构,本文首先介绍了Re RAM的原理和结构,然后介绍了基于Re RAM设计的简单神经网络架构,该架构仅仅支持30个连接权重,支持神经网络十分有限。PRIME架构极大地扩展了对神经网络计算的支持,针对不同网络(多层感知器,卷积神经网络)和较大规模数据集(MNIST)都取得了较好的实验效果。PRIME虽然对神经网络加速效果较好,但是其提供的软硬件接口仍然只针对PRIME架构本身,缺乏扩展性。NEUTRAMS工具集是为了消除硬件约束提出来,该工具集通过仿真层对硬件的抽象,使得在表示层设计的神经网络不需要修改即可实现在不同硬件架构上移植。实验均证明了上述方法的有效性。 展开更多
关键词 神经网络加速器 RERAM PRIME NEUTRAMS 深度学习
在线阅读 下载PDF
PowerVR Series3NX神经网络加速器为嵌入式人工智能带来多核可扩展性
18
《单片机与嵌入式系统应用》 2019年第1期94-94,共1页
Imagination Technologies推出其面向人工智能(AI)应用的最新神经网络加速器(NNA)架构PowerVR Series3NX。基于屡获殊荣的前代产品,新版Series3NX提供了无与伦比的可扩展性,使系统级芯片(SoC)制造商能够针对诸如汽车、移动设备、智能视... Imagination Technologies推出其面向人工智能(AI)应用的最新神经网络加速器(NNA)架构PowerVR Series3NX。基于屡获殊荣的前代产品,新版Series3NX提供了无与伦比的可扩展性,使系统级芯片(SoC)制造商能够针对诸如汽车、移动设备、智能视频监控和物联网边缘设备等一系列嵌入式市场去优化计算能力和性能。 展开更多
关键词 网络加速器 可扩展性 人工智能 嵌入式 神经 多核 能带 智能视频监控
在线阅读 下载PDF
新图形、新AI解析Imagination新一代GPU及神经网络加速器
19
作者 张平(文/图) 《微型计算机》 2019年第1期89-92,共4页
Imagination是图形业界的老玩家了。说起来最近一次Imagination受到从行业到终端用户的关注,还是苹果宣布全面使用自研GPU架构,放弃使用Imagination授权的消息被爆出的时候,彼时Imagination的股票暴跌,大家都对这家企业的未来发展表示... Imagination是图形业界的老玩家了。说起来最近一次Imagination受到从行业到终端用户的关注,还是苹果宣布全面使用自研GPU架构,放弃使用Imagination授权的消息被爆出的时候,彼时Imagination的股票暴跌,大家都对这家企业的未来发展表示担忧。不过在经过一些财务运作之后,Imagination找好了新东家,又继续在产业道路上努力。这一次,Imagination带来的是全新第九代PowerVR的高端产品系列GPU和第三代神经网络加速器。 展开更多
关键词 网络加速器 GPU 图形 神经 解析 AI 终端用户 第三代
在线阅读 下载PDF
G-CDN网络加速器对等待说NO!
20
作者 高强 《在线技术》 2005年第5期109-109,共1页
美国Zona Reserch公司通过调查提出的“八秒定律”表明。超过30%的消费者如果在访问Web网页时等待超过8秒就会感到不耐烦。如果下载需要太长时间就会放弃。若是普通网民,大不了埋怨两句,但对商家而言,这些等待时间就意味着丧失了很... 美国Zona Reserch公司通过调查提出的“八秒定律”表明。超过30%的消费者如果在访问Web网页时等待超过8秒就会感到不耐烦。如果下载需要太长时间就会放弃。若是普通网民,大不了埋怨两句,但对商家而言,这些等待时间就意味着丧失了很多潜在客户和交易。 展开更多
关键词 网络加速器 对等 WEB网页 等待时间 消费者 长时间 下载
在线阅读 下载PDF
上一页 1 2 4 下一页 到第
使用帮助 返回顶部