共查询到12条相似文献,搜索用时 62 毫秒
1.
为了解决无状态加速器对有状态虚拟网络功能(Virtual Network Function,VNF)的加速效果较差的问题,该文提出了一种基于可编程硬件的有状态功能处理加速架构(Stateful Function Processing Acceleration Architecture,SFPA).SFPA通过为数据平面提供有状态处理单元(Staeful Processing Unit,SPU),将数据包处理任务卸载到数据平面上.此外,SFPA能够为多个VNF独立地分配加速资源,并采用资源分配优化算法降低硬件资源开销,提高了加速架构的灵活性.基于NetFPGA-10G平台的实验结果表明,SFPA架构下,VNF的吞吐量是采用DPDK加速时的2.9倍,是无状态硬件加速器的1.7倍;资源分配优化算法的优化率最高可达41.9%. 相似文献
2.
未来网络体系结构创新和验证亟需建设虚拟化网络实验平台,虚拟路由器作为其中的核心组网设备,其结构和性能决定了实验平台的灵活性和承载能力.本文提出基于并行流水线的虚拟路由器数据平面结构,结合并行包分类和异步多指针轮询调度机制,在同一物理底层上实现了多个相互隔离的并行异构路由器.本设计在可编程硬件上进行了原型实现,并结合商用及软件路由器在真实的网络环境中部署、测试与实验.实验结果表明与传统单流水线结构相比,本设计能以更高灵活性和并行性支持异构的路由器实例独立运行;在逻辑资源开销和延时特性未显著增加的情况下,并行虚拟路由器可以达到与硬件可比的线速转发能力. 相似文献
3.
4.
5.
网络虚拟化允许多个虚拟网络在同一物理基础设施上共存,有利于未来网络技术的增量部署。然而,当前可编程数据平面提供独占的数据平面抽象难以同时支持多个网络功能,该文提出一种支持并行流水线的虚拟化可编程数据平面结构(Virtualized P4-based Programmable Data Plane architecture with Parallel Pipeline,VirtP6),允许在单个物理设备上运行多个相互隔离的网络功能。VirtP6改变了可编程数据平面的单一流水线结构,引入并行的多个数据包处理流水线,实现了可编程数据平面的虚拟化,并保证了不同虚拟网络功能之间的资源隔离、流量隔离和访问隔离。最后,针对VirtP6的虚拟化开销、隔离性、可扩展性、网络适用性能进行实验评估。实验结果显示,与HyperP4相比,VirtP6大大降低了虚拟化开销,将延迟减少了68%,吞吐量提高了75%,具有良好的隔离性和扩展性。 相似文献
6.
7.
8.
9.
随着当今时代的发展和科技的进步,研究人员在集成电路的设计和制造工艺上获得了巨大的突破。其中FPGA因其具有独特的并行结构,可以减少运算时间,提高效率的优势而被越来越多开发者的选择,在当今具有重要的作用。早在1960年代,科学家们在研究猫大脑皮层中的神经元对部分敏感和定向的神经元时,他们惊奇的发现反馈神经网络的复杂程度被这独特的网络结构降低了,这引起了科学家们的兴趣。随着他们的深入研究,继而提出了卷积神经网络。卷积神经网络(CNN)作为当下的新兴算法脱颖而出,它的计算方式十分特别因而引起了研究者极大的兴趣,是多层神经网络研究的主攻方向,对于它的深入研究在现在甚至是未来都有很重要的作用,可以用于识别图像,对当今社会具有重要的现实意义和使用价值。权值共享,减少参数数量,在输入我们需要识别的图片后,提取特征获取信息,最后将信息收集起来是卷积神经网络通常使用的方法。这是卷积神经网络通常采取用于识别图像的方法,本文也会更加清楚的说明其基本结构和工作流程,把目前对于卷积神经网络已有研究成果的作为本文研究的基石,深入了解并且研讨卷积神经网络的并行系统构造,探究其运行方法和效益,并且研究FPGA与CNN的结合。 相似文献
10.
11.
针对大流量网络负载下的入侵检测性能瓶颈问题,论文研究和探讨了入侵检测系统的内容检测硬件加速技术,以开源软件Snort为实现平台,采用安全加速芯片对检测系统中最耗费计算资源的特征匹配操作实施加速处理,对实现的硬件加速原型系统给出对比测试实验结果,并进行了分析讨论。 相似文献
12.
The hardware acceleration mechanism for VNF (virtual network function) is recently a hot research topic in SDN/NFV architecture because of the low processing performance of VNF.Once hardware acceleration resources have been plugged into the network,how to optimally mange and orchestrate these resources under service requirements remains a question to be solved.Firstly,a unified management architecture based on separated control for hardware acceleration resources was proposed.Then,traditional network topology together with hardware acceleration resources were modeled into a unified network model and then the hardware acceleration resource orchestration problem was transferred into a multi-objective linear programming problem.Finally,a hardware-accelerator-card-prior’ heuristic algorithm was designed.Experimental results show that compared with existing methods,the proposed orchestration mechanism can efficiently manage hardware acceleration resources and reduce the processing latency by 30%. 相似文献