排序方式: 共有124条查询结果,搜索用时 0 毫秒
1.
交通预测在智能交通中有着重要的意义和应用.由于交通数据的复杂性和高度的非线性,精确的交通预测的核心挑战在于如何对复杂的空间相关性和时间动态建立模型.在现实生活中,我们发现:1)区域间的空间依赖是动态的;2)时间依赖有日和周的模式,但由于有动态时间变化,它不具有严格周期性.为了解决这两个问题,我们提出了一个新的时空注意力网络(STAN),该模型的主要思想是区域间的动态相似性用一个门控机制学习,长期周期性时间转移现象由一个周期性注意力转移机制来学习,并考虑交通道路、天气状况等外部因素.通过与不同的方法在两个数据集上进行评估,实验结果表明,我们提出的模型有更好的准确性. 相似文献
2.
用光谱分析鉴别生物特征,导致数据量大,而实际需要必须实时处理。偏最小二乘法是使用最广泛的鉴别算法,但是对于大规模数据流该算法无法达到实时性。为了解决这个应用矛盾,提出了一种基于NVIDIA CUDA架构下的并行计算策略,利用具有大规模并行计算特征的图形处理器(GPU)作为计算设备,结合GPU存储器的优势实现了偏最小二乘算法。实验的测试结果表明,在GPU上使用CUDA实现的偏最小二乘算法比在CPU上实现该算法快了47倍,性能得到了显著提高,从而使偏最小二乘算法应用于大规模数据流处理成为可能。 相似文献
3.
4.
随着边缘计算的发展,边缘节点的计算规模不断增加,现有的边缘设备难以搭载深度神经网络模型,网络通信与云端服务器承受着巨大压力。为解决上述问题,通过对Roofline模型进行改进,借助新模型对边缘设备的性能与网络环境进行动态评估。根据评估指标,对神经网络模型进行分离式拆分,部分计算任务分配给边缘节点完成,云端服务器结合节点返回数据完成其它任务。该方法基于节点自身性能与网络环境,进行动态任务分配,具有一定兼容性与鲁棒性。实验结果表明,基于边缘节点的深度神经网络任务分配方法可在不同环境中利用设备的闲置性能,大幅度降低中心服务器的计算负载。 相似文献
5.
6.
在边缘计算场景中,GPU集群需要应对终端设备所产生的数量庞大的AI计算任务.AI计算任务在边缘GPU集群内的响应耗时不仅包括计算时间,还包括数据传输和排队等待延时.因此,任务数据传输和AI数据流调度也是影响GPU集群数据处理性能的关键因素.传统网络协议栈的低效率和专用高速网络设备的高成本,并不适用于边缘场景中大规模AI数据流的实时处理.本文基于DPDK技术提出多核多网卡的并行通信机制,利用集群空闲的CPU资源加快数据传输;兼顾节点计算能力和网络负载分析节点实时处理能力制定数据流分配策略,并实现了由数据接入量驱动的动态多核多缓冲区模型,减少了任务计算的等待时间.实验结果表明,提出的通信调度方案不仅能够增加约30%的集群数据流容量,而且带宽利用率能够达到90%;在总AI任务量相同的情况下,归功于DPDK高效的数据包处理能力,避免了大量的AI任务因传输失败而被丢弃的情况. 相似文献
7.
如今,外出旅行占据了人们解压方式的很大比重.拥有一个(些)志同道合的旅行玩伴成为了旅行能否舒心的一个重要因素.结合众包思想,用户发布结伴需求(用户可成为众包的任务发布者也可以成为任务的执行者),平台为用户匹配志同道合的玩伴,用户及其玩伴共同执行出去游玩任务,这样,在保证旅行质量的前提下,可以节省用户的金钱,实现资源共享,具有很好的现实意义.因此,本文提出了一个基于用户兴趣的玩伴匹配算法CGA(Car Group Allocation),根据仿真的用户历史访问数据为用户匹配具有相似兴趣的其他用户,且提出了用户根据意愿选择是否提供交通工具,也可以选择是否服从调剂,同时提供车辆的用户可以根据需求决定车辆剩余位置等现实因素.该算法采用真实的POIs(points of interest)点,仿真用户兴趣以及结伴需求,结合现实情况下的约束,运用蚁群算法迭代,为用户匹配相似度最高的群体.实验证明了本模型的有效性. 相似文献
8.
9.
10.