首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 125 毫秒
1.
改进邻居集合的个性化推荐算法   总被引:4,自引:0,他引:4       下载免费PDF全文
协同过滤算法是目前个性化推荐系统中应用最成功的推荐算法之一,但传统的算法没有考虑在不同时间段内寻找最近邻居问题,导致寻找的邻居集合可能不是最近邻居集合。针对此问题,提出一种改进邻居集合的个性化推荐算法。该算法赋予每项评分一个按时间逐步递减的权重,利用加权后的评分寻找目标用户的最近邻居。实验表明,改进的算法提高了推荐系统的推荐质量。  相似文献   

2.
针对传统协同过滤算法中面临稀疏项目评分矩阵计算耗时不准确、同等对待不同时间段用户的项目评分这些影响推荐精度的问题,提出了基于项目聚类和评分的时间加权协同过滤推荐算法(TCF).该算法将项目评分与项目属性特征综合相似度高的聚到一个类别里,能有效解决数据稀疏性问题,降低生成最近邻居集合时间.引入时间加权函数赋予项目评分按时间递减的权重,根据加权后的评分寻找目标用户的最近邻居集合.实验从平均绝对误差、平均排序分和命中率三个指标来表明改进算法能有效提高推荐的准确性.  相似文献   

3.
一种改进的协同过滤推荐算法   总被引:6,自引:0,他引:6  
王茜  王均波 《计算机科学》2010,37(6):226-228243
传统的协同过滤算法在寻找最近邻居集合时没有考虑时间因素的影响,仅从用户或者项目单方面出发计算用户或者项目的相似性以产生推荐结果,也忽略了用户特征对推荐的影响.针对上述问题,引入时间遗忘函数、黏度函数、用户特征向量,对协同过滤算法寻找用户的最近邻居集合过程进行了改进,体现了时间效应、用户偏好程度和用户特征.采用MovieLens数据集进行了一系列对比实验,结果表明,改进后的算法能够明显提高推荐的准确度.  相似文献   

4.
李斌  张博  刘学军  章玮 《计算机科学》2016,43(12):200-205
协同过滤是现今推荐系统中应用最为成功且最广泛的推荐方法之一,其中概率矩阵分解算法作为一类重要的协同过滤方式,能够通过学习低维的近似矩阵进行推荐。然而,传统的协同过滤推荐算法在推荐过程中只利用用户-项目评分信息,忽略了用户(项目)间的潜在影响力,影响了推荐精度。针对上述问题,首先利用Jaccard相似度对用户(项目)做预处理,而后通过用户(项目)间的位置信息挖掘出其间的潜在影响力,成功找到最近邻居集合;最后将该邻居集合融合到基于概率矩阵分解的协同过滤推荐算法中。实验证明该算法较传统的协同过滤推荐算法能够更有效地预测用户的实际评分,提高了推荐效果。  相似文献   

5.
现有的基于近邻的协同过滤推荐方法如基于KNN、基于K-means的协同过滤推荐常用来预测用户评分,但该方法确定邻居个数K非常困难且推荐准确率不高,难以达到理想推荐效果。从选择邻居用户这一角度出发,提出一种融合用户自然最近邻的协同过滤推荐算法(Collaborative Filtering recommendation integrating user-centric Natural Nearest Neighbor,CF3N),该算法首先自适应地寻找目标用户的自然最近邻居集,再融合目标用户的自然最近邻居集与活动近邻用户集,使用融合后得到的邻居集合预测目标用户评分。实验使用了MovieLens数据集,以RMSE和MAE为评测标准,比较CF3N、CF-KNN与INS-CF算法,结果显示在电影领域该算法的推荐准确率有显著提高。  相似文献   

6.
协同过滤是互联网推荐系统的核心技术,针对协同过滤推荐算法中推荐精度和推荐效率以及数据可扩展性问题,采用灰色关联相似度,设计和实现了一种基于Hadoop的多特征协同过滤推荐算法,使用贝叶斯概率对用户特征属性进行分析,根据分析结果形成用户最近邻居集合,通过Hadoop中的MapReduce模型构建预测评分矩阵,最后基于邻居集和用户灰色关联度形成推荐列表.实验结果表明,该算法提高了推荐的有效性和准确度,且能有效支持较大数据集.  相似文献   

7.
协同过滤推荐系统的近邻选择环节中不仅没有考虑目标项目对用户间相似性计算的影响,而且也未考虑邻居用户对目标用户的推荐贡献能力,导致既降低了相似性计算的准确性,也提高了近邻集合中伪近邻的比例。针对这些问题,提出了一种基于熵优化近邻选择的协同过滤推荐算法。算法首先使用巴氏系数计算项目间相似性,并以此为权重加权计算用户间相似性。其次引入熵描述用户评分分布特性,根据评分分布差异性衡量邻居用户的推荐贡献能力。最后,利用双重准则共同计算推荐权重,并构建近邻集合。实验结果表明该算法能够在不牺牲时间复杂度的条件下准确地选取近邻集合,提升推荐准确度。  相似文献   

8.
基于协同过滤的移动电子商务个性化推荐系统若干研究   总被引:2,自引:0,他引:2  
在简要介绍移动电子商务个性化推荐系统概念的基础上,给出了移动电子商务推荐系统EMC-PRS的模块结构。重点分析比较了基于最近邻居的协同过滤算法和基于项目评分预测的协同过滤算法。经测试发现,基于项目评分预测的协同过滤推荐算法可以显著提高个性化推荐系统的推荐质量。  相似文献   

9.
传统的协同过滤算法因为数据集稀疏性的增加而导致推荐准确性降低。针对该问题提出一种结合项目相似度的协同过滤推荐算法。首先计算项目之间的相似度,然后根据项目之间相似度,预测用户未评分项目评分估值,以减小目标用户与候选最近邻居所形成的数据集稀疏性,最后根据用户相似度获得项目推荐集。实验结果表明,该算法能提高寻找最近邻居的准确性,从而改善协同过滤的推荐质量。  相似文献   

10.
基于用户兴趣度和特征的优化协同过滤推荐   总被引:2,自引:2,他引:0  
协同过滤技术目前被广泛应用于个性化推荐系统中。为了使用户的最近邻居集合更加精确有效,提出了基于用户兴趣度和用户特征的优化协同过滤推荐算法。首先通过计算用户对项目的兴趣度来对用户进行分组;然后采用贝叶斯算法分析出用户具有不同特征时对项目的喜好程度;最后采用一种新的相似度度量方法计算出目标用户的最近邻居集合。实验表明该算法提高了最近邻居集合的有效性和准确度,推荐质量较以往算法有明显提高。  相似文献   

11.
陈小波  吴涛  高正龙 《计算机工程》2012,38(22):167-170
K近邻多标签学习算法的近邻点个数取固定值,而没有考虑样本分布的特点,可能会将相似度高的点排除在近邻集外,或者将相似度低的点包含在近邻集内,影响分类器的性能。为此,将粒计算的思想引入近邻集的构建,提出一种新的K近邻多标签学习算法。通过粒度控制,确定近邻点集,使得领域内的样本点有高相似性,且此类样本能进入近邻集。实验结果表明,该算法的大多数评价指标均优于现有的多标签学习算法。  相似文献   

12.
结合类别偏好信息的Item-based协同过滤算法   总被引:1,自引:0,他引:1  
传统的基于项目的协同过滤算法离线计算项目相似性,提高了在线推荐速度.但该算法仍然不能解决数据稀疏性所带来的问题,计算出的项目相似性准确度较差,影响了推荐质量.针对这一问题,提出了一种结合类别偏好信息的协同过滤算法,首先为目标项目找出一组类别偏好相似的候选邻居,候选邻居与目标项目性质相近,共同评分较多;在候选邻居中搜寻最近邻,排除了与目标项目共同评分较少项目的干扰,从整体上提高了最近邻搜寻的准确性.实验结果表明,新算法的推荐质量较传统的基于项目的协同过滤算法有显著提高.  相似文献   

13.
现有的近邻查询在查询相同或相近目标时,会得到相同的行驶路线,从而导致大量用户聚集到该区域,造成二次拥堵。针对上述问题,提出一种支配关系监控算法。该算法采用实时交通信息作为动态权重,并给出一个在路网权重变化下的连续k近邻查询方法,有效地避免二次拥堵。实验结果验证了该算法的有效性和高效性。  相似文献   

14.
一种基于加权KNN的大数据集下离群检测算法   总被引:2,自引:1,他引:2  
王茜  杨正宽 《计算机科学》2011,38(10):177-180
传统KNN算法是在基于距离的离群检测算法的基础上提出的一种在大数据集下进行离群点挖掘的算法, 然而KNN算法只以最近的第k个部居的距离作为判断是否是离群点的标准有时也失准确性。给出了一种在大数据 集下基于KNN的离群点检测算法,即在传统KNN方法的基础上为每个数据点增加了权重,权重值为与最近的k个 邻居的平均距离,离群点为那些与第k个部居的距离最大且相同条件下权重最大的点。算法能提高离群点检测的准 确性,通过实验验证了算法的可行性,并与传统KNN算法的性能进行了对比。  相似文献   

15.
针对目前已有的聚类算法不能很好地处理包含不同密度的簇数据,或者不能很好地区分相邻的密度相差不大的簇的问题,提出1种新的基于严格最近邻居和共享最近邻居的聚类算法.通过构造共享严格最近邻图,使样本点在密度一致的区域保持连接,而在密度不同的相邻区域断开连接,并尽可能去除噪声点和孤立点.该算法可以处理包含有不同密度的簇数据,而且在处理高维数据时具有较低的时间复杂度、实验结果证明,该算法能有效找出不同大小、形状和密度的聚类.  相似文献   

16.
Similarity searching often reduces to finding the k nearest neighbors to a query object. Finding the k nearest neighbors is achieved by applying either a depth- first or a best-first algorithm to the search hierarchy containing the data. These algorithms are generally applicable to any index based on hierarchical clustering. The idea is that the data is partitioned into clusters which are aggregated to form other clusters, with the total aggregation being represented as a tree. These algorithms have traditionally used a lower bound corresponding to the minimum distance at which a nearest neighbor can be found (termed MinDist) to prune the search process by avoiding the processing of some of the clusters as well as individual objects when they can be shown to be farther from the query object q than all of the current k nearest neighbors of q. An alternative pruning technique that uses an upper bound corresponding to the maximum possible distance at which a nearest neighbor is guaranteed to be found (termed MaxNearestDist) is described. The MaxNearestDist upper bound is adapted to enable its use for finding the k nearest neighbors instead of just the nearest neighbor (i.e., k=1) as in its previous uses. Both the depth-first and best-first k-nearest neighbor algorithms are modified to use MaxNearestDist, which is shown to enhance both algorithms by overcoming their shortcomings. In particular, for the depth-first algorithm, the number of clusters in the search hierarchy that must be examined is not increased thereby potentially lowering its execution time, while for the best-first algorithm, the number of clusters in the search hierarchy that must be retained in the priority queue used to control the ordering of processing of the clusters is also not increased, thereby potentially lowering its storage requirements.  相似文献   

17.
A Fast k Nearest Neighbor Finding Algorithm Based on the Ordered Partition   总被引:2,自引:0,他引:2  
We propose a fast nearest neighbor finding algorithm, named tentatively an ordered partition, based on the ordered lists of the training samples of each projection axis. The ordered partition contains two properties, one is ordering?to bound the search region, and the other is partitioning?to reject the unwanted samples without actual distance computations. It is proved that the proposed algorithm can find k nearest neighbors in a constant expected time. Simulations show that the algorithm is rather distribution free, and only 4.6 distance calculations, on the average, were required to find a nearest neighbor among 10 000 samples drawn from a bivariate normal distribution.  相似文献   

18.
首先分析了最近邻居算法的基本原理,针对把所有参考标签作为最近邻居的选择,出现大量不必要计算,室内环境干扰较大,距离阅读器较远的标签的信号强度值阅读不准确的问题,提出了一种划分虚拟网格,动态选取最近邻居来进行定位的RFID室内定位算法.仿真结果表明,在不增加参考标签的前提下,改进的算法较最近邻居算法定位精度更高,稳定性更好.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号