1 Mahout介绍

Apache Mahout 是 Apache Software Foundation(ASF) 旗下的一个开源项目,提供一些可扩展的机器学习领域经典算法的实现,旨在帮助开发人员更加方便快捷地创建智能应用程序。经典算法包括聚类、分类、协同过滤、进化编程等等,并且,在 Mahout 中还加入了对Apache Hadoop的支持,使这些算法可以更高效的运行在云计算环境中。
 

2 环境部署

  • JDK1.8.0_111
  • MySQL
  • apache-tomcat-8.5.31
  • mahout-0.3
  • Eclipse 8.0

3 工程开发

3.1 推荐引擎简介

推荐引擎利用特殊的信息过滤(IF,Information Filtering)技术,将不同的内容(例如电影、音乐、书籍、新闻、图片、网页等)推荐给可能感兴趣的用户。通常情况下,推荐引擎的实现是通过将用户的个人喜好与特定的参考特征进行比较,并试图预测用户对一些未评分项目的喜好程度。参考特征的选取可能是从项目本身的信息中提取的,或是基于用户所在的社会或社团环境。
根据如何抽取参考特征,我们可以将推荐引擎分为以下四大类:
• 基于内容的推荐引擎:它将计算得到并推荐给用户一些与该用户已选择过的项目相似的内容。例如,当你在网上购书时,你总是购买与历史相关的书籍,那么基于内容的推荐引擎就会给你推荐一些热门的历史方面的书籍。
• 基于协同过滤的推荐引擎:它将推荐给用户一些与该用户品味相似的其他用户喜欢的内容。例如,当你在网上买衣服时,基于协同过滤的推荐引擎会根据你的历史购买记录或是浏览记录,分析出你的穿衣品位,并找到与你品味相似的一些用户,将他们浏览和购买的衣服推荐给你。
• 基于关联规则的推荐引擎:它将推荐给用户一些采用关联规则发现算法计算出的内容。关联规则的发现算法有很多,如 Apriori、AprioriTid、DHP、FP-tree 等。
• 混合推荐引擎:结合以上各种,得到一个更加全面的推荐效果。


3.2 Taste简介

Taste 是 Apache Mahout 提供的一个协同过滤算法的高效实现,它是一个基于 Java 实现的可扩展的,高效的推荐引擎。Taste 既实现了最基本的基于用户的和基于内容的推荐算法,同时也提供了扩展接口,使用户可以方便的定义和实现自己的推荐算法。同时,Taste 不仅仅只适用于 Java 应用程序,它可以作为内部服务器的一个组件以 HTTP 和 Web Service 的形式向外界提供推荐的逻辑。
 

3.3 Taste的工作原理

Taste 由以下五个主要的组件组成:

    DataModel:DataModel 是用户喜好信息的抽象接口,它的具体实现支持从任意类型的数据源抽取用户喜好信息。Taste 默认提供 JDBCDataModel 和 FileDataModel,分别支持从数据库和文件中读取用户的喜好信息。
    UserSimilarity 和 ItemSimilarity:UserSimilarity 用于定义两个用户间的相似度,它是基于协同过滤的推荐引擎的核心部分,可以用来计算用户的“邻居”,这里我们将与当前用户口味相似的用户称为他的邻居。ItemSimilarity 类似的,计算内容之间的相似度。
    UserNeighborhood:用于基于用户相似度的推荐方法中,推荐的内容是基于找到与当前用户喜好相似的“邻居用户”的方式产生的。UserNeighborhood 定义了确定邻居用户的方法,具体实现一般是基于 UserSimilarity 计算得到的。
    Recommender:Recommender 是推荐引擎的抽象接口,Taste 中的核心组件。程序中,为它提供一个 DataModel,它可以计算出对不同用户的推荐内容。Recommender是Taste中的核心组件,它可以根据提供的数据模型计算出对不同用户的推荐结果。其中包含的子类可以从内存中缓存其他的推荐结果,因此在低内存情况下可以通过让Java虚拟机取回推荐的结果再输出。在Recommender组件里包含的推荐方法一般会将结果储存在List中,另外estimatePreference()方法还能预估用户对物品的评分。


3.4 基于Taste构建电影推荐引擎

3.4.1 数据下载

本工程所用到的数据来源于此处:Datasets | GroupLens,下载数据“MovieLens 1M - Consists of 1 million ratings from 6000 users on 4000 movies.”

这个数据文件夹下有三个文件:movies.dat,ratings.dat和users.dat,数据形式如下三个图所示

movies.dat的文件描述是 电影编号::电影名::电影类别
ratings.dat的文件描述是 用户编号::电影编号::电影评分::时间戳
users.dat的文件描述是 用户编号::性别::年龄::职业::Zip-code

这些文件包含来自6040个MovieLens用户在2000年对约3900部电影的1000209个匿名评分信息。

3.4.2 构造数据库

构建推荐引擎,可以直接使用movie.dat文件作为数据源,也可以使用数据库中的数据作为数据源,本实验中,这两种方式都实现了,所以下面介绍利用dat文件建立数据库。
构建数据库的SQL语句如下:

CREATE DATABASE movie;
 USE movie;
 CREATE TABLE movies (  // 保存电影相关的信息。
    id INTEGER NOT NULL AUTO_INCREMENT,
    name varchar(100) NOT NULL,
    published_year varchar(4) default NULL,
    type varchar(100) default NULL,
    PRIMARY KEY (id)
 );
 CREATE TABLE movie_preferences (  // 保存用户对电影的评分,即喜好程度
    userID INTEGER NOT NULL,
    movieID INTEGER NOT NULL,
    preference INTEGER NOT NULL DEFAULT 0,
    timestamp INTEGER not null default 0,
    FOREIGN KEY (movieID) REFERENCES movies(id) ON DELETE CASCADE
 );

•Movie:表示电影,包含电影的基本信息:编号、名称、发布时间、类型等等。
•Movie Reference:表示某个用户对某个电影的喜好程度,包含用户编号、电影编号、用户的评分以及评分的时间。
至于如何将dat文件中的内容导入到MySQL数据库中,分别由本工程目录文件下的ImportMovies.java和ImportRatings.java文件实现。

MySQL数据库中的数据如下图:


3.4.3 推荐引擎实现

在本推荐系统中,我实现了三种方式的推荐引擎:基于用户相似度的推荐引擎,基于内容相似度的推荐引擎,以及基于Slope One 的推荐引擎。在这些推荐引擎中,我分别使用了三种DataModel,即Database-based DataModel,File-based DataModel和In-memory DataModel。

1.基于用户相似度的推荐引擎

public class MyUserBasedRecommender {
	public List<RecommendedItem> userBasedRecommender(long userID,int size) {
		// step:1 构建模型 2 计算相似度 3 查找k紧邻 4 构造推荐引擎
		List<RecommendedItem> recommendations = null;
		try {
			DataModel model = MyDataModel.myDataModel();//构造数据模型
			UserSimilarity similarity=new PearsonCorrelationSimilarity(model,Weighting.WEIGHTED);//用PearsonCorrelation 算法计算用户相似度
			UserNeighborhood neighborhood = new NearestNUserNeighborhood(3, similarity, model);//计算用户的“邻居”,这里将与该用户最近距离为 3 的用户设置为该用户的“邻居”。
			Recommender recommender = new CachingRecommender(new GenericUserBasedRecommender(model, neighborhood, similarity));//采用 CachingRecommender 为 RecommendationItem 进行缓存
			recommendations = recommender.recommend(userID, size);//得到推荐的结果,size是推荐结果的数目
//			
//			List<RecommendedItem>recommendedItemList =recommender.recommend(5,10);
//			for(RecommendedItem recommendedItem:recommendedItemList){
//				System.out.println(recommendedItem);
//			}
			
//			DataModel model = MyDataModel.myDataModel();//构造数据模型
//			UserSimilarity similarity=new EuclideanDistanceSimilarity(model);//用PearsonCorrelation 算法计算用户相似度
//			UserNeighborhood neighborhood = new NearestNUserNeighborhood(3, similarity, model);//计算用户的“邻居”,这里将与该用户最近距离为 3 的用户设置为该用户的“邻居”。
//			Recommender recommender = new CachingRecommender(new GenericUserBasedRecommender(model, neighborhood, similarity));//采用 CachingRecommender 为 RecommendationItem 进行缓存
//			recommendations = recommender.recommend(userID, size);//得到推荐的结果,size是推荐结果的数目
		} catch (Exception e) {
			// TODO: handle exception
			e.printStackTrace();
		}
		return recommendations;
	}

Mahout 中提供了基本的相似度的计算,它们都实现了 UserSimilarity 这个接口,以实现用户相似度的计算,包括下面这些常用的:
•PearsonCorrelationSimilarity:基于皮尔逊相关系数计算相似度   (它表示两个数列对应数字一起增大或一起减小的可能性。是两个序列协方差与二者方差乘积的比值)
•EuclideanDistanceSimilarity:基于欧几里德距离计算相似度
•TanimotoCoefficientSimilarity:基于 Tanimoto 系数计算相似度


根据建立的相似度计算方法,找到邻居用户。这里找邻居用户的方法根据前面我们介绍的,也包括两种:“固定数量的邻居”和“相似度门槛邻居”计算方法,Mahout 提供对应的实现:
•NearestNUserNeighborhood:对每个用户取固定数量 N 的最近邻居
•ThresholdUserNeighborhood:对每个用户基于一定的限制,取落在相似度门限内的所有用户为邻居。


基于 DataModel,UserNeighborhood 和 UserSimilarity 构建 GenericUserBasedRecommender,从而实现基于用户的推荐策略。

2.基于内容相似度的推荐引擎

public class MyItemBasedRecommender {
	
	public List<RecommendedItem> myItemBasedRecommender(long userID,int size){
		List<RecommendedItem> recommendations = null;
		try {
			DataModel model = new FileDataModel(new File("D:/ml-1m/movie_preferences.txt"));//构造数据模型
			ItemSimilarity similarity = new PearsonCorrelationSimilarity(model);//计算内容相似度  
			Recommender recommender = new GenericItemBasedRecommender(model, similarity);//构造推荐引擎  
			recommendations = recommender.recommend(userID, size);//得到推荐结果,size是推荐结果的数目
		} catch (Exception e) {
			// TODO: handle exception
			e.printStackTrace();
		}
		return recommendations;
	}

}

3.基于Slope One的推荐引擎

基于用户和基于内容是最常用最容易理解的两种推荐策略,但在大数据量时,它们的计算量会很大,从而导致推荐效率较差。因此 Mahout 还提供了一种更加轻量级的 CF 推荐策略:Slope One。
Slope One 是有 Daniel Lemire 和 Anna Maclachlan 在 2005 年提出的一种对基于评分的协同过滤推荐引擎的改进方法,下面简单介绍一下它的基本思想。
假设系统对于物品 A,物品 B 和物品 C 的平均评分分别是 3,4 和 4。基于 Slope One 的方法会得到以下规律:
•用户对物品 B 的评分 = 用户对物品 A 的评分 + 1
•用户对物品 B 的评分 = 用户对物品 C 的评分
基于以上的规律,我们可以对用户 A 和用户 B 的打分进行预测:
•对用户 A,他给物品 A 打分 4,那么我们可以推测他对物品 B 的评分是 5,对物品 C 的打分也是 5。
•对用户 B,他给物品 A 打分 2,给物品 C 打分 4,根据第一条规律,我们可以推断他对物品 B 的评分是 3;而根据第二条规律,推断出评分是 4。当出现冲突时,我们可以对各种规则得到的推断进行就平均,所以给出的推断是 3.5。
这就是 Slope One 推荐的基本原理,它将用户的评分之间的关系看作简单的线性关系:
Y = mX + b;
当 m = 1 时就是 Slope One,也就是我们刚刚展示的例子。

public class MySlopeOneRecommender {
	public List<RecommendedItem> mySlopeOneRecommender(long userID,int size){
		List<RecommendedItem> recommendations = null;
		try {
			DataModel model = new FileDataModel(new File("D:/ml-1m/movie_preferences.txt"));//构造数据模型
			Recommender recommender = new CachingRecommender(new SlopeOneRecommender(model));//构造推荐引擎  
			recommendations = recommender.recommend(userID, size);//得到推荐的结果,size是推荐结果的数目
		} catch (Exception e) {
			// TODO: handle exception
			e.printStackTrace();
		}
		return recommendations;
	}

}

4.对数据模型的优化处理

上面所叙述的三种推荐引擎,输入的都是用户的历史偏好信息,在 Mahout 里它被建模为 Preference(接口),一个 Preference 就是一个简单的三元组 < 用户 ID, 物品 ID, 用户偏好 >,它的实现类是 GenericPreference,可以通过以下语句创建一个 GenericPreference:

GenericPreference preference = new GenericPreference(1, 101, 4.0f);

这其中, 1是用户 ID,long 型;101是物品 ID,long 型;4.0f 是用户偏好,float 型。从这个例子可以看出,一个 GenericPreference 的数据就占用8+8+4=20 字节,所以如果只简单实用数组 Array 加载用户偏好数据,必然占用大量的内存,Mahout 在这方面做了一些优化,它创建了 PreferenceArray(接口)保存一组用户偏好数据,为了优化性能,Mahout 给出了两个实现类,GenericUserPreferenceArray 和 GenericItemPreferenceArray,分别按照用户和物品本身对用户偏好进行组装,这样就可以压缩用户 ID 或者物品 ID 的空间。
 

		FastByIDMap<PreferenceArray> preferences = new FastByIDMap<PreferenceArray>();
 
 
		PreferenceArray prefsForUser1 = new GenericUserPreferenceArray(3);// 注意这里的数字
		// 这里是用来存储一个用户的元数据,这些元数据通常来自日志文件,比如浏览历史等。在不同的业务场合下它的业务语义是不一样的。
		
		prefsForUser1.setUserID(0, 1);
		
		prefsForUser1.setItemID(0, 101);
		prefsForUser1.setValue(0, 5.0f);//<1, 101, 5.0f> < 用户 ID, 物品 ID, 用户偏好 >
 
 
		prefsForUser1.setItemID(1, 102);
		prefsForUser1.setValue(1, 3.0f);//<1, 102, 3.0f>
 
 
		prefsForUser1.setItemID(2, 103);
		prefsForUser1.setValue(2, 2.5f);//<1, 103, 2.5f>
 
 
		preferences.put(1l, prefsForUser1);// 在这里添加数据,userID作为key

4 程序演示

这个项目工程是B/S模式的,基于MVC开发模式开发的,开发环境是Windows10,IDE是Eclipse,工程文件目录如下图:

启动Tomcat服务器后,在浏览器地址栏里输入http://localhost:8080/MovieRecommender 即可进入本推荐系统。在初始界面选择想要测试的用户编号ID,输入电影数量,选择想要使用的一个推荐引擎就可以进入电影推荐页面。下图为用户初始登录界面,可供选择的推荐引擎有基于用户、基于物品和基于Slope One的协同过滤推荐算法。

推荐结果显示

当选择使用本项目的基于用户的协同过滤推荐策略时,推荐结果显示时间较为缓慢,大约为80秒才能得到推荐结果。总结原因是因为要从数据库获取大量数据并进行实时计算相似度。另外,基于用户相似度得到的推荐电影有很多都是评分较高的广为人知的好电影,这类电影知名度太高,所以并没有太大的必要来推荐给用户。还有一点值得注意的地方是,例如选择了对《星球大战》评分较高的用户,得到的推荐电影存在有《星球大战》续集的情况,这样的推荐结果并没有太大的意义。推荐结果意义不大是很多推荐系统的通病,也是现在研究的一个重要方向。虽然看似推荐的精确度很高,但是站在用户的角度考虑,无论是否有这样的推荐,用户都存在很大的概率会去观看这部电影的续集。

当修改推荐引擎中计算相似度的方法后,推荐结果的质量有所好转,类似上述的出现推荐续集的次数下降。但是所花费的时间比原来增加了。 

当选择使用基于物品的协同过滤推荐引擎时,结果的显示速度明显上升,而且可以很直观地看出所推荐的电影质量比基于用户的协同过滤要高一些。例如看过了星际穿越的用户会得到银翼杀手、2001太空漫游等类似科幻电影推荐。根据基于用户和基于物品的两种推荐引擎所得到的不同推荐质量可以观察出,基于用户的推荐算法的重心是放在多个用户所形成的的集合里,没有突出用户的个性,当用户数量较多时,算法的计算效率不够高。而基于物品的推荐算法更加地侧重于用户的历史爱好,突出用户的个性,但是如果物品的数量过多,那么也会影响到计算效率。 

项目源代码来源:GitHub - bystc/MovieRecommender: 基于Mahout实现协同过滤推荐算法的电影推荐系统

Logo

瓜分20万奖金 获得内推名额 丰厚实物奖励 易参与易上手

更多推荐