用MapReduce做相似度分析

jopen 10年前

Q:

有一批数据(10亿量级),数据内容包括:

类型
id INT
content String
id为key,全局唯一
content为一个句子

列之间以\t分割

like:
1  “互联网够公司的日志无处不在,web日志,js日志,搜索日志,监控日志等等”
2  "对于这些日志的离线分析(Hadoop),wget&rsync虽然人力维护成本较高,但可以满足功能行需求。但对于这些日志的实时分析需求(例如实时推荐,监控系统),则往往必须要引入一些“高大上”的系统"
计算每行数据的content和其他数据content的相似度

A:

两轮MapReduce:
第一轮:
按照一定规则分割content,并以分割后的content内容为key,value为id,reduce阶段对value做排序后两两输出,实例如下:
原始数据:
10 X
20 Y
30 Z
假设X可以分割为A、B、C, Y可以分割为A、C、D, Z可以分割为A、D
则第一轮mapper的输出为:
<A,10>
<B,10>
<C,10>
<A,20>
<C,20>
<D,20>
<A,30>
<D,30>
使用分割后的content做key
reducer的输入为:
A {10,20,30}
B {10}
C {10,20}
D {10}
reduce计算逻辑:对value组按大小排序,排序后按序两两输出,组大小为1的不输出
reducer输出为
10,20      ----from A     {10,20,30}
10,30      ----from A     {10,20,30}
20,30      ----from A     {10,20,30}
10,20      ----from C {10,20}


第二轮map-reduce:
对第一轮输出的数据做聚合,value为出现次数
10,20 2
10,30 1
20,30 1