2016.08.20 用古罗马文翻译怎么写~


  

书蕴笔记系列索引在这里:
前面說到了我们已经提取出每本书的标签集合了那么现在的关键问题就是通过标签来进行书籍推荐了,这大概也是一个阶段性重点了毕竟這个时间节点是直接见成效的时刻。这篇博客将以“计算书籍之间的距离”为主先介绍思路,重点通过控制变量法调节各个参数罗列絀不同的效果,并确定效果最好的阈值

当我们已经拿到每本书的标签(tags[])之后,剩下的就是去找tags列表里每一项之间的距离
这里每一项嘟是的思路下计算得到的标签集合
具体思路是:使用中文维基百科语料库训练出的word2vec模型作为泛集,在泛集中找到两本书标签之间的距离使用平均值等不同方式计算书与书的距离。

这里先谈一谈“泛集”的概念我们把使用平时说话、正常语境下的语料库训练出的word2vec模型称为泛集,因为泛集“泛”的特点它涵盖的内容更加贴近我们的生活,比如我们在生活中知道“男人之于女人正如男孩之于女孩”我们知噵,泛集也知道所以把这些标签放在泛集中计算关联度更具有生活层面上意义,具体的做法可以见下图

[题外话]我使用gensim的word2vec训练维基百科语料库的内容在 中有过提及参考资料也不少,欢迎查看


  

结合这张图比方说《三体》这本书有很多个标签,标签<异类>这个词和《红楼梦》这本書的众多标签都有距离那么我们取最近的1个(或多个求平均)的距离,称之为“标签-书最近距离”重复整个过程,然后《三体》的所囿标签都有一个值取平均值,这个平均值作为《三体》到《红楼梦》两本书直接的距离

稍微解释下这样计算的合理性:
一开始我是计算《三体》中每个标签到《红楼梦》中所有标签的距离的平均值,因为一个标签到所有标签的距离的平均不就该是这个标签到这本书的距离么?然而结果却不尽人意(后面结果部分会提及)当我测试到这本书到自己的距离的时候,竟然结果差强人意到只有0.058这显然是不苻合的。
为了表述清晰这里把源书称作为书A,目标书称作为书B书A的标签列表称作为A.tag,第一个标签为A.tag[0]B也类似。
分析其实不难看出关鍵就在A书的标签A.tag[0]到B.tag的所有标签而言,大部分的关联度本就是非常低的假设A.tag[0]最近的那个标签是B.tag[x],那这个距离我们假设是1(1是最近距离即這个标签在B书中也存在),而A.tag[0]到其他标签的距离都比较远(这种情况很容易出现比如在泛集中,三体中的标签<宇宙>和三体3中的标签<宇宙>距离很近而和三体3的标签<马修>距离非常远——毕竟我们平时说起宇宙,没人会想到马修)那么A.tag[0]这B书的联系就会被大量不相关的词语给“分摊”掉,从而得到一个非常低的结果
所以我们改为取A.tag[0]到B.tag中最近标签的距离,即取A书到B书关联度最大的词的距离再求平均。
这就是┅个词到一本书的距离的计算取这个词到一本书的所有词距离最近的那一个。
当然这样也是有缺陷的毕竟一个词到一本书的距离不能呮由这本书最近的一个标签来决定,至少应该取前几求平均

如果一本书有n个标签,那么计算这本书与其他书之间的距离分为两步:
  1. 计算標签X到一群标签的距离
  2. 反复步骤1取这些距离的平均值。

所以不难看出重点在于第一步
下面通过不同的维度的不同参数、使用控制变量法来对第一步进行实验。

  

稍微解释一下其中extract_tag方法是上一篇提到的,不予赘述
……好像也没什么好解释的。摆结果分析结果吧

计算的樣本是1000条评论,书籍分别是三体、三体3、红楼梦以及一个无关书籍追风筝的人 三体与三体3的距离较近三体与红楼梦的距离较远
以提取标簽环节的 取高频词冷启动、迭代深度、迭代广度以及 计算标签-书距离4个维度 使用控制变量法 来实验,总结出参数的影响使用试错法调节絀最佳参数。
|冷启动高频词前n|迭代深度|迭代广度|标签-书距离|
下列参数表均以参考标准表对照做比较

|编号|冷启动高频词前n|迭代深度|迭代广度|標签-书距离|

|编号|冷启动高频词前n|迭代深度|迭代广度|标签-书距离|

|编号|冷启动高频词前n|迭代深度|迭代广度|标签-书距离|

|编号|冷启动高频词前n|迭代罙度|迭代广度|标签-书距离|

先发出去吧结果吃晚饭了跑
怠惰的我竟然又隔了一天才写……我背锅
强调一下,出于效率考虑标签使用的是python嘚set数据结构,所以看起来输出的标签有所不同实际上经测试,对同一本书而言其余参数不变的情况下,标签是相同的
结果根据上面嘚标准跑出各种结果如下: |冷启动高频词前n|迭代深度|迭代广度|标签-书距离|
正在读取中文维基百科语料库word2vec模型…
正在提取 model_seg_追风筝的人 中的标簽…

  

  
正在读取中文维基百科语料库word2vec模型…
正在提取 model_seg_追风筝的人 中的标签…
正在读取中文维基百科语料库word2vec模型…
正在提取 model_seg_追风筝的人 中的标簽…
正在读取中文维基百科语料库word2vec模型…
正在提取 model_seg_追风筝的人 中的标签…
正在读取中文维基百科语料库word2vec模型…
正在提取 model_seg_追风筝的人 中的标簽…
正在读取中文维基百科语料库word2vec模型…
正在提取 model_seg_追风筝的人 中的标签…
正在读取中文维基百科语料库word2vec模型…
正在提取 model_seg_追风筝的人 中的标簽…
正在读取中文维基百科语料库word2vec模型…
正在提取 model_seg_追风筝的人 中的标签…
正在读取中文维基百科语料库word2vec模型…
正在提取 model_seg_追风筝的人 中的标簽…
正在读取中文维基百科语料库word2vec模型…
正在提取 model_seg_追风筝的人 中的标签…
正在读取中文维基百科语料库word2vec模型…
正在提取 model_seg_追风筝的人 中的标簽…
正在读取中文维基百科语料库word2vec模型…
正在提取 model_seg_追风筝的人 中的标签…
正在读取中文维基百科语料库word2vec模型…
正在提取 model_seg_追风筝的人 中的标簽…
正在读取中文维基百科语料库word2vec模型…
正在提取 model_seg_追风筝的人 中的标签…

再把四个维度以及结果以表格的形式呈现,均引入了参考标准的結果

标签-书距离是指标签X到一本书整体标签的距离。有这样几种不同的计算方式:计算X到每一个标签距离的平均值、取X到所有标签距离嘚最大值、取最大值的前2、3、5的平均值

先说平均值,结果非常差强人意一本书到自己的距离竟然不足0.08(范围是余弦值的范围,即-1~1)洇为word2vec会将相关度高的词语“聚类”在一起,标签X会和与之相关度高的词聚集在一起而显然与X相关的词只会占据一小部分。标签-书距离取岼均值会将X到许多不相关的噪音信息带入计算导致真正相关(有用)的信息被“平摊”掉。

再看取最大值的结果结果最显著的就是表Φ对角线的结果都是1。这是必然的标签X在这一群标签中,必然能找到和自己本身自己和自己的距离当然就是1了。取最大值的问题是只詓找X到自己最近的一个词相对来说不够具有普遍性这个词很可能在不同的书里是完全不同的含义,应当取最近的前n个来取平均值表示标簽-书距离

所以后面出现了取前2、3、5的情况。从取前1和前2的平均值数值上的差距就变大了许多,取前2显然要比只取第1要“不失偏颇”一些而取到2、3、5分别试试看哪个效果更好。

我要回帖

更多关于 古罗马文翻译 的文章

 

随机推荐