一个工具,帮助为subreddit和reddit上的用户生成单词云。
redditanalysis的Python项目详细描述
[![PYPI版本](https://badge.fury.io/py/redditanalysis.svg)](https://badge.fury.io/py/redditanalysis) 啊![Python2.7](https://img.shields.io/badge/python-2.7-blue.svg) 啊![Python3.5](https://img.shields.io/badge/python-3.5-blue.svg) 啊![许可证](https://img.shields.io/badge/license-GPLv3-blue.svg)
#reddit分析项目
请将所有请求发送到http://www.reddit.com/r/MUWs/
你也可以把你做的muws贴在那里。
##许可证
版权所有2016 Randal S.Olson。
此程序是免费软件:您可以在 自由软件发布的GNU通用公共许可条款 基金会,许可证的第3版,或(由您选择)以后的任何版本 版本。
这个程序的发布是希望它能有用,但是没有 保证;甚至没有对商品的适销性或适用性的暗示保证 特殊目的。有关更多详细信息,请参阅GNU通用公共许可证。
你应该收到一份GNU通用公共许可证的副本 这个节目。如果没有,请参阅http://www.gnu.org/licenses/。
##依赖关系
如果还没有python库,则必须首先安装它。 最好使用[anaconda python发行版](http://continuum.io/downloads)来轻松安装。
接下来,您可以安装此软件包。在 终端:
pip install redditanalysis
如果您的系统 需要根访问权限。
如果要先从github安装最新的开发版本 克隆包:
git clone https://github.com/rhiever/reddit-analysis.git
切换到reddit analysis目录:
cd reddit-analysis
然后运行更新脚本:
python setup.py install
##此存储库中的文件
redditanalysis/words/common words.txt是包含单词列表的数据文件 这应该被认为是普遍的。请注意,此列表不是最终列表, 不断变化。
redditanalysis/words/dict words.txt是包含单词列表的数据文件 从字典里。仅建议使用此文件(使用-x选项) 如果你想找出非常不常见的单词。
##用法
安装后,在命令行上运行以下命令以生成一个用法 消息:
word_freqs –help
此命令将详细说明 单词频率。
###为subreddit或redditor生成muw云
若要计算上个月SubReddit最常用的单词,请输入 以下命令:
word_freqs YOUR-USERNAME /r/SUBREDDIT
同样,对于reddit用户:
word_freqs YOUR-USERNAME /u/REDDITOR
其中,your-username是您的reddit用户名,subreddit/redditor是 要为其生成muw云的subreddit/redditor。你 必须提供两个参数,脚本才能正常工作。
为什么需要用户名?只是因为它将在发出reddit api请求时用作用户代理。reddit要求其api用户使用唯一的用户代理,并建议使用用户用户名。
脚本完成后,它将创建一个名为subreddit subreddit.csv的文件(或 用户redditor.csv)指向运行它的目录。此文件包含所有 您在 使用的频率。
把所有的单词都复制到 http://www.wordle.net/compose然后单击go按钮。塔达,你完了!
###多进程
reddit分析支持多进程praw。这允许您运行多个实例 同时进行reddit分析,不会因为过度使用reddit api而被禁止。 要在reddit analysis中启用多进程praw,请添加-u标志。
有关更多信息,请参阅[praw文档](https://praw.readthedocs.org/en/latest/pages/multiprocess.html)。