python分析scraped的最佳方法

2024-10-03 13:22:23 发布

您现在位置:Python中文网/ 问答频道 /正文

我是新手。我已经设法整理了一个脚本,从一个网站上刮取一些信息。这种情况每天都会发生,数据保存在csv文件中。每个文件的内容类似于:

date, ticker, company name, momentum indicator, other ratios....
2016-08-19, GSK, GlaxoSmithKline, 42, ....
2016-08-19, RDSB, Royal Dutch Shell, 98, .....
....

我已经积累了3个月的每日数据,大约80个文件(文件中的每一行都有相同的日期,然后是不同的共享)。 我现在要做的是逐股检查动量指标和其他比率的演变

例如,我想我应该得到一系列的列表,比如

GSK_momentum_indicator = (42, 43, 38, 47,...) 
RDSB_momentum_indicator = (98, 91, 77, 79,...)

现在,作为一个新手,我有两个问题: 1) 你认为最好的方法是什么?是用列表,字典,还是别的什么? 2) 您是如何决定上述事项的?是否有使用哪种策略的指导方针?作为一个新手,有什么好的资源可以让我了解更多关于这个主题的知识吗

谢谢

顺便说一句,万一有什么不同,我用的是python3.5.2


Tags: 文件csv数据脚本信息列表网站情况
1条回答
网友
1楼 · 发布于 2024-10-03 13:22:23

为了处理收集的数据,可以使用python模块之一csvpandascsv模块用于从csv文件读/写数据,然后您可以将数据转换为python列表和字典并相应地使用。有关详细文档,请转到here

但是如果你有一个大的数据集,那么你应该使用pandas,这是一个专门的数据分析工具。pandas.read_csv函数将csv文件的名称作为参数,并返回一个DataFrame对象,您可以对该对象执行各种操作。有关详细文档,请转到here

相关问题 更多 >