# you have a list with all Tweets ids created with snscrape: all_id_list
# split list in a list of list with 100 ids
id_list = [all_id_list[x:x+100] for x in range(0, len(all_id_list), 100)]
auth = tweepy.OAuthHandler(consumer_key, consumer_secret)
api = tweepy.API(auth)
# iterated over the list to get per request 100 tweets over the twitter api
for i in id_list:
tweets = api.statuses_lookup(list(id_list[i]))
for tweet in tweets:
print(tweet.text)
我建议使用snscrap。然后可以将以这种方式收集的ID传递给api.statuses\u lookup。通过使用api.statuses\u查找,您可以通过Twitter api每15分钟下载300*100条推文
200条tweet限制是每个请求的最大值。您可以通过使用返回的
next
参数来请求下一页200条推文,从而检索推文的连续“页面”。如果您使用的是标准搜索API,这些请求将停止返回超过一周的推文。使用Premium Search API full archive,您可以获得2006年的所有推文这里详细解释:https://developer.twitter.com/en/docs/twitter-api/v1/tweets/search/api-reference
到目前为止,唯一仍然有效的推文抓取方法是snscrap的jsonl方法。 还是这个 https://github.com/rsafa/get-latest-tweets/
相关问题 更多 >
编程相关推荐