Scrapy不能使用curl命令爬行

2024-06-01 06:10:44 发布

您现在位置:Python中文网/ 问答频道 /正文

我有一个讨厌的项目。我可以使用“scrapy crawl somespider”命令来运行蜘蛛。但是,现在我想用scrapyd来爬行。当我跑的时候

curl http://localhost:6800/schedule.json -d project=crawlers -d spider=someproject

我得到的输出是

^{pr2}$

现在,当我检查

http://localhost:6800/jobs

我看到的是一个没有完成的工作,只有一个工作在等待

0:00:00.457973 time.

有什么问题吗?在

请帮忙。 谢谢你


Tags: 项目命令projectjsonlocalhosthttpcurlspider