我有一个讨厌的项目。我可以使用“scrapy crawl somespider”命令来运行蜘蛛。但是,现在我想用scrapyd来爬行。当我跑的时候
curl http://localhost:6800/schedule.json -d project=crawlers -d spider=someproject
我得到的输出是
^{pr2}$现在,当我检查
http://localhost:6800/jobs
我看到的是一个没有完成的工作,只有一个工作在等待
0:00:00.457973 time.
有什么问题吗?在
请帮忙。 谢谢你
目前没有回答
相关问题 更多 >
编程相关推荐