我开发了一个包含3个继承层次的scrapy项目:
我想创建一个python脚本来启动spider/myspider上的所有spider includes,以避免调用(或crontab)scrapy crawl name1 | name2 | name3 |等。。你知道吗
我尝试了Running multiple spiders in the same process,还有很多其他的解决方案和“scrapy launch script”google结果,但是每次我
ImportError: No module named project.project.spiders.myspider
或者使用系统路径附加在我的剧本上
ImportError: No module named project.project.lib.myspider
现在我不能从python脚本启动多个spider。。你知道吗
有人成功了吗?或者有没有可能创建一个称为所有其他蜘蛛的全局蜘蛛,我可以用scrapy crawl myGlobalSpider启动它
提前谢谢
目前没有回答
相关问题 更多 >
编程相关推荐