是否有可能与抓取Scrapy 0.18.4本地文件,而无需一个活跃的项目? 我已经看到了这个答案,它看起来很有希望,但要使用crawl
命令你需要一个项目。
另外,有建立在现有的蜘蛛一个项目一个简单/简约的方式吗? 我有一个Python的文件中定义我的蜘蛛,管道,中间件和项目。 我创建了一个scrapy.cfg文件,只有项目名称。 这让我用crawl
,但因为我没有蜘蛛文件夹Scrapy找不到我的蜘蛛。 我可以指出Scrapy到正确的目录,或者我需要拆我的项目,蜘蛛等成单独的文件?
[编辑]我忘了说,我正在使用的蜘蛛Crawler.crawl(my_spider)
-最好我还是希望能够运行像蜘蛛,但是从我的脚本,如果这是在子进程可以运行它不可能。
原来在回答的建议我联系做工作- HTTP://本地主机:8000可以作为一个START_URL,所以没有必要为一个项目。