私はPythonの初心者です。 python 2.7.3バージョン32ビット64ビットOSで実行しています(64ビットを試しましたが、うまくいきませんでした)。
私はチュートリアルに従い、私のマシンにスクレイピーをインストールしました。私は1つのプロジェクトdemozを作成しました。しかし、scrapy crawl demoz
と入力すると、エラーが表示されます。 (C:\ python27\scripts)の下のスクレイピーコマンドを押すと、このことに遭遇しました
C:\Python27\Scripts>scrapy
Scrapy 0.14.2 - no active project
Usage:
scrapy <command> [options] [args]
Available commands:
fetch Fetch a URL using the Scrapy downloader
runspider Run a self-contained spider (without creating a project)
settings Get settings values
Shell Interactive scraping console
startproject Create new project
version Print Scrapy version
view Open URL in browser, as seen by Scrapy
Use "scrapy <command> -h" to see more info about a command
C:\Python27\Scripts>
私は彼らがインストールに欠けている何かだと思います誰でも助けてください..事前にありがとう..
scrapy crawl spider_name
コマンドは、scrapy.cfg
ファイルが存在するスクラッププロジェクトフォルダーで実行する必要があります。
docs から:
クロール
スパイダーを機能させるには、プロジェクトの最上位ディレクトリに移動して、次のコマンドを実行します。
scrapy crawl dmoz
scrapy crawl demoz
次のコマンドを使用して作成したスクレイピープロジェクトフォルダーのコード
scrapy startproject tutorials
たとえば、tutorials
という名前のスクレイピープロジェクトを開始した場合は、最初にチュートリアルフォルダーに移動し、そこからcrawl
コマンドを実行します。
scrapy crawl demoz
まず、作成したフォルダに移動します
scrapy startproject project_name
今このproject_nameの中に実行
scrapy crawl crawler_name
crawler_nameは名前フィールドの値にすぎません。
既存のプロジェクトがあり、突然このエラー「Scrapy 1.3.3-no active project」が表示された場合、私の場合、プロジェクトを開いたときに、scrapy.cfgファイルが表示されません。私がしたことは、余分な行を削除してgithubからインスタンスにデプロイするなど、プロジェクトにいくつかの小さな変更を加えただけで、うまくいきました!
最初にプロジェクトを作成します。
scrapy startproject project_name
project_name
の2つのフォルダーが作成され、次にpythonファイルをスパイダーfolder
とそのファイルに作成します。
name="name_of_the_crawler"
ファイルを保存してこのフォルダーのターミナルを開き、次のように入力します。
scrapy crawl name_of_the_crawler