最近、多くのウェブマスターから「robots.txt」ファイルを正しく設定する方法について質問を受けています。ウェブマスターの友人たちの質問に答えるために、「Robots.txt プロトコル標準」を翻訳しました。この翻訳によって、皆さんが「robots.txt」ファイルについてより深く理解できるようになることを願っています。 Robots.txt は、サイトのルート ディレクトリに保存されるプレーン テキスト ファイルです。設定はシンプルですが、効果は強力です。検索エンジン スパイダーが指定されたコンテンツのみをクロールするように指定したり、検索エンジン スパイダーが Web サイトのコンテンツの一部またはすべてをクロールすることを禁止したりできます。 ここではその使い方を詳しく紹介します。 Robots.txt ファイルは、Web サイトのルート ディレクトリに配置し、インターネットからアクセスできるようにする必要があります。 例えば: ウェブサイトのアドレスがhttp://www.yourdomain.com/の場合 次に、ファイルを http://www.yourdomain.com/robots.txt 経由で開き、その内容を確認できる必要があります。 形式: ユーザーエージェント: 検索エンジン スパイダーの名前を記述するために使用されます。「Robots.txt」ファイルに複数の User-agent レコードがある場合、複数の検索エンジン スパイダーがこのプロトコルによって制限されることを意味します。このファイルには、少なくとも 1 つの User-agent レコードが必要です。この項目の値が * に設定されている場合、プロトコルはすべての検索エンジン スパイダーに対して有効です。「Robots.txt」ファイルには、「User-agent:*」などのレコードが 1 つだけ存在できます。 許可しない: アクセスされたくない URL を記述するために使用されます。この URL は完全なパスでも部分的なパスでもかまいません。Disallow で始まる URL は、Robot によってアクセスされません。 例: 例 1: 「Disallow:/help」 つまり、検索エンジンのスパイダーは /help.html と /help/index.html をクロールできません。 例 2: 「Disallow:/help/」 つまり、検索エンジンのスパイダーは /help.html をクロールできますが、/help/index.html はクロールできません。 例3: レコードが空の場合の禁止 これは、Web サイトのすべてのページが検索エンジンによるクロールを許可されており、「/robots.txt」ファイルに少なくとも 1 つの Disallow レコードが存在する必要があることを意味します。 「/robots.txt」が空のファイルの場合、Web サイトはすべての検索エンジン スパイダーによるクローラーに公開されます。 #: 例: 例 1: 「/robots.txt」を使用して、すべての検索エンジン スパイダーが「/bin/cgi/」ディレクトリ、「/tmp/」ディレクトリ、および /foo.html ファイルをクロールすることを禁止します。設定方法は次のとおりです。
例 2: 「/robots.txt」を使用して、1 つの検索エンジンのみのクロールを許可し、他の検索エンジンのクロールを禁止します。 たとえば、「slurp」という名前の検索エンジンスパイダーのみクロールを許可し、他の検索エンジンスパイダーが「/cgi/」ディレクトリ以下のコンテンツをクロールすることを拒否する場合の設定方法は次のとおりです。
元のタイトル: Robots.txt プロトコル標準の概要 キーワード: |
>>: ウェブサイト再構築後にトラフィックが減少した場合の対処方法
北京時間7月1日、海外メディアの報道によると、2012年6月はテクノロジー業界にとって新しい時代の始...
Crissicがどのようなルートを取っているか、これまであまり気にしたことがありませんでした。昨夜、...
タイトルが示すように、この記事で共有されている方法と経験は、ウェブマスターが SEO を行う際にソフ...
クラウドの導入はほとんどの中国組織にとって重要な取り組みであり、規制、データ主権、レイテンシーの要件...
概要:クラウド データ センターでの異常なネットワーク動作は、ネットワーク デバイスに重大なビジネス...
10月20日のニュースによると、企業が新しい常態に適応しようと奮闘する中、COVID-19の流行によ...
明らかな認識の一つは、私たちがよく知っているPinduoduoが変化しているということです。 Pin...
現在、SEO 業界の多くの人々がユーザー エクスペリエンスと高品質の外部リンクについて語っています。...
302 ステータス コードは、一般的な HTTP ステータス コードの 1 つです。302 は一時的...
広告のクリック単価をいかに高めるかは、多くのウェブマスターが考えている問題です。短期間で収益をもたら...
この記事はポピュラーサイエンス記事です。ビッグデータ分散コンピューティング技術を、わかりやすい例を通...
desivps はアジアにもデータセンターを持っており、インドのアーンドラ・プラデーシュ州にあります...
近年、検索エンジン マーケティングに取り組む企業がますます増えています。SEO を選択する企業もあれ...
クラウド コンピューティングは、効率性を高め、データのセキュリティを強化し、利益を増やす機会を提供し...
1999 年に設立された超老舗のアメリカのサーバーベンダーである Interserver は、最近、...