ウェブマスターはロボットの使用を決して無視してはならない

ウェブマスターはロボットの使用を決して無視してはならない

これまで、私は常に細部の最適化を強調してきました。はい、現在、Baidu の Web サイトに対する要件は、細部をどれだけうまく行っているかを確認することです。コード、タグなどは細部であり、Robots も Web サイトの詳細の一部です。これをうまく行うことは、Web サイトにとって大きな助けになります。Robots が何であるかを知らない新しい Web マスターはたくさんいるかもしれません。では、Robots の操作についていくつかのポイントを説明します。

1. robots.txt の起源

まず、ロボットはコマンドや指示ではないことを理解する必要があります。ロボットは、Web サイトと検索エンジン間のサードパーティ契約です。契約の内容は、Robots.txt の内容です。これは、初期の Web サイトのプライバシー保護に使用されていました。これは、Web サイトのルート ディレクトリに存在する txt ファイルです。

2. Robots.txtの役割

ウェブサイトを立ち上げると、検索エンジンによって多くの魅力的な要素がリリースされます。これにより、ウェブページの品質が全体的に低下し、検索エンジンにおけるウェブサイトの印象が悪くなります。ロボットの役割は、これらの魅力的な要素をブロックし、スパイダーがそれらをリリースするのを防ぐことです。では、具体的にどのページをブロックすればよいのでしょうか。

1. コンテンツのないページをブロックする: わかりやすくするために、登録ページ、ログイン ページ、ショッピング ページ、投稿ページ、メッセージ ページ、検索ホームページなどの例を挙げます。404 エラー ページを作成している場合は、そのページもブロックする必要があります。

2. 重複ページをブロックする: ウェブサイトに同じ内容でパスが異なるページが 2 つあることがわかった場合は、ロボットを使用して 1 つのページをブロックする必要があります。スパイダーは引き続きそのページをクロールしますが、解放しません。ブロックされたページの数は、Google ウェブマスター ツールで直接確認できます。

3. リンク切れページをブロックする

共通の機能を持つページのみをブロックする必要があります。スパイダーがクロールできないということは、アドレスをキャプチャできないということではありません。アドレスをキャプチャできることと、キャプチャできるかどうかは、2 つの異なる概念です。もちろん、処理できるデッド リンクをブロックする必要はありませんが、処理できないパスによって発生したデッド リンクはブロックする必要があります。

4. 長いパスをブロックする: ロボットを使用して、URL 入力ボックスを超える長いパスをブロックできます。

3. Robots.txtの使用

1. Robots.txtの確立

ローカルで新しいメモ帳ファイルを作成し、Robots.txt という名前を付けて、このファイルをルート ディレクトリに配置します。このようにして、Robots.txt が作成されます。Dreamweaver などの一部のオープン ソース プログラムには、Robots が付属しています。これを変更する場合は、ルート ディレクトリからダウンロードするだけです。

2. 共通文法

User-agent 構文は、検索エンジンのクローラーを定義するために使用されます。許可しないは禁止を意味します。許可とは許可することを意味します。

まず、検索エンジンのクローラー、つまりスパイダーやロボットについて知っておきましょう。

BaiduspiderをRobotsに、GooglebotをGooglebotに書きます

書き方を紹介しましょう。最初の行は検索エンジンを定義することです。

ユーザーエージェント: Baiduspider (Robots を書くときはコロンの後にスペースが必要であることに特に注意してください。すべての検索エンジンを定義する場合は、Baiduspider の代わりに * を使用する必要があります)

許可しない: /admin/

この文は、Baidu スパイダーに、自分の Web サイトの admin フォルダー内の Web ページを含めないように指示することを意味します。admin の後のスラッシュを削除すると、意味が完全に変わります。これは、Baidu スパイダーに、自分のルート ディレクトリ内の admin フォルダー内のすべての Web ページを含めないように指示することを意味します。

allow は許可するという意味であり、禁止するという意味ではありません。一般的には、単独で使用されることはありません。Disallow と一緒に使用されます。これらを一緒に使用する目的は、ディレクトリシールドの柔軟な適用を容易にし、コードの使用を減らすことです。たとえば、/seo/ フォルダーに 100,000 個のファイルがあり、クロールする必要があるファイルが 2 つある場合、何万ものコードを書くことはできません。数行の連携だけで済みます。

ユーザーエージェント: * (すべての検索エンジンを定義)

禁止: /seo/ (seo フォルダーの包含を禁止)

許可: /seo/ccc.php

許可: /seo/ab.html

同時に、この 2 つのファイルをクロールしてインクルードできるようにすることで、4 行のコードで問題を解決できます。Disallow を最初に置くべきか、Allow を最初に置くべきか、あるいは Disallow を最初に置く方が標準化されているのか疑問に思う人もいるかもしれません。

この記事は http://www.51diaoche.net によって作成されたものです。自由に転載してください。元の著者を明記してください。

元のタイトル: ウェブマスターはロボットの使用を決して無視してはならない

キーワード: ウェブマスター、ロボット、ウェブサイト、ウェブサイトのプロモーション、収益化

<<:  ウェブサイトのテキストリンクをより効果的にする方法

>>:  統合インターネットマーケティングは幼い頃から始めることもできます - 楽しい記事

推薦する

分散システムのアーキテクチャについて話しましょう

今日は、Xiaojiao が分散システムのアーキテクチャ ルーチンについてお話します。ルーチンについ...

Zadig + Dongtai IAST: 継続的デリバリーへのセキュリティの統合

IAST は現在注目されているセキュリティテスト技術です。 Zadig のランタイム環境管理機能を使...

ウェブサイト最適化のヒント: ウェブサイトリンクの最適化テクニック

情報ネットワーク時代において、電子商取引の成熟度が高まり、オンラインショッピングが徐々に普及するにつ...

ウェブサイトの最適化と SEO における div css の利点

最近、CSS DIV を使用して Web サイトを構築する友人が増えています。今日は、div css...

ウェブサイトのホームページエクスポートリンクの最適化に関する誤解についての簡単な説明

コンテンツが王様で、外部リンクが王様だということは、誰もが聞いたことがあるでしょう。この一文は、多く...

2019 年のトップ 6 DevOps ツール

DevOps は、開発者と運用担当者の両方にとって非常に重要なシステムとして、2019 年以降も着実...

HarmonyOS サンプルのペーストボード分散ペーストボード

[[435097]]詳細については、以下をご覧ください。 51CTOとHuaweiが共同で構築したH...

NetEase Bafangがサインインサービスを停止した6つの理由

テンセントテクノロジーロイス11月8日総合レポート「サインインは終わった」という叫びは2012年も鳴...

大規模ウェブサイトのランキングを向上させる方法を教えます

検索エンジン最適化に関して、誰もが最も気にするのは、おそらくウェブサイトのランキングです。最適化はラ...

エッジコンピューティングが新たな嵐を引き起こし、ITとOTの戦いが迫っている

IT と OT は常に別々の分野でした。 OT は、製造、医療、物流などの業界における垂直型および独...

justhost: 新しいフィヨルド データ センター、月額 1.39 ドルから、帯域幅 200Mbps、トラフィック無制限

ロシアのマーチャント justhost は、スモールズの Fiord データセンターという新しいデー...

2015年最新アプリプロモーションASO最適化体験談

モバイル インターネットの時代では、 ASO はSEOと同様に重要な戦略的地位にまで上昇しています。...

liquid-solutions-ロサンゼルス/シアトル VPS 特別プロモーション

Liquid-Solutionsは2011年後半に設立されました。私は彼らが逃げ出すのではないかと心...