ウェブマスターはロボットの使用を決して無視してはならない

ウェブマスターはロボットの使用を決して無視してはならない

これまで、私は常に細部の最適化を強調してきました。はい、現在、Baidu の Web サイトに対する要件は、細部をどれだけうまく行っているかを確認することです。コード、タグなどは細部であり、Robots も Web サイトの詳細の一部です。これをうまく行うことは、Web サイトにとって大きな助けになります。Robots が何であるかを知らない新しい Web マスターはたくさんいるかもしれません。では、Robots の操作についていくつかのポイントを説明します。

1. robots.txt の起源

まず、ロボットはコマンドや指示ではないことを理解する必要があります。ロボットは、Web サイトと検索エンジン間のサードパーティ契約です。契約の内容は、Robots.txt の内容です。これは、初期の Web サイトのプライバシー保護に使用されていました。これは、Web サイトのルート ディレクトリに存在する txt ファイルです。

2. Robots.txtの役割

ウェブサイトを立ち上げると、検索エンジンによって多くの魅力的な要素がリリースされます。これにより、ウェブページの品質が全体的に低下し、検索エンジンにおけるウェブサイトの印象が悪くなります。ロボットの役割は、これらの魅力的な要素をブロックし、スパイダーがそれらをリリースするのを防ぐことです。では、具体的にどのページをブロックすればよいのでしょうか。

1. コンテンツのないページをブロックする: わかりやすくするために、登録ページ、ログイン ページ、ショッピング ページ、投稿ページ、メッセージ ページ、検索ホームページなどの例を挙げます。404 エラー ページを作成している場合は、そのページもブロックする必要があります。

2. 重複ページをブロックする: ウェブサイトに同じ内容でパスが異なるページが 2 つあることがわかった場合は、ロボットを使用して 1 つのページをブロックする必要があります。スパイダーは引き続きそのページをクロールしますが、解放しません。ブロックされたページの数は、Google ウェブマスター ツールで直接確認できます。

3. リンク切れページをブロックする

共通の機能を持つページのみをブロックする必要があります。スパイダーがクロールできないということは、アドレスをキャプチャできないということではありません。アドレスをキャプチャできることと、キャプチャできるかどうかは、2 つの異なる概念です。もちろん、処理できるデッド リンクをブロックする必要はありませんが、処理できないパスによって発生したデッド リンクはブロックする必要があります。

4. 長いパスをブロックする: ロボットを使用して、URL 入力ボックスを超える長いパスをブロックできます。

3. Robots.txtの使用

1. Robots.txtの確立

ローカルで新しいメモ帳ファイルを作成し、Robots.txt という名前を付けて、このファイルをルート ディレクトリに配置します。このようにして、Robots.txt が作成されます。Dreamweaver などの一部のオープン ソース プログラムには、Robots が付属しています。これを変更する場合は、ルート ディレクトリからダウンロードするだけです。

2. 共通文法

User-agent 構文は、検索エンジンのクローラーを定義するために使用されます。許可しないは禁止を意味します。許可とは許可することを意味します。

まず、検索エンジンのクローラー、つまりスパイダーやロボットについて知っておきましょう。

BaiduspiderをRobotsに、GooglebotをGooglebotに書きます

書き方を紹介しましょう。最初の行は検索エンジンを定義することです。

ユーザーエージェント: Baiduspider (Robots を書くときはコロンの後にスペースが必要であることに特に注意してください。すべての検索エンジンを定義する場合は、Baiduspider の代わりに * を使用する必要があります)

許可しない: /admin/

この文は、Baidu スパイダーに、自分の Web サイトの admin フォルダー内の Web ページを含めないように指示することを意味します。admin の後のスラッシュを削除すると、意味が完全に変わります。これは、Baidu スパイダーに、自分のルート ディレクトリ内の admin フォルダー内のすべての Web ページを含めないように指示することを意味します。

allow は許可するという意味であり、禁止するという意味ではありません。一般的には、単独で使用されることはありません。Disallow と一緒に使用されます。これらを一緒に使用する目的は、ディレクトリシールドの柔軟な適用を容易にし、コードの使用を減らすことです。たとえば、/seo/ フォルダーに 100,000 個のファイルがあり、クロールする必要があるファイルが 2 つある場合、何万ものコードを書くことはできません。数行の連携だけで済みます。

ユーザーエージェント: * (すべての検索エンジンを定義)

禁止: /seo/ (seo フォルダーの包含を禁止)

許可: /seo/ccc.php

許可: /seo/ab.html

同時に、この 2 つのファイルをクロールしてインクルードできるようにすることで、4 行のコードで問題を解決できます。Disallow を最初に置くべきか、Allow を最初に置くべきか、あるいは Disallow を最初に置く方が標準化されているのか疑問に思う人もいるかもしれません。

この記事は http://www.51diaoche.net によって作成されたものです。自由に転載してください。元の著者を明記してください。

元のタイトル: ウェブマスターはロボットの使用を決して無視してはならない

キーワード: ウェブマスター、ロボット、ウェブサイト、ウェブサイトのプロモーション、収益化

<<:  ウェブサイトのテキストリンクをより効果的にする方法

>>:  統合インターネットマーケティングは幼い頃から始めることもできます - 楽しい記事

推薦する

マルチクラウドの時代には、ロックインのないニュートラルクラウドを採用すべき

2024年の3分の1が過ぎました。周囲の状況を注意深く観察すると、さまざまなクラウド プラットフォー...

外部リンクを構築するためのフォーラム戦略(パート 1)

コンテンツは王様、外部リンクは女王様です。この文が意味するのは、成功するウェブサイトには、高品質のオ...

コロナウイルスのパンデミックがクラウドコンピューティングの導入に及ぼす永続的な影響

調査によると、パブリッククラウドの導入はコロナウイルスの発生前からすでに増加していた。パンデミックは...

百度百科事典:医療項目は一般人が編集できない

最近、一部のネットユーザーから、百度百科が医療機関のマーケティングに利用されているのではないかとの疑...

エンタープライズ イノベーションのために生まれた VMware が 2B 業界に新たなビジネス モデルを創出

[51CTO.com からのオリジナル記事] 現在、企業の IT 支出が中国全体の経済変革を推進して...

IaaS 向け初のクエリ言語「ZStack クエリ言語 (ZQL)」を発表

UI 作業を簡素化し、運用および保守担当者により柔軟なリソース クエリ方法を提供するために、ZSta...

中間レビュー: 2020 年に最も注目されたエッジ コンピューティング スタートアップ 10 社

SD-WAN や人工知能からモジュール型データセンターやモノのインターネットまで、エッジでのイノベー...

30近くのリベートサイトが次々と崩壊:電子商取引がねずみ講に変貌

「500円使えば500円戻ってくる」「買えば買うほど戻ってくる、ボーナスも続く」…これらの宣伝文句は...

Java ヒープメモリオーバーフローの概要分析

Java ベースのエンタープライズ バックエンド アプリケーションを扱ったことがあるソフトウェア開発...

certifiedhosting-無料のドメイン名付きの年間 15 ドルで無制限の cpanel ホスティング

certifiedhosting は 15 周年を祝っています (これらの年数のほとんどはナンセンス...

ウェブサイトがハッキングされたときの悲惨な教訓を個人的に語る

今年4月、湖北人材ネットワークのウェブマスターと友好的なリンクを交換していたとき、相手から「あなたの...

Baidu インデックスツールのアップグレード

Baidu Webmaster Platformからのニュースによると、Baiduがインデックスツー...

高構成の安価なサーバー - 69 ドル / デュアル チャネル X5650 / 32g メモリ / 1T ハード ディスク / 無制限トラフィック

turnkeyinternet のニューヨーク データ センターには、デュアル チャネル X5650...

9つのチャネル、35のカテゴリーの広告費用データを参考までに!

この記事では、編集者が 9 つの主要チャネルと 35 の業界カテゴリを網羅した業界投資データをまとめ...

ランキングもトラフィックもないウェブサイトの未来はどこにあるのでしょうか? - A5 Webmaster Network

最近、地元の自動車情報サイトが開設されてから6ヶ月以上経ち、百度、捜狗、360などのサイトに掲載され...