ロボットファイルの詳細におけるよくある3つの間違いの簡単な例

ロボットファイルの詳細におけるよくある3つの間違いの簡単な例

Robots.txt ファイルには数行の文字しかないように見えますが、実際には注意を払う必要がある詳細事項が多数あります。なぜなら、これらの詳細に注意を払わないと、一部の文は効果を発揮しなかったり、まったく効果がなかったりするからです。 robots.txt ファイルは、検索エンジンがサイトにアクセスした後に最初にアクセスするファイルです。このファイルが適切に記述されているかどうかは、サイトの SEO がスムーズに進められるかどうかに関係します。以下では、robots.txt ファイルを使用する際に起こりがちな 3 つの詳細なエラーを例とともに分析します。

エラー 1: 許可と不許可の順序が逆になっています

まず、robots.txt のステートメントを見てみましょう。

ユーザーエージェント: *

許可する: /

禁止: /abcd/

一見すると、このステートメントの目的は、abcd ディレクトリの下のページはクロールできないが、他のすべてのページはクロールできることを検索エンジンに伝えることであることがわかります。しかし、このステートメントの実際の効果は何でしょうか? その効果は、あなたが言いたいことと反対です。なぜでしょうか? 検索エンジンのスパイダーは、ロボット ファイル内のルールを上から下まで実行することがわかっています。これにより、Disallow ステートメントが無効になります。正しい方法は、目的の効果を得るための Disallow: /abcd/ を Allow: / の前に置くことです。

エラー 2: ページをブロックするときに、ページ名の前にスラッシュ「/」がありません

この点は多くのウェブマスターが簡単に見落としていると思います。たとえば、ルートディレクトリにあるページ abcd.html を検索エンジンからブロックしたいとします。robots: Disallow: abcd.html と書く人もいるかもしれません。表面的には問題ないかもしれませんが、まずはブロックするページがどのディレクトリの下にあるかを検索エンジンに伝えてください。これを含めないと、検索エンジンのスパイダーはそれがどのページであるかを識別できません。正しい書き方は、「Disallow: /abcd.html」です。これにより、ルート ディレクトリにある abcd.html ページを実際にブロックできます。

エラー 3: シールドの後にスラッシュ「/」が付いていません

たとえば、ディレクトリ /abcd/ の下のページをブロックしたい場合、Disallow: /abcd と記述する人もいます。このように書くことに問題があるのでしょうか? このように書くことにはやはり問題があり、それは大きな問題です。ただし、これにより /abcd/ ディレクトリの下にあるすべてのページがブロックされる可能性があります。ただし、これにより、/abcd で始まるすべてのページをブロックするという情報が検索エンジンにも伝わります。効果は Disallow: /abcd'* と同等です。このエラーはサイトに大きな影響を与えます。正しい方法は、ブロックするディレクトリの後にスラッシュ「/」を追加することを忘れないことです。

多くのウェブマスターは robots.txt ファイルの重要性をよく認識していると思います。こうした細かい書き方に気を配らないと、robotss.txt 本来の効果が失われるだけでなく、不必要な逆効果も生じてしまいます。この記事で説明した 3 つの詳細が、このドキュメントを作成する際に役立つことを願っています。この記事は元々、韓国映画ウェブマスター http://www.hgdyy.com/ によって作成されました。転載の際は、当社のアドレスを明記してください。

元のタイトル: ロボット ファイルで発生しやすい 3 つの詳細エラーの例

キーワード: 例、簡単な説明、ロボット、ファイル、私たち、発行が簡単、3 つのポイント、詳細、ウェブマスター、Web サイト、Web サイトのプロモーション、収益化

<<:  病院のウェブサイト: 必須のユーザーエクスペリエンス

>>:  ウェブマスターがポジションの変更を経験しながら、段階的に問題を発見し解決する方法について説明します。

推薦する

パーソナライズされたドメイン名が SEO 最適化に与える影響の簡単な分析

ドメイン名はウェブサイトの表札とみなすことができます。ユーザーがウェブサイトにアクセスすると、ドメイ...

impactvps-7 USD/オープン 4 VPS/5IP/4GB メモリ/4 コア/45GB SSD/2TB トラフィック

2003年に、impactvps(バックエンドドメイン名はsubnetlabs.com)を当サイトの...

ウェブサイトのトラフィックは量ではなく質が重要です

ウェブマスターは皆、ウェブサイトで最も重要なことはトラフィックであることを理解しています。ウェブサイ...

オラクルはTikTokを活用してクラウドインフラ事業の拡大を目指す

[51CTO.com 速訳] Oracleは、TikTokやZoomなどの大規模なクラウド顧客を引き...

月額 2.99 ドルの evoxt 香港 VPS はいかがでしょうか?計測したデータは驚きです!

evoxt は、広い帯域幅と低価格の香港 VPS サービスを提供しています。そのため、evoxt の...

Baiduの外部リンクを拒否するツールはまったく役に立たない

インターネットで活動する草の根ウェブマスターや、SEO で生計を立てているネットワークワーカーにとっ...

Virmach AMD Ryzen+NVMe シリーズ VPS が再入荷しました。日本/米国の 11 のデータセンターからお選びいただけます。

virmachは最近非常に話題になっています。同社は、特に日本の東京データセンターで、国内のユーザー...

SEOは粘り強さ、実行力、思考力の3つが重要です

まず、なぜ SEO は忍耐力、実行力、思考力だと言っているのでしょうか? 他のことは問題ではありませ...

中国のバレンタインデーに百度からウェブマスターへの朗報

バレンタインデーはカップルの休日とも言えますが、多くのSEO実践者にとっては楽な休日ではないかもしれ...

中国語の単語分割マッチングと完全マッチングの長所と短所についての簡単な説明

木曜日の百度週次アップデートの直後、私のウェブサイトのランキングは大幅に下がりました。しかし、私の親...

分散エッジコンピューティングの時代が到来

[[393301]]エッジ コンピューティングは数十年前から存在していますが、テクノロジーの継続的な...

通信事業者がクラウドとエッジコンピューティングを統合

調査会社ガートナーは、企業が生成するデータのうち、従来の集中型データセンターやクラウド プラットフォ...

budgetvm: 日本専用サーバー、1Gbpsの帯域幅、無制限のトラフィック、月額88ドルから、米国に4つのデータセンターあり

budgetvm は 2005 年に設立されたアメリカの老舗企業です。主に米国 (ロサンゼルス、シカ...

キッチンレスレストラン、サーバーレスコンピューティング

午前3時に、コンピューター室のサーバーが再びダウンしました。これらのサーバーの復元には数時間、数日、...