ロボットファイルの詳細におけるよくある3つの間違いの簡単な例

ロボットファイルの詳細におけるよくある3つの間違いの簡単な例

Robots.txt ファイルには数行の文字しかないように見えますが、実際には注意を払う必要がある詳細事項が多数あります。なぜなら、これらの詳細に注意を払わないと、一部の文は効果を発揮しなかったり、まったく効果がなかったりするからです。 robots.txt ファイルは、検索エンジンがサイトにアクセスした後に最初にアクセスするファイルです。このファイルが適切に記述されているかどうかは、サイトの SEO がスムーズに進められるかどうかに関係します。以下では、robots.txt ファイルを使用する際に起こりがちな 3 つの詳細なエラーを例とともに分析します。

エラー 1: 許可と不許可の順序が逆になっています

まず、robots.txt のステートメントを見てみましょう。

ユーザーエージェント: *

許可する: /

禁止: /abcd/

一見すると、このステートメントの目的は、abcd ディレクトリの下のページはクロールできないが、他のすべてのページはクロールできることを検索エンジンに伝えることであることがわかります。しかし、このステートメントの実際の効果は何でしょうか? その効果は、あなたが言いたいことと反対です。なぜでしょうか? 検索エンジンのスパイダーは、ロボット ファイル内のルールを上から下まで実行することがわかっています。これにより、Disallow ステートメントが無効になります。正しい方法は、目的の効果を得るための Disallow: /abcd/ を Allow: / の前に置くことです。

エラー 2: ページをブロックするときに、ページ名の前にスラッシュ「/」がありません

この点は多くのウェブマスターが簡単に見落としていると思います。たとえば、ルートディレクトリにあるページ abcd.html を検索エンジンからブロックしたいとします。robots: Disallow: abcd.html と書く人もいるかもしれません。表面的には問題ないかもしれませんが、まずはブロックするページがどのディレクトリの下にあるかを検索エンジンに伝えてください。これを含めないと、検索エンジンのスパイダーはそれがどのページであるかを識別できません。正しい書き方は、「Disallow: /abcd.html」です。これにより、ルート ディレクトリにある abcd.html ページを実際にブロックできます。

エラー 3: シールドの後にスラッシュ「/」が付いていません

たとえば、ディレクトリ /abcd/ の下のページをブロックしたい場合、Disallow: /abcd と記述する人もいます。このように書くことに問題があるのでしょうか? このように書くことにはやはり問題があり、それは大きな問題です。ただし、これにより /abcd/ ディレクトリの下にあるすべてのページがブロックされる可能性があります。ただし、これにより、/abcd で始まるすべてのページをブロックするという情報が検索エンジンにも伝わります。効果は Disallow: /abcd'* と同等です。このエラーはサイトに大きな影響を与えます。正しい方法は、ブロックするディレクトリの後にスラッシュ「/」を追加することを忘れないことです。

多くのウェブマスターは robots.txt ファイルの重要性をよく認識していると思います。こうした細かい書き方に気を配らないと、robotss.txt 本来の効果が失われるだけでなく、不必要な逆効果も生じてしまいます。この記事で説明した 3 つの詳細が、このドキュメントを作成する際に役立つことを願っています。この記事は元々、韓国映画ウェブマスター http://www.hgdyy.com/ によって作成されました。転載の際は、当社のアドレスを明記してください。

元のタイトル: ロボット ファイルで発生しやすい 3 つの詳細エラーの例

キーワード: 例、簡単な説明、ロボット、ファイル、私たち、発行が簡単、3 つのポイント、詳細、ウェブマスター、Web サイト、Web サイトのプロモーション、収益化

<<:  病院のウェブサイト: 必須のユーザーエクスペリエンス

>>:  ウェブマスターがポジションの変更を経験しながら、段階的に問題を発見し解決する方法について説明します。

推薦する

Linuxの仮想メモリ技術についてお話しましょう

ストレージ ユニット単位で管理するのは明らかに非現実的であるため、Linux では仮想メモリ空​​間...

高級品Eコマースの状況は楽観的ではない:変革の道を急いで模索

2012年上半期時点で、中国の高級品オンラインショッピング市場の規模は135億元に達し、2015年に...

バーチャルとリアルデザインがウェブサイトを正しく最適化する方法について解説(ケース分析)

みなさんこんにちは。私はハルビン仮想および現実ウェブサイト設計です。最近、いくつかの新しいウェブサイ...

キーワードランキングの変動を解決する方法

ウェブマスターにとって最大の頭痛の種は、自分のウェブサイトのキーワードランキングが変動することです。...

#米国労働者の日# spinservers: 専用サーバーが 33% オフ、月額 199 ドル、2*e5-2690v4/768G メモリ/3.84TNVMe/30T トラフィック (20G 帯域幅)

spinservers は、米国労働者の日に向けて特別プロモーションを開始しました。米国ダラスのデー...

検索の未来: SERP のない SEO とは何でしょうか?

「2013年のSEOの発展動向を振り返る」では、インターネット上の情報はますます増え、個人ユーザーだ...

Baiduの製品シリーズを正しく見る方法

ウェブサイトの最適化の過程で、多くの人が、Baidu Encyclopedia、Baidu Know...

作成するフレンドリーリンクには、ランキングに有利なこと以外に何か価値がありますか?

フレンドリー リンクは、中小規模のウェブマスターにとって最も重要な高権威リンクのソースの 1 つであ...

中国、オンライン著作権侵害と海賊版対策として「建王作戦」を開始

北京7月4日(隋小飛記者)記者は4日、北京で行われた2012年「剣ネット作戦」ネット著作権侵害・海賊...

ウェブサイトの外部リンクが繰り返し変動している理由について簡単に説明します。

外部リンクは、私たちが常により注意を払う部分です。すべてのサイトの SEO 最適化のプロセスでは、外...

クラウドコンピューティング市場を拡大し強化するには、現実的でなければならない

近年、我が国の経済活動の焦点は経済全体の安定にあります。産業基盤の優位性を活かし、産業チェーンのアッ...

Kafka はメッセージ損失の問題をどのように解決しますか?

[[415220]]この記事はWeChatの公開アカウント「Micro Technology」から転...

アリババの「ダブルイレブン」イベントに関する私の24時間実践メモ

著者: 王冠雄1日の売上高は350億元、取引総数は1億7000万件、顧客平均支出額は205元。モバイ...

クラウドコンピューティングが突然複雑かつ高価になった理由

今日、企業はコスト超過、雇用、セキュリティの問題に悩まされていますが、これらはすべて簡単に克服でき、...

catalysthost - $17/年/128MB メモリ/15GB ハードドライブ/4TB トラフィック/シアトル/10G ポート

catalysthost は、私がこれまでに見た中で最も安価な 10G 帯域幅アクセスを提供する V...