検索スパイダーのクロールをブロックする場合、当然 robots.txt ドキュメントが思い浮かびます。 robots.txt とは何でしょうか? 実は、Huizhou SEO Ye Jianhui がすでにこれについて基本的な説明をしています。 Robots.txt は、Web サイト スペースのルート ディレクトリに保存されるテキスト ファイルです。これは、Web サイトのどの部分をクロールできるか、どの部分をクロールできないかを検索スパイダーに伝えるために使用されるプロトコルです。しかし、Ye Jianhui はここで疑問を抱いています。robots.txt はスパイダーのクローリングとクロールを完全にブロックできますか? Robots.txtはスパイダーのクローリングやクロールをブロックすることができます 最近、友人のXiangyang SEO Chameiが次のような問題に遭遇しました。「明らかにrobots.txtを使用してWordPressのディレクトリファイルをブロックしましたが、なぜスパイダーは毎日いつものようにクロールし続けるのですか?」その後、Ye Jianhuiは当然ウェブサイトのrobots.txtファイルを確認しました。以下はWordPressのディレクトリブロック設定です。 禁止: /wp-admin 禁止: /wp-content 禁止: /wp-includes 確認した後、彼は問題を発見しました。それはディレクトリファイルのブロッキングでした。しかし、ブロッキング設定の後に / が不足しているようでした。Ye Jianhui が相談したところ、彼の友人は「ディレクトリファイルの前に / を追加すれば十分です。最後に追加しても問題ありません。」と考えました。 Ye Jianhui 氏はこれについて別の意見を持っています。末尾に / を追加することと追加しないことは、スパイダーにとって 2 つの異なる概念です。追加すると、スパイダーにこれがフォルダーであると伝え、追加しないと、スパイダーにこれがファイルであると伝えます。その結果、robots.txt で設定を行っても、効果的にブロックすることはできません。もちろん、これはYe Jianhuiの個人的な意見にすぎません。 その後、友人はアドバイスに従って robots.txt を次のように変更しました。 禁止: /wp-admin/ 禁止: /wp-content/ 禁止: /wp-includes/ 変更が成功した後、Baidu Webmaster Platform で再生成操作を送信します (生成を積極的に送信せず、スパイダーによる生成に頼る場合は、時間がかかることに注意してください)。その日のうちに有効になります。翌日、再度ログを確認すると、スパイダーが 3 つの WordPress ディレクトリをクロールしなくなっていたことがわかりました。 この観点から、ウェブサイトの SEO 最適化を行う際には、細部を無視することはできません。たった 1 つの / がさまざまな効果をもたらす可能性があります。 Robots.txtはスパイダーのクローリングを完全にブロックできない この問題が解決した後、友人はファイルのブロックについて別の質問をしました。「ディレクトリをブロックしたのは明らかですが、なぜスパイダーは依然としてそのディレクトリ内の特定のファイルをクロールしてインデックス付けできるのでしょうか?」 さて、ここで Ye Jianhui が説明する必要があります。robots.txt プロトコルは標準でも仕様でもなく、単なる慣例です。通常、検索エンジンはこのファイルを認識しますが、特別なケースもあります。 (例えば、前回の360事件についてはこの記事では取り上げません) Baidu でも Google でも、ページに他の Web サイトがリンクしている限り、そのページもインデックスされて含まれる可能性が高くなります。ページ ファイルが Google によってインデックスに登録されないように完全にブロックするには (他の Web サイトからリンクされている場合でも)、ページの先頭に noindex メタ タグまたは x-robots-tag を挿入する必要があります。次のように: <meta name="googlebot" content="noindex"> Google のスパイダーがページ上の noindex メタタグを検出すると、他のページがリンクしているかどうかに関係なく、そのページを Google の検索結果から完全に削除します。 では、Baidu はどうでしょうか? Baidu に関しては、Google のように noindex を通じてインデックスから Web ページを完全に削除することはサポートされていません。Baidu が Web ページのスナップショットを表示することを禁止する noarchive メタ タグのみをサポートしています。具体的な内容は以下のとおりです。 <meta name="バイダスパイダー" content="noarchive"> 上記のタグは、Baidu がページのスナップショットを表示することを禁止するだけですが、Baidu は引き続きそれをインデックスし、検索結果に Web ページの概要を表示します。 ご存知のとおり、Taobao は robots.txt を通じてサイト全体で Baidu スパイダーをブロックしていますが、Baidu で Taobao を検索すると、最初の結果も Taobao のホームページのアドレスになるのはなぜでしょうか。しかし、ページのスナップショットを表示すると、空白になっています。したがって、Web サイトは Baidu スナップショットの表示を禁止することしかできず、Baidu による Web ページのインデックス作成を禁止することはできないようです。 結論: Ye Jianhui 氏が記事の最初の段落で言及した質問に戻りますが、robots.txt はスパイダーのクローリングとグラブを完全にブロックできますか? このような質問を見ると、肯定的に答える友人もいると思います。これは、私たち全員に発見能力が欠けていることを意味し、スパイダークローリングを効果的にブロックできないことは、最適化作業が十分に詳細ではないことを意味しているに過ぎません。 Ye Jianhui 氏は、robots.txt に関するこれら 2 つの小さな問題に基づいて、私たちが SEO の専門家になるのを妨げているのは、問題を発見する能力と正確に実行する能力であると考えています。 原文は恵州 SEO ブログ http://www.huizhouseo.cn/seo/823.html からのもので、Ye Jianhui 氏が寄稿したものです。
元のタイトル: ロボットは検索スパイダーのクローリングとクロールを完全にブロックできますか? キーワード: ロボット、ウェブマスター、ウェブサイト、ウェブサイトのプロモーション、収益化 |
<<: Baidu Index を利用してローカル マーケティング ウェブサイトの SEO を効率的に制御する
>>: 1か月15日間でBaiduの主要キーワードランキングプランを作成
[[228666]]最近の国内外の産業環境の影響により、ハイテク分野における中国の自制心は世界的な注...
2018年最もホットなプロジェクト:テレマーケティングロボットがあなたの参加を待っています最近、イン...
著者: トム・レイトン博士 1998 年に Akamai Technologies を共同設立し、2...
今夜、偶然Pizhouフォーラムの投稿を見ました。求人の名称は「Meituan.com 邳州駅 月給...
ソフト記事とは? ソフト記事とは、私たちが興味を持って文章を読んでいるときに突然広告を目にすることで...
友好的なリンクの交換は、多くのウェブマスターが毎日行っていることです。特に、初心者のウェブマスターの...
SEO の道を歩み始めた経緯を振り返ると、もう限界で、背水の陣で戦うしかないという気持ちになります。...
コストが下がり、使用事例が増えるにつれて、ハイパフォーマンス コンピューティングはあらゆる種類と規模...
ダウンロード、ビデオの作成、画像サイトの作成など、トラフィックの多いプロジェクトを実行する必要がある...
若い皆さんへ: 逃げない信頼性の高い VPS が必要ですか?いつでもオン/オフ、シャットダウン、削除...
国内市場でライブストリーミングやソーシャルeコマースが大人気となっている中、海外のインターネット企業...
皆様、タイトルだけの投稿に30件のコメントがつくとは思っていませんでした。約1週間前、実家から突然、...
心理学理論を通じて探求されるゲーミフィケーションされたユーザー成長計画は、ユーザー心理を個人的な利益...
2018年最もホットなプロジェクト:テレマーケティングロボットがあなたの参加を待っていますネットワー...
なぜ今日この記事を書き始めたいのか?それは、他の人の記事を収集し、彼らの努力を尊重しないウェブマスタ...