皆さんのほとんどは robots.txt ファイルについて聞いたことがあると思いますし、自分でも書いたことがあるかもしれません。実は、私はこれまで robots.txt ファイルを書いたことがありません。書き方がわからないのではなく、ブログにスパイダーのクローリングをブロックする必要があるものが何もないと感じているだけです。そして、個人の独立したブログではリンク切れが発生する確率は非常に低いはずなので、リンク切れをあまり気にする必要はないことは皆さんご存じだと思いますので、必要ないと思います。しかし、個々のウェブマスターが習得しなければならないスキルの 1 つとして、robots.txt ファイルの書き方は依然として非常に役立ちます。ここでは、自分へのレビューも兼ねて、詳しく紹介したいと思います。 robots.txtファイルとは ファイル名から、拡張子が .txt であることがわかります。これはテキスト ファイル、つまりメモ帳であることが誰でもわかるはずです。ロボットは、英語を少し知っている人なら、ロボットを意味することを知っているはずです。私たちにとって、このロボットは検索エンジンのロボットを表します。名前から、このファイルはスパイダーが読み取るために特別に作成されていることがわかります。その機能は、クロールする必要のない列またはページをスパイダーに伝えることです。 もちろん、特定のスパイダーのアクセスを直接ブロックすることもできます。スパイダーがファイルの内容をできるだけ早く読み取ることができるように、このファイルは Web サイトのルート ディレクトリに配置されていることに注意してください。 ロボットファイルの役割 実際、ロボット ファイルの最も一般的な用途は、Web サイト内の無効なリンクをブロックすることです。ウェブサイト上のリンク切れが多すぎると、ウェブサイトの負荷に影響が出ることは誰もが知っておくべきです。ただし、ウェブサイト上のデッドリンクをクリーンアップするのは面倒ではありませんが、特にサイトにデッドリンクが多数ある場合は、クリーンアップが困難になるため、多くの時間がかかります。ここで、robots ファイルの有用性が発揮されます。スパイダーがクロールできない形式でこれらのデッドリンクを直接ファイルに書き込むことができ、必要に応じて後でクリーンアップできます。一部の Web サイト コンテンツには、Web マスターがスパイダーにクロールさせたくない URL またはファイルが含まれており、それらを直接ブロックすることもできます。クモの防御には、一般的にあまり使用されません。 ロボットファイルの書き方 これはもっと重要なはずです。間違えてブロックしたいものをブロックできず、クロールしたいものを書き込んでしまい、時間内に発見できなかった場合、大きな損失を被ることになります。まず、Allow と Disallow という 2 つのタグを知っておく必要があります。1 つは許可するもので、もう 1 つは許可しないものです。その機能は誰でも理解できると思います。 ユーザーエージェント: * 許可しない: または ユーザーエージェント: * 許可する: これら 2 つの段落はどちらも、すべてのクロールが許可されていることを示しています。実際、Disallow タグは URL とファイルをブロックするために使用されます。Web サイトにクロールする項目が少数しかない場合を除き、Allow タグを使用してください。 User-agent: の後にスパイダー名が続きます。主流の検索エンジン スパイダーの名前は誰でも知っているはずです。 Sosospider を例に挙げてみましょう: Sosospider。 Sosoスパイダーをブロックしたい場合: ユーザーエージェント: sosospider 許可しない: / このスパイダーをブロックする方法は、上で許可されている方法よりも「/」が 1 つ多いだけですが、その意味は大幅に変更されているため、記述する際には細心の注意を払う必要があります。また、余分なスラッシュがあるために、知らないうちにスパイダーをブロックすることはできません。また、user-agent: の後に「*」がある場合は、すべてのスパイダーが対象であることを意味します。 ディレクトリが検索エンジンのスパイダーによってクロールされないようにするには、次のようにコードを設定します。 ユーザーエージェント: * 許可しない: /ディレクトリ/ ディレクトリのクロールをブロックする場合は、ディレクトリ名の「/」に注意する必要があります。「/」がない場合、このディレクトリページとディレクトリの下のページへのアクセスがブロックされますが、「/」がある場合は、ディレクトリの下のコンテンツページのみがブロックされます。この 2 つの点を区別する必要があります。複数のディレクトリをブロックしたい場合は、 ユーザーエージェント: * 許可しない: /Directory1/ 許可しない: /Directory2/ この形式は /directory1/directory2/ にすることはできません。 たとえば、.jpg 画像のクロールを防止するために、スパイダーが特定の種類のファイルにアクセスできないようにするには、次のように設定します。 ユーザーエージェント: * 許可しない: .jpg$ 上記は、上海SEO小馬がウェブサイト全体のロボットファイルを書く方法です。ロボットの書き込みの種類と注意事項についてのみ説明しています。スパイダーをターゲットにしたブロックやその他の具体的な書き込み方法についての説明はほとんどありません。ただし、allowとdisallowの意味を知ることで、他の多くの書き込みの意味を導き出すことができます。特定の Web ページ用の robots メタ Web ページ タグもありますが、一般的にはあまり使用されません。 上記は上海SEO小馬http://www.mjlseo.com/によってまとめられました。転載する場合は出典を明記してください。ありがとうございます 元のタイトル: ウェブサイトの最適化のための robots.txt ファイルの書き方についての簡単な説明 キーワード: ウェブマスター、ウェブサイト、ウェブサイトのプロモーション、収益化 |
<<: 手元のデータを合理的に利用してサイトプロモーション分析を行う方法について簡単に説明します。
>>: ウェブサイトのスナップショットのロールバックによる悪影響に直面しても冷静でいよう (パート 1)
2020 年に始まった COVID-19 パンデミックは、組織がアプリケーションのオンライン実行を維...
A5 電子商取引部門は最近、A5 淘宝網衣料品トピック http://www.admin5.net/...
onevps の最新ニュース: 公式は最新の IP セグメントを取得しました。これにより、中国国内の...
Racknerd は現在、米国西海岸のロサンゼルス データ センターや米国東海岸のニューヨーク デー...
gcorelabs は、地中海に近いイスラエル第 2 の都市テルアビブにデータセンターを追加しました...
Softshellwebはイギリスの会社で、現在はドメイン名、仮想ホスト、VPSを主な事業としており...
世界中の都市は、住民に経済的、社会的、環境的利益をもたらすために、スマート シティ テクノロジーへの...
仮想ホストを VPS として使用したいですか?出来ますか?必見です! webfaction は、Ho...
私はこれまでにもいくつかの記事を公開しており、大手ウェブマスターのウェブサイトで推薦されたため、多く...
SEOウェブサイト最適化に関して、SEO担当者として、SEOはかなり面倒な仕事だと思いますか?プロジ...
2012年の終わりが近づくにつれ、国内の垂直型電子商取引は売上ブームに突入し始めています。最近、国内...
[51CTO.com 6月18日海外ニュースの見出しの速報] データセンターを68度に冷却するのはす...
個人のウェブマスターにとって、2 級および 3 級の地域コミュニティ Web サイトを開発する機会は...
Q&AコミュニティZhihuのCEOである周元氏と彼の同僚「採用活動はしているが、信頼できる...
この記事の著者は、現在主流となっている分散アーキテクチャ、分散アーキテクチャにおける一般的な理論、お...