皆さんのほとんどは robots.txt ファイルについて聞いたことがあると思いますし、自分でも書いたことがあるかもしれません。実は、私はこれまで robots.txt ファイルを書いたことがありません。書き方がわからないのではなく、ブログにスパイダーのクローリングをブロックする必要があるものが何もないと感じているだけです。そして、個人の独立したブログではリンク切れが発生する確率は非常に低いはずなので、リンク切れをあまり気にする必要はないことは皆さんご存じだと思いますので、必要ないと思います。しかし、個々のウェブマスターが習得しなければならないスキルの 1 つとして、robots.txt ファイルの書き方は依然として非常に役立ちます。ここでは、自分へのレビューも兼ねて、詳しく紹介したいと思います。 robots.txtファイルとは ファイル名から、拡張子が .txt であることがわかります。これはテキスト ファイル、つまりメモ帳であることが誰でもわかるはずです。ロボットは、英語を少し知っている人なら、ロボットを意味することを知っているはずです。私たちにとって、このロボットは検索エンジンのロボットを表します。名前から、このファイルはスパイダーが読み取るために特別に作成されていることがわかります。その機能は、クロールする必要のない列またはページをスパイダーに伝えることです。 もちろん、特定のスパイダーのアクセスを直接ブロックすることもできます。スパイダーがファイルの内容をできるだけ早く読み取ることができるように、このファイルは Web サイトのルート ディレクトリに配置されていることに注意してください。 ロボットファイルの役割 実際、ロボット ファイルの最も一般的な用途は、Web サイト内の無効なリンクをブロックすることです。ウェブサイト上のリンク切れが多すぎると、ウェブサイトの負荷に影響が出ることは誰もが知っておくべきです。ただし、ウェブサイト上のデッドリンクをクリーンアップするのは面倒ではありませんが、特にサイトにデッドリンクが多数ある場合は、クリーンアップが困難になるため、多くの時間がかかります。ここで、robots ファイルの有用性が発揮されます。スパイダーがクロールできない形式でこれらのデッドリンクを直接ファイルに書き込むことができ、必要に応じて後でクリーンアップできます。一部の Web サイト コンテンツには、Web マスターがスパイダーにクロールさせたくない URL またはファイルが含まれており、それらを直接ブロックすることもできます。クモの防御には、一般的にあまり使用されません。 ロボットファイルの書き方 これはもっと重要なはずです。間違えてブロックしたいものをブロックできず、クロールしたいものを書き込んでしまい、時間内に発見できなかった場合、大きな損失を被ることになります。まず、Allow と Disallow という 2 つのタグを知っておく必要があります。1 つは許可するもので、もう 1 つは許可しないものです。その機能は誰でも理解できると思います。 ユーザーエージェント: * 許可しない: または ユーザーエージェント: * 許可する: これら 2 つの段落はどちらも、すべてのクロールが許可されていることを示しています。実際、Disallow タグは URL とファイルをブロックするために使用されます。Web サイトにクロールする項目が少数しかない場合を除き、Allow タグを使用してください。 User-agent: の後にスパイダー名が続きます。主流の検索エンジン スパイダーの名前は誰でも知っているはずです。 Sosospider を例に挙げてみましょう: Sosospider。 Sosoスパイダーをブロックしたい場合: ユーザーエージェント: sosospider 許可しない: / このスパイダーをブロックする方法は、上で許可されている方法よりも「/」が 1 つ多いだけですが、その意味は大幅に変更されているため、記述する際には細心の注意を払う必要があります。また、余分なスラッシュがあるために、知らないうちにスパイダーをブロックすることはできません。また、user-agent: の後に「*」がある場合は、すべてのスパイダーが対象であることを意味します。 ディレクトリが検索エンジンのスパイダーによってクロールされないようにするには、次のようにコードを設定します。 ユーザーエージェント: * 許可しない: /ディレクトリ/ ディレクトリのクロールをブロックする場合は、ディレクトリ名の「/」に注意する必要があります。「/」がない場合、このディレクトリページとディレクトリの下のページへのアクセスがブロックされますが、「/」がある場合は、ディレクトリの下のコンテンツページのみがブロックされます。この 2 つの点を区別する必要があります。複数のディレクトリをブロックしたい場合は、 ユーザーエージェント: * 許可しない: /Directory1/ 許可しない: /Directory2/ この形式は /directory1/directory2/ にすることはできません。 たとえば、.jpg 画像のクロールを防止するために、スパイダーが特定の種類のファイルにアクセスできないようにするには、次のように設定します。 ユーザーエージェント: * 許可しない: .jpg$ 上記は、上海SEO小馬がウェブサイト全体のロボットファイルを書く方法です。ロボットの書き込みの種類と注意事項についてのみ説明しています。スパイダーをターゲットにしたブロックやその他の具体的な書き込み方法についての説明はほとんどありません。ただし、allowとdisallowの意味を知ることで、他の多くの書き込みの意味を導き出すことができます。特定の Web ページ用の robots メタ Web ページ タグもありますが、一般的にはあまり使用されません。 上記は上海SEO小馬http://www.mjlseo.com/によってまとめられました。転載する場合は出典を明記してください。ありがとうございます 元のタイトル: ウェブサイトの最適化のための robots.txt ファイルの書き方についての簡単な説明 キーワード: ウェブマスター、ウェブサイト、ウェブサイトのプロモーション、収益化 |
<<: 手元のデータを合理的に利用してサイトプロモーション分析を行う方法について簡単に説明します。
>>: ウェブサイトのスナップショットのロールバックによる悪影響に直面しても冷静でいよう (パート 1)
「SEO」とは何ですか? SEO は検索エンジン最適化であり、インターネット マーケティングの重要な...
みなさんこんにちは。私はHongtu Internetです。当社のような営利目的で構築されたウェブサ...
Mushroom Host、韓国のVPSを使いたい人は、この会社について少し知っておく必要があります...
数日前にも述べたように、SEO は技術ではなく、技術だけではない、という思いが強くなってきています。...
[元記事は51CTO.comより] 12月25日、 QingCloud副社長の林元氏はメディアに対し...
Google 更新時間<br /> 更新時間は7日ごとに更新されます(ランキングへの影響...
ウェブサイト構築における外部リンクの重要性については、あまり説明する必要はないと思います。ディレクト...
長い間、ローカライズされたウェブサイト構築サービスと比較すると、対外貿易ウェブサイト構築は比較的穏や...
企業のウェブサイトは、インターネット上の企業のもう一つの顔のようなものです。ほとんどの企業は、オフラ...
Pacificrack は、パネルの交換後、低価格の VPS (格安 VPS) を宣伝するためにいく...
Hxkvm は最近、サンノゼの高防御 VPS を立ち上げ、他のデータ センターの VPS も 15%...
パンデミックのため、マーク・ギブスさんは今年の大半を香港の自宅で勤務し、11歳の娘と多くの時間を過ご...
第3回Weiboミッションは先週金曜日に正式に終了しました。このミッションは第1回と第2回のWeib...
市場にはさまざまなクラウド サービス プラットフォームが存在します。自分に最適なものをどのように選び...
SEO でどうやってお金を稼ぐのか、あるいは SEO で自分のビジネスを始めるにはどうしたらいいのか...