ロボットファイルを使用してウェブサイトの構成を最適化する手順

ロボットファイルを使用してウェブサイトの構成を最適化する手順

個人の能力が向上するにつれ、いくつかの新しいプロジェクトの運用を担当するようになりました。これらのプロジェクトによって最適化されたキーワードランキングは比較的良好でしたが、運用中に多くの問題に遭遇しました。これらの問題の発見と解決により、SEO作業における細部の重要性を実感しました。細部が成功と失敗を決定すると言えます。特に、プロジェクトの実際の運用を通じて、ウェブサイトの最適化におけるロボット ファイルの重要性を常に認識してきました。したがって、SEO に詳しい人、特に SEO 分野に不慣れな人は、ロボット ファイルの使用方法やその他の事項について熟知している必要があります。

ロボットファイルは、厳密に言えば robots.txt ファイルです。その真の意味をどのように理解すればよいでしょうか? 実際、robots.txt はコマンドではなく、プロトコルです。検索エンジンがウェブサイトのウェブページをクロールする場合、最初に robots.txt ファイルをクロールします。このファイルの目的は、どのページをクロールできるか、どのページをクロールできないかを検索エンジンに伝えることです。検索エンジンがウェブサイト内のウェブページをクロールする場合、まずウェブサイトのルート ディレクトリにある robots ファイルにアクセスします。このファイルが存在する場合、検索エンジンはファイルに定義されているコンテンツに従ってクロールします。存在しない場合、検索エンジンはクロールが許可されているすべてのページをクロールします。私の理解では、ロボット ファイルは、検索エンジンにどのページにアクセスすべきか、どのページにアクセスすべきでないかを伝えるようなものです。

では、robots.txt ファイルの実際の書き方は何でしょうか? Rongli サイトを運営しているとき、このサイトは古いサイトで動的なページでしたが、現在は静的なページに変更されているため、その中の元のファイルの多くが消えてしまい、検索エンジンがクロールできず、2000 個ものクロール エラーが発生します。そのため、robots ファイルを使用して、これらの見つからなくなったページを定義し、検索エンジンがクロールしないようにする必要があります。これらのコンテンツには robots.txt ファイルの作成が含まれます。 Robots ファイルには 2 つの基本原則があります。これは、記述が最も簡単なロボット ファイルです。1 つ目は User-Agent です。これは、次のルールが適用されるロボットです。2 つ目は Disallow です。これは、ブロックされる Web ページです。Allow は、検索エンジンによるインデックス作成が許可されるアドレスを定義します。したがって、robots ファイルは次のように記述されます。

ユーザーエージェント: * (* ここではすべての検索エンジンの種類を表します。* はワイルドカードです)

禁止: /admin/ この定義は、adminディレクトリの下のディレクトリのクロールを禁止します

Disallow: /require/ この定義は、requireディレクトリの下のディレクトリのクロールを禁止します

禁止: /ABC/ この定義は、ABCディレクトリの下のディレクトリのクロールを禁止します

許可しない: /A は、ファイルとサブディレクトリを含むディレクトリ A 内のすべてのファイルをブロックし、/A*.* 内のファイルもブロックします。

禁止: /cgi-bin/*.htm は、/cgi-bin/ ディレクトリ (サブディレクトリを含む) 内のサフィックスが ".htm" であるすべての URL へのアクセスを禁止します。

Disallow: /*?* ウェブサイト上のすべての動的ページへのアクセスを禁止します

Disallow: /.jpg$ は、Web ページ上のすべての .jpg 形式の画像のクロールを禁止します。

Disallow:/ab/adc.html ab フォルダーの下の adc.html ファイルをクロールすることは禁止されています。

許可: /cgi-bin/ この定義は、cgi-binディレクトリの下のディレクトリのクロールを許可します

許可: /tmp この定義はtmpディレクトリ全体のクロールを許可します

許可: .htm$ 「.htm」で終わる URL のみアクセスが許可されます。

許可: .gif$ はウェブページと gif 形式の画像のクロールを許可します

私のサイト運営では、最もシンプルな robots ファイルである 2 つの基本原則を使用します。これらは次のとおりです。

ユーザーエージェント: *

禁止: /english/ (つまり、english ディレクトリの下のファイルを定義します)

robots.txt ファイルを作成するときは、次の点に注意してください。robots.txt ファイルはサイトのルート ディレクトリに配置する必要があり、通常は Web サイトのバックグラウンドに追加する必要があります。robots.txt ファイル名は小文字にする必要があります。これら 2 つのポイントは単純なことのように思えますが、多くの SEO 専門家が実行時に間違いを犯しがちなので、注意していただきたいと思います。

今では SEO プロジェクトがどんどん増えてきており、SEO 作業は簡単な作業ではないと実感しています。これは、今後 SEO プロジェクトを運営する際には、より自信を持って運営できるよう、細部に注意を払う必要があることも示しています。

<<:  テンセント電子商取引は中国式の内部闘争を繰り広げ、数百万の広告料が未計上のままとなった

>>:  狂気のオンライン融資:2,000以上のプラットフォームが再編危機に直面

推薦する

オープンソースはイノベーションの可能性を刺激し、RHEL 9 は「イノベーション センター」を定義します

「オープンソースは世界中の可能性を刺激することができます。それは、イノベーションを制限する2つの根本...

SEO 最適化: キーワード密度とウェブサイトのランキング

検索エンジン最適化に携わっている同僚の中には、キーワードについて質問してくる人も多いです。たとえば、...

Bespin Globalがクラウド管理サービスで「Excellence Level」認定を取得し、中国のMSP業界をリードし続けている

2020年1月7日、北京—中国情報通信研究院(CAICT)主催の「2020年クラウド管理およびクラウ...

財務報告におけるクラウドコンピューティングの戦場:大手企業間の独占が激化

1週間以内に、クラウドビジネスの大手4社が相次いで財務報告書を発表した。アマゾンのクラウド事業(AW...

trentahost: 月額 5 ドル、ポートランド、KVM 仮想化、1Gbps 帯域幅、無制限トラフィック VPS

今日は、2009年に設立され、2017年3月にHostcatに導入されたtrentahostについて...

A5プラットフォームウェブマスターの成功の出発点である、最初のA5提出体験について語る

私は 3 年前に A5 プラットフォーム、A5 ダウンロード、A5 フォーラム、A5 トランザクショ...

Webmaster.com からの毎日のレポート: CCB が電子商取引市場に参入、Taobao の悪いレビュー投稿者は月に 1 万元以上を稼ぐ

1. 浙江省裁判所による訴訟に関係する資産を競売にかけるオンライン司法オークションプラットフォームを...

JD Finance アプリは、春節マーケティングの代替的かつ高度な解釈です

ショートビデオ、セルフメディア、インフルエンサーのためのワンストップサービステキスト | 脳を燃やす...

Cloud 2.0時代において、事業者はクラウドのトレンドを把握できるでしょうか?

2017 年は Cloud 2.0 の元年と言えます。さまざまなクラウド サービス プロバイダーが独...

関連性の穴から抜け出し、SEOの視野を広げる方法

関連性を体系的に説明し、例示する記事をたくさん見てきましたが、私が言いたいのは、衣料品店は本当に衣料...

ブランドはBilibiliでどのようにマーケティングするのでしょうか?

ブランドはビリビリへの投資をしないことを選択しているのでしょうか、それとも密かにビリビリで「競争」し...

なぜ企業はインターネットマーケティングの適切な担当者を見つけられないのでしょうか?

月収10万元の起業の夢を実現するミニプログラム起業支援プランモバイル インターネットの発展により、企...

LeYiCloud-香港VPS/クラウドホスト/サーバー/BGP+CN2/最大150Gbps防御

Leiyi Cloud は、香港データセンター + 高防御ホスト事業 (最大 150Gbps の D...

Dell OptiPlex 960は雰囲気のある企業イメージを創出します

DELL OptiPlex 960 は、商業および中規模企業ユーザーを対象に新たに発売されたデスクト...

例は、Baidu関連のドメインのすべてが実際に有効なリンクではないことを証明しています

昨日、グループの新しい友人がキーワードランキングについて私に尋ねました。彼は、競合他社よりも外部リン...