サイトの包含は、Web サイトが健全かどうかを判断するための重要な指標として常に考えられてきました。内部ページが含まれないことを心配しているとき、Web サイトの包含レベルを決定する要因が最終的にどこから来るのか考えたことがありますか? はい、それは検索エンジン スパイダーです。いわゆる検索エンジンスパイダーは、ウェブサイトをクロールしてインデックスを作成するプログラムロボットであることは周知の事実です。その好みや習慣をよりよく理解し、活用できれば、サイトの内部ページのインデックス作成をより簡単に改善できます。それでは、クモの這う習性についてお話しましょう。 1. クモの這う習性 検索エンジンのスパイダーと自然界のスパイダーのクロール習慣は非常に似ています。どちらも、獲物を捕らえて這うために大きな巣を必要とします。私たちのウェブサイトは検索エンジンスパイダーの餌食です。検索エンジンスパイダーのネットワークが十分に大きくない場合、どのようにして私たちのウェブサイトをより深くクロールできるのでしょうか?このため、検索エンジンのスパイダーがより効率的にクロールできるように、さまざまなリンクを検索エンジンのスパイダーに提供する必要があります。当サイトのページ数が少ないのはなぜでしょうか? その理由は、検索エンジン スパイダーに提供するリンクが制限されすぎているか、または緩すぎるためです。強力な外部リンクに加えて、内部リンクも重要な指標の 1 つです。記事ページに関連性の高いコンテンツ リンクを追加することで、スパイダーが内部ページをより深くクロールして取得できるようになります。 2. スパイダーがページを巡回する習性 検索エンジンが内部ページをクロールし、内部ページの関連コンテンツを見つけると、次のタスクである内部ページのクロールの実行を開始します。ここで重要なキーワードは「試す」です。実際、検索エンジンが内部ページに入った後、そのページを 100% クロールするわけではありません。良いものを作るには時間がかかるため、サイト内にこの作業の妨げとなる使いにくいデザインがいくつか存在することになります。そこで、Web ページを検索エンジン スパイダーにとってより使いやすくする方法を検討してみましょう。 1: スペースサーバーを安定させるように努めます。検索エンジンのスパイダーがクロールするには安定した空間が必要であることはわかっています。検索エンジンのスパイダーがクロールしているときにサイトが不安定で閉じられていると、当然検索エンジンのスパイダーに悪い印象を与えてしまいます。このような不安定さが頻繁に発生すると、検索エンジンのスパイダーは我慢できなくなり、サイトを無視するようになります。 2: ページ内の使いにくいコードを削除します。現在の検索エンジンの技術的制限により、検索エンジン スパイダーは、js、flash、ajax などの一部の Web ページ テクノロジをクロールできない、またはクロール効果が不十分であるという問題を抱えています。これらのテクノロジーを Web ページでどのように使用するかによって、Web サイトが検索エンジン スパイダーにとって使いやすいかどうかが決まります。 もちろん、検索エンジン スパイダーのクロールに影響を与える要因を分析する際には、Baidu のウェブマスター ツールなどの無料ツールを使用できます。圧力フィードバック ツールを使用して、最近の検索エンジンのクロールとサイトのクロールを検出し、それらの不利な要因を見つけることができます。 習慣3: スパイダーのインデックスページ サイトのページに不利な要素がない場合、検索エンジンはインデックス作成を開始します。もちろん、コンテンツの品質もテストする必要があります。コンテンツの品質が低すぎると、インデックスされません。コンテンツを編集するときは、できるだけオリジナル性を持たせるか、より詳細な疑似オリジナルコンテンツを作成するように努める必要があります。コンテンツは定期的に更新する必要があります。同時に、記事の長さが短すぎないように注意する必要があります。このようにしてのみ、記事は検索エンジンスパイダーからより多くの支持を得ることができます。 習慣4: ページリリース あなたの内部ページが、上記の著者が述べた 3 つのプロセスを通過した場合、おめでとうございます。あなたの内部ページは検索エンジンに含まれたと言えますが、すぐに喜ぶのは早すぎます。なぜなら、あなたの内部ページは含まれた直後に必ずしもリリースされるわけではないからです。皆さんも私と同じように、Baidu Webmaster Tools で表示される包含ステータスが、直接「サイト」で取得した包含ステータスと異なることに気づいたことがあると思います。Baidu Webmaster Tools の包含数は、多くの場合、より多くなっています。その理由は、これらの内部ページは包含されているものの、その多くはすぐにはリリースされないためです。この期間中は検索エンジンの審査を待つ必要があります。 上記4つの検索エンジンのクロール習慣から、プロセスが複雑ではないことがわかります。検索エンジンのスパイダーも私たちと同じように、新鮮で高品質なものを好みます。したがって、内部ページの包含を改善したい場合は、コンテンツの品質と検索エンジンのスパイダーのクロール環境に引き続き力を入れていく必要があります。この記事はck映画のウェブサイトからのものです: http://www.ckdvd123.com/ 転載の際は出典を明記してください。 元のタイトル: 検索エンジンスパイダーの習慣を理解することで、内部ページをスムーズに組み込むことができます キーワード: 検索エンジン、インデックス、スパイダー、スパイダー学習、ヘルプ、内部ページ、スムーズ、含まれる、サイト、ウェブマスター、ウェブサイト、ウェブサイトのプロモーション、収益化 |
<<: 2013 年に Baidu の最適化がますます困難になっているのはなぜでしょうか? 何をすべきでしょうか?
>>: ローカルポータル:10年間の努力を経て、O2Oの責任を引き受けることができるか?
[編集者注] この記事は、@SamaelRen Shuai の個人ブログに掲載されました。製品価値と...
ビジネスの嵐の中で自らの壁を強固にすることから、公然と、また秘密裏に戦い、互いに追いかけ合い、譲り合...
gcorelabsは9月21日、ブラジルのサンパウロデータセンターで、ブラジルVPS、ブラジルサーバ...
メーデー連休最終日の正午、QQ Spaceチームは「5月2日だけで、QQ Spaceにアップロードさ...
7 月に、justg は南アフリカのヨハネスブルグ データ センターで、すべての VPS 構成をサポ...
みなさんこんにちは。私はハルビン仮想および現実ウェブサイト設計です。最近、いくつかの新しいウェブサイ...
SEO 最適化のベテランと初心者の違いは、ベテランがハイテクな SEO 最適化手法を習得しているかど...
ルーマニアのホスティング会社である Hostsolutions は、苦情に抵抗し、著作権を無視するホ...
現在でも、パブリック クラウドのセキュリティとコストについては誤解や混乱が残っており、企業の意思決定...
「Made in China」はかつては安さと同義語でした。市場を開拓するために、ブランドが弱体化す...
マイニングをする人はたくさんいますし、大容量のハードドライブを備えた VPS を必要とする人もたくさ...
digital-vmでは主に日本VPS、シンガポールVPS、米国VPS(ロサンゼルス)、英国VPS、...
最近、JD Cloud は新しいクラウド エコシステム製品「Matrix Insight」データ ソ...
今朝早く、QQグループで誰かが自分のウェブサイトがダウングレードされたと苦情を言い、何が問題で、どう...
利点: 低コスト、高いインタラクティブ性 欠点: プロモーションが難しい、フレームワークの制約が多す...