ブラックリストページとは何でしょうか?簡単に言うと、コンテンツ品質は良いが、Baidu に一度も含まれていないページです。ウェブサイトが 100% の包含率を達成することは不可能ですが、コンテンツ品質が良いページが含まれていないのはいつも残念です。最適化を行う際に、このような状況に遭遇することはよくあります。ほぼすべてのサイトには、いわゆるブラックリスト ページがいくつかあると言えます。典型的な例は次のとおりです。非常に高い重みを持つ大規模な Web サイト、オリジナル コンテンツの内部ページがいくつかあり、Baidu スパイダーによって正常にクロールされますが、含まれません。もちろん、一部の小規模なサイトには、このようなページがさらに多くあります。では、どうすればこれらのページを再びインデックスに登録できるでしょうか。あるいは、サイト全体のインデックス登録率を高めるにはどうすればよいでしょうか。Baidu がこれらの高品質なページをインデックスに登録しない理由を分析してみましょう。著者は、次の要因をまとめています。 最初の要因は、ウェブサイト全体の重さです。これは明らかです。ウェブサイトの重さが大きければ大きいほど、含まれるページ数も多くなります。もちろん、大規模なウェブサイトは、組み込む際にボトルネックに遭遇します。Baiduのウェブサイトの組み込みには制限があります。組み込みが一定量に達すると、ページを組み込み続けることが難しくなります。サイトウェイトの高い大規模サイトであれば、他サイトの記事を転載した場合でも、多数の記事に含まれます。しかし、小規模サイトの場合、特に大規模サイトが小規模サイトのコンテンツを転載した場合など、オリジナルであっても記事に含まれにくいことがあります。 2 番目の要因は、サイトの構造が良くないことです。たとえば、URL が標準ではない、URL に長すぎるパラメータが含まれているなどです。3 番目の要因は、一部のページがスパイダーによってクロールされる回数が少なすぎて、入り口が不足していることです。つまり、スパイダー用の入り口リンクをいくつか作成する必要があり、高品質のリンクをいくつか作成できます。 4 番目の要因は、一部の内部ページが Baidu に非常に悪い第一印象を与えているため、Baidu スパイダーを引き付けてクロールし、再度取得し、Baidu が長期間それらを組み込まなかった理由を見つけてから、問題の解決を開始する必要があることです。 まず、ブラックリストページのURLにスパイダーエントリを追加します。 サイト内の内部リンクを適切に配置し、サイト外への外部リンクを増やす必要があります。どちらの方法でも、Baidu スパイダーの入り口を増やすことができ、内部ページの重みも向上します。重みが高ければ高いほど、含まれる可能性が高くなります。ただし、一部の大規模な Web サイトでは、これを実行するのは非常に困難です。ブラックリストに登録されたページには、より多くの内部リンクを追加します。これらのページに関連するページは相互にリンクできます。内部リンクの役割は、重み付けにとってそれほど重要ではない可能性があります。結局のところ、内部リンクは他者からの投票としてカウントされません。外部リンクに関しては、その役割は非常に明白です。これらのブラックリストに載ったページは、自然にインデックス化することはできません。たとえば、これらの URL に高品質のフレンドリー リンクや他の種類の外部リンクをいくつか提供して、Baidu スパイダーがこれらの URL をクロールするように誘導することができます。これは私たちがよく使う方法です。また、URLを直接Baiduに送信することもできますが、効果が遅すぎるように思われる場合があります。 2番目: HTMLソースファイルを含むブラックリストページのコンテンツを変更する 品質の低いページが Baidu に含まれないのは普通のことです。ブラックリストのページはすべて品質の良いページです。何らかの理由で、これらのページは Baidu に非常に悪い第一印象を与えるため、Baidu はそれらを無視します。これらのページを Baidu に再度認識させたい場合は、ページを改造したり、コンテンツを変更または書き直したりするのが最適です。もちろん、ページの HTML ソース ファイルを変更することもできます。さらに、ページのタイトル、キーワード、説明などの情報も修正および改善する必要があり、そうすることで、Baidu はブラックリストに登録されたページを再検査し、当然これらのページを再び含める可能性があります。あるいは、ブラックリストに登録されたページはインデックスに登録されていないため、まずブラックリストに登録されたページを削除してから、コンテンツ ページを再作成することもできます。これは、実際にはブラックリストに登録されたページを自分で削除することになります。 3番目: URLが基準を満たしていることを確認し、サイトページ全体の類似性を減らす 非標準URLはページ非掲載につながる重要な要因なので、最適化を行う際には注意が必要です。一般的に、中小企業のWebサイトではこのような状況に遭遇することが多いです。正直に言うと、修正するのは簡単ではないので、Webサイトを構築する際には避けたほうがよいでしょう。できるだけ静的ページを使用するようにしてください。動的ページであっても、長いパラメータは使用しないでください。ブラックリストに登録されているページの URL が標準化されていないかどうかを確認してください。もう 1 つのポイントは、ページの類似性の問題です。通常、ページに表示されるコンテンツを調整することで、過度のページの類似性を避けることができます。ただし、多くの場合、SEO 担当者にはページ テンプレートを変更する権限がありません。結局のところ、Web サイトは SEO のために存続することはできません。電子商取引サイトでは、ページのユーザー エクスペリエンスとコンバージョン率に重点が置かれています。他の部門と連携するしかありません! 筆者は上記でいくつかの方法をまとめましたが、実際には革新的なことは何もありませんが、運用中に最も完璧な状態を達成することは困難です。 実際には、ウェブサイトのインクルードの問題を本当に解決するのは非常に困難です。大規模なウェブサイトのインクルードの問題は、SEO 担当者にとって常に頭痛の種でした。私たちが追求しているのは、最大のインクルード率です。数万ページのサイトと数十万ページのサイトはまったく異なる概念です。小規模なサイトであれば問題ないと思いますが、大規模なサイトの場合はそう簡単ではありません。ブラックリストページについては、どのように運用されていますか?一緒に実験して勉強してみるのも良いかもしれません。 |
<<: ウェブサイト運営: ユーザーに「7年目の痒み」を起こさせない
>>: Jieku.comのCEOが金を持ち逃げし、従業員全員を解雇したというネット上の噂は公式に否定された。
オリジナル記事は、ウェブマスターにとって常に最も厄介な問題の 1 つです。ウェブマスターは誰でも、オ...
[51CTO.com からのオリジナル記事] Red Hat は世界最大のオープンソース ソフトウェ...
絶対にしてはいけない SEO の間違い 10 選1) フラッシュサイト(すべてフラッシュ) 2) フ...
Alibaba Cloud と VMware (NYSE: VMW) は本日、次世代の Alibab...
メールマーケティングはQQメールマーケティングに限定されず、163メールボックス、126メールボック...
Akamaiのクラウドコンピューティングサービスによりクラウド コストが50%削減「Akamai チ...
百度の新しいアルゴリズムの変更10月23日、ウェブマスターにとってもう一つの「苦難の日」が訪れた。 ...
[[346377]]建国記念日を前に、NVIDIA による ARM 買収のニュースはテクノロジー界で...
VMware (NYSE: VMW) は今週の VMworld 2020 で VMware Futu...
extravm は、オランダのアムステルダムに新しいデータセンターを設立しました。オランダの VPS...
HostCat では、以前 deepnetsolutions に関するニュースをリリースしましたが、...
prometues は 1999 年に設立されたイタリアの IDC です。バックボーン ネットワーク...
重要なヒント:無料のウェブマスター ツールを使用すると、問題を特定し、検索結果でのウェブサイトのパフ...
11月16日、中国オープンソースクラウドアライアンスWG6コンテナワーキンググループとShu Ren...
2005年、中国初の生鮮食品電子商取引プラットフォーム「Yiguo.com」が設立され、生鮮食品電子...