注: この知識は、Pizirui 著の「SEO 徹底分析」という本から得たものです。このような優れた SEO 知識を書いてくださっている著者に心より感謝いたします。 [はじめに] 今日のインターネットの発達により、同じ情報が複数のウェブサイトに掲載され、ほとんどのメディアウェブサイトで同じニュースが報道され、小規模なウェブマスターや SEO 担当者のたゆまぬオンライン収集と相まって、インターネット上には大量の重複情報が存在しています。しかし、ユーザーがキーワードを検索する場合、検索エンジンはユーザーに同じ検索結果を提示したくはありません。これらの重複した Web ページをクロールすることは、ある程度、検索エンジン自身のリソースの無駄遣いとなるため、重複コンテンツを含む Web サイトを削除することが、検索エンジンが直面する大きな問題となっています。 一般的な検索エンジン アーキテクチャでは、Web ページの重複排除は通常、スパイダー クローリング部分に存在します。検索エンジン アーキテクチャ全体で「重複排除」ステップが早く実装されるほど、後続の処理システムでより多くのリソースを節約できます。検索エンジンは、一般的にクロールした重複ページを分類します。例えば、サイトに重複ページが大量に含まれているかどうか、サイトが他のサイトのコンテンツを完全に収集しているかどうかなどを判断し、今後サイトをクロールするかどうか、またはクロールを直接ブロックするかどうかを決定します。 重複排除作業は、通常、単語の分割後、インデックス作成前に実行されます (単語の分割前に実行される場合もあります)。検索エンジンは、ページ上で分割されたキーワードからいくつかの代表的なキーワードを抽出し、これらのキーワードの「指紋」を計算します。すべてのウェブページにはこのような特徴的なフィンガープリントがあり、新しくクロールされたウェブページのキーワードフィンガープリントがインデックスされたウェブページのキーワードフィンガープリントと重複すると、検索エンジンによって新しいウェブページが重複コンテンツとみなされ、インデックスが破棄される可能性があります。 実際の作業では、検索エンジンは単語分割ステップで区切られた意味のあるキーワードを使用するだけでなく、連続カットを使用してキーワードを抽出し、フィンガープリント計算を実行します。連続カットによりキーワードを抽出し、フィンガープリントの計算を行います。連続カットとは、単語を一つずつ後ろに移動しながらカットすることです。例えば、「百度が売買リンクの取り締まりを開始」は、「百度が開始」、「戦いを開始」、「取り締まりを開始」、「売買を取り締まる」、「売買を取り締まる」、「売買チェーン」、「販売リンク」にカットされます。次に、これらの単語からいくつかのキーワードが抽出され、フィンガープリントの計算と重複コンテンツの比較が行われます。これは、検索エンジンが重複した Web ページを識別するために使用する基本的なアルゴリズムにすぎません。重複した Web ページを処理するためのアルゴリズムは他にも多数あります。 そのため、インターネットで普及している疑似オリジナルツールのほとんどは、検索エンジンを騙すことができないか、コンテンツを理解不能にして誰も読めないようにします。そのため、理論上は、通常の疑似オリジナルツールを使用しても、通常の検索エンジンへの登録やランキングにはつながりません。しかし、Baidu はすべての重複ページを直接放棄してインデックスしないのではなく、重複 Web ページが配置されている Web サイトの重みに基づいて、インデックスの基準を適切に緩和します。これにより、一部の不正行為者は Web サイトの重みの高さを利用し、他のサイトから大量のコンテンツを集めて検索トラフィックを獲得する機会を得ています。しかし、2012年6月以降、百度検索はアルゴリズムを数回アップグレードし、重複情報やジャンクページの収集に対する取り締まりを複数回実施してきました。したがって、ウェブサイトのコンテンツに直面するとき、SEOはもはや擬似的な独創性の観点からそれを構築するのではなく、ユーザーにとって有用であるかどうかの観点から構築する必要があります。後者のコンテンツは必ずしもすべて独創的である必要はありませんが、一般的にウェブサイトの重量に大きな問題がなければ、健全に発展します。独創性の問題に関しては、この本の第 12 章で詳しく説明します。 さらに、Web ページの重複を排除する必要があるのは検索エンジンだけではありません。自分の Web サイト上のページも重複を排除する必要があります。例えば、分類情報やB2BプラットフォームなどのUGCウェブサイトを規制しない場合、ユーザーが投稿した情報は必然的に大量に繰り返されることになります。これはSEOの面でパフォーマンスが低下するだけでなく、サイト上のユーザーエクスペリエンスも大幅に低下します。たとえば、SEO 担当者がトラフィック プロダクトを設計する場合、通常は「集約」に基づいてインデックス ページ、特集ページ、またはディレクトリ ページを使用します。「集約」にはコア ワードが必要です。フィルタリングを行わないと、大量のコア ワードによって拡張されたページには多数の繰り返しが含まれる可能性があり、プロダクトのパフォーマンスが低下し、検索エンジンによって降格されることもあります。 「重複排除」アルゴリズムの一般的な原理は、一般的に上記のとおりです。興味のある方は、I-Match、Shingle、SimHash、コサイン重複排除の具体的なアルゴリズムについて学ぶことができます。 「Web ページの重複排除」作業を実行する前に、検索エンジンはまず Web ページを分析する必要があります。コンテンツ周辺の「ノイズ」は重複排除の結果に多少影響を及ぼします。この部分の作業を行うときは、コンテンツ部分のみを操作する必要があります。これは比較的簡単で、高品質の「SEO 製品」の作成に効果的に役立ちます。 SEO 担当者は、実装の原則を理解するだけで十分です。製品内の特定のアプリケーションを実装するには、技術者が必要です。さらに、効率やリソース要件などの問題も関係しており、「重複排除」作業も実際の状況に応じて複数のリンクで実行できます(コアワードのセグメンテーションなど)。SEO担当者が原理を少し理解し、技術担当者にいくつかの方向性を提案できれば、非常に良いでしょう(技術担当者は万能ではなく、慣れていない分野や得意ではない分野があり、特定のタイミングで他の人にアイデアを提供する必要もあります)。 SEO 担当者がこれらの側面について技術担当者と綿密な意見交換を行うことができれば、技術担当者も SEO を違った目で見るようになり、少なくとも「SEO 担当者はタイトル、リンク、テキストなどの「退屈な」要件を変更することしかできない」とは思わなくなるでしょう。 要約: Pizirui 氏の素晴らしい本に改めて感謝します。Nizi 氏は SEO の考え方における新しい知識、重複排除、フィンガープリントの原則を発見しました。兄弟姉妹がこの本を読んでくれることを願っています。今日はその一部を皆さんにシェアしたいと思います。今後も、良い知識のポイントが見つかったら、皆さんにシェアし続けます。 過去に再処理されたウェブサイトを参照できます:http://www.91suicediao.com/ 元のタイトル: Web ページ重複排除の原理は何ですか? キーワード: |
<<: ウェブマスター: サイトの起動が遅い問題を解決する方法
>>: Baidu 検索が変わったことと変わっていないこと: 最適化担当者が知っておくべきこと
今朝ウェブサイトを更新したところ、ウェブサイトの PR が 1 から 3 に増加していることに驚きま...
皆さんご存知のとおり、SEOを行う際、キーワードの選択は特に重要です。もちろん、ここでも矛盾が生じま...
95idcは香港に登録された会社です。主な業務は香港cn2 gia回線のVPS、米国ceraデータセ...
2011 年 6 月以来、OpenVirtuals は HostCat ブログに何度も登場しています...
flipperhost (2009~) は遅れましたが、昨年のブラックフライデーのプロモーションに参...
パブリック クラウドでもプライベート クラウドでも、基盤となるインフラストラクチャを考慮する必要はな...
計測機器は高価な工業製品であり、その価格は数千元から数万元にもなります。実験室や精密機器、設備の価格...
[51CTO.comより引用] 2020年、観光、飲食、映画・テレビ劇場など、多くの業界がCOVID...
3!2!1!リンク先で!待ちに待った命令に従い、少女たちは財布を隠すことができなくなった。はい、彼は...
最近、検索市場の巨人である国内検索エンジンの百度と国際的な検索エンジンの巨人グーグルの両社が、中国で...
onetechcloudのVPSクラウドサーバーは現在、全製品で20%割引(四半期支払いのみ)を提供...
中国で最も人気のあるウェブマスターフォーラムの1つであるA5は、情報、取引、フォーラムを統合し、大多...
Orange VPSは現在、主に米国のVPS、特に3つのネットワークcn2 gia回線のVPSを運営...
2004年に設立されたHawkhost(中国ではEagle Hostと呼ばれています)が、ブラックフ...
従来の職場は、もはやオフィスビルの物理的な建築物によって定義されなくなりました。ハイブリッドな労働環...