現在でも、Web コンテンツの重複は SEO において依然としてホットな話題です。これは、分散モデルを通じて、Web サイトのコンテンツが大量に複製されるケースが増えているためです。これにより、検索エンジンはより柔軟かつ高速になり、ユーザーに正確で関連性の高い検索結果、特にオリジナルコンテンツを提供できるようになります。 主要な検索エンジンは、ウェブサイトのコンテンツを複製する正当な理由が数多くあることを認識しています。アフィリエイト販売チャネルにはコンテンツの集中ソースが必要であり、同じコンテンツを異なる Web サイトに公開するには同期サービスが必要です。コンテンツが再編成された後、コンテンツ管理システムは Web ページを調整して効果的なディレクトリを作成します。 RSS フィードは、同じコンテンツを新しいユーザーに再配布するものでもあります。 主要な検索エンジンも、ウェブサイトのコンテンツを重複させる理由が妥当でないことが数多くあることを理解しています。業界には、他のウェブサイトからコンテンツを勝手に引用し、それをコピーし、役に立たないウェブサイトにリンクしているウェブサイトが多数存在します。これにより、AdSense などのサイトはペナルティやフィルタリングなどの手段を通じて状況を修正する必要に迫られました。 Google は、効果的なコンテンツ コピーと効果のないコンテンツ コピーの違いを非常によく理解しています。効果的にコピーされたコンテンツを確立する正当な理由は非常に多いため、Google の補足結果がペナルティにならない限り、実際にコピーされたコンテンツによってペナルティを受ける人はいません。補足的な検索結果を入力してもペナルティにはならず、これらのページは引き続きインデックスに登録されます。認識されている補足的な検索結果は、検索選択的なトラフィックをあまり生成しない補足的な Web ページの迷路です。しかし、補足的な検索結果はまったくインデックスされないよりはましですよね? GOOGLE 検索エンジンでは、固定検索で関連する結果が多数表示されない場合は、通常、固定検索結果とともに補足検索結果が表示されます。補足検索に基づいたページが 3 番目の 10 ページ以降に表示されることがよくあります。もちろん、検索者が特定の検索を実行した場合、最初のページに補足的な検索結果が表示されます。 検索結果を補足することは、GOOGLE が検索データベースを拡張する良い方法であり、同時に、低品質の Web ページが検索関連のトラフィックを受け取るのを防ぐことにもなります。補足検索結果は固定検索結果よりも信頼性が低いため、Google や他の企業からはあまり好まれていません。補足検索結果は、固定検索結果よりも検索される頻度が低くなります。したがって、補足検索インデックスは古くなっているというバッファー レベルにありますが、ペナルティを受けるほどではありません。 トラフィックの多いサイトには、通常、補足的な検索結果がいくつかあります。 GOOGLE でのサイトのパフォーマンスが気になる場合は、履歴データを用意しておくと、重複コンテンツが検索選択性トラフィックの低下につながっているかどうかを判断するのに役立ちます。 サイトのページ数を理解し、補足的な検索でサイトをターゲットにするタイミングを決定する必要があります。サイト上の補足検索結果の月間基準を確立し、変更を注意深く観察し、コンテンツの品質に注意を払います。おそらく、コピーされたコンテンツは、Google から低品質のページ スコアを取得する始まりです。 一部のサイトでは、コンテンツの重複が大きな問題になります。これは、検索エンジンにどのページが重要で、どのページが重要でないかを判断するよう要求しているためで、関連するサイトの検索に費やせるはずの検索時間が大量に無駄になります。コンテンツの重複を最小限に抑える簡単な方法がいくつかあります。たとえば、robots.txt を調整して、検索エンジンがコンテンツの印刷版と PDF 版のみを検索するようにするなどです。そうすることで重複コンテンツが減り、検索効率が向上します。動的 URL がサイトのコピーのルートにある場合は、静的 URL を書き換えます。どのようなコピーを作成する場合でも、検索関連のトラフィックを減らす効果的な方法は常に存在します。 残念ながら、コンテンツの重複の問題は常に激しく議論されてきました。コンテンツの重複に対するペナルティも非常にまれです。コンテンツをコピーした場合の罰則を測定するのは非常に困難です。大量のウェブページが補足的な検索結果として表示されることを心配するよりも、サイトに独自のコンテンツを提供して、より多くの内部リンクを獲得できるようにしたほうがよいでしょう。 (原文は2007年6月6日に初公開、翻訳は金盛喜) 原題: ウェブコンテンツの重複に関する議論 キーワード: |
今年の天猫ダブル11プレセール初日には、約10万人のタオバオキャスターが放送を開始し、約2万のブラン...
たった1日の午後、私は注意を払っていませんでした。子供の世話をしていたのですが、私のQQグループがブ...
IaaS プラットフォームのセキュリティを保護することは、顧客とプロバイダーの共通の責任であるため、...
クラウドコンピューティング、ビッグデータ、人工知能などの技術の開発と応用は、技術アーキテクチャの観点...
8月上旬に新バージョンのスルートレインが発売され、スルートレインの運営理念とロジックをより深く理解す...
多くの SEO 担当者は、自社のウェブサイトの最適化が競合他社よりも優れていると不満を述べていますが...
日本の VPS を購入するのは簡単ではありません。そのほとんどは日本での現地決済が必要で、コミュニケ...
検索エンジンのアルゴリズムが頻繁に更新されるにつれて、多くの SEO 最適化されたウェブサイトのキー...
SEO 最適化に関しては、ユーザーはほぼ常に結果志向です。もちろん、これも人間の本性です。実際の効果...
Hostsolutions の格安 VPS プロモーションが始まりました (ルーマニアの自社データ ...
医療ウェブサイトを運営している友人は、まだランクインはしているがランキングには入っていないのではない...
[[333922]]やり方を知るよりも、買い方を知る方が良いです。この格言はテクノロジー界の巨人たち...
Dapr を使用すると、一連のミドルウェア コンポーネントを連鎖させることで、カスタム処理パイプライ...
中国マーチャントであるanyhkは、香港(HKBN、HKT)と台湾HinetのNAT VPS、および...
マルチクラウドとハイブリッドクラウドとはKubernetes とクラウド ネイティブの普及により、高...