ウェブサイト上の重複コンテンツは有害であり、ウェブマスターはそれに備える必要がある

ウェブサイト上の重複コンテンツは有害であり、ウェブマスターはそれに備える必要がある

インターネットの不安定な発展により、ネットユーザーはより多くのオリジナルコンテンツを持つことができず、その結果、ウェブサイト上のほとんどのコンテンツが収集され、インターネットスパムが大量に拡散するようになりました。ウェブマスターは皆、このような重複コンテンツには何のメリットもないことを知っています。たとえウェブサイトがそのようなコンテンツから一定期間利益を得ていたとしても、ウェブマスターは事前に計画を立て、ウェブサイト上の重複コンテンツを減らし、ウェブサイト全体の品質を向上させる必要があります。

重複コンテンツはなぜ発生するのでしょうか?

重複コンテンツとは、異なる URL リンクのコンテンツが同じであることを意味します。重複コンテンツの原因としては、コンテンツ コレクションが考えられます。コンテンツ コレクションでは、他のサイトのコンテンツがコレクション ツールを使用して直接収集されます。Web サイトには非標準の URL のためアクセスできる URL アドレスが複数あり、スパイダーも同時に複数の重複ページを収集します。Web サイトには 404 エラー ページがなく、すべてのエラー リンクはデフォルトでホームページにジャンプします。このエラー リンクの処理方法も、Web サイトに大量の重複ページが存在することにつながります。または、ショッピング モールのような Web サイトでは、製品のサイズが異なるため、紹介ページが複数設定されていますが、Web ページの大まかなコンテンツは同じであるため、このような状況もスパイダーによって重複コンテンツと見なされます。

重複コンテンツを検出する方法

自分のサイト内に重複コンテンツがある場合、それを検出するのは比較的簡単です。site: ドメイン名を使用して、検索エンジンが重複コンテンツをインデックスしているかどうかを確認できます。ただし、外部のページに繰り返しがあるかどうかを確認したい場合は、そのページから文章を抜き出し、二重引用符を付けて検索エンジンで検索することができます。インターネット上に同一の文章が多数ある場合は、クリックして表示すると、Web ページ全体が繰り返しになっているかどうかがわかります。このような検出方法は難しい場合が多く、別の記事に出てくる文が見つかる確率は低くなります。記事が盗作であるかどうかを検出するには、「title: + 記事タイトル」で同じ記事を見つけることができます。 、

重複コンテンツは有害ですか?

ウェブサイトに大量の重複コンテンツが収集されている場合、検索エンジンはそのようなサイトをスパムサイトと見なし、すぐに検索エンジンによって降格されます。検索エンジンは、重複コンテンツが多いサイトを降格することがよくありますが、スパイダーはコピーされたコンテンツが少ないサイトを降格しません。スパイダーは、重複ページのうちどのページがオリジナルであるかを判断し、そのような重複ページをランク付けします。検索エンジンは時々誤った判断を下し、ウェブマスターがよく目にする現象につながります。つまり、自分のオリジナルコンテンツが他のサイトに転載され、他のサイトのランキングは良いのに自分のサイトが含まれないということです。自分のウェブサイトに重複ページがあり、スパイダーが収集したページリンクがプロモーションリンクと一致していないため、ウェブサイトの軽量化につながります。特にウェブサイトの一部の重要なページでは、URLリンクが複数あると、ユーザーが覚えにくく、スパイダーにとっても不正な最適化方法です。重複コンテンツが多いサイトの場合、検索エンジンは不正な最適化を疑い、ダウングレードします。

重複コンテンツを排除する方法

ウェブサイト内の重複コンテンツは、多くの場合、非標準の URL から発生します。非標準の URL の問題に対する最善の解決策は、ウェブサイトのすべての内部リンクを統一された URL リンクにリダイレクトして、ウェブサイトの重量損失を減らすことです。異なるバージョンによって発生した重複コンテンツについては、ロボット ファイルを使用してブロックしたり、スパイダーが不要なページをクロールするのを禁止したり、含めたくないリンクに nofollow タグを使用したりすることができます。上記のショッピングモールのウェブサイトでは、商品のサイズが異なるため、重複したページが含まれています。canonical タグを使用できます。Baidu が Canonical タグをサポートした後、ウェブマスターはページの非標準バージョンに要素と rel="canonical" 属性を追加することで、検索エンジンの標準ページを指定できます。外部サイトに表示される重複コンテンツについては、ウェブマスターとコミュニケーションを取り、記事コンテンツの元のソースを追加することで、元のコンテンツの収集によって生じる損害を軽減できます。

ウェブサイト上の重複コンテンツが必ずしもウェブサイトに影響を及ぼすわけではありませんが、大量のコンテンツが収集されたサイトは検索エンジン上で長く機能しません。パートタイム ジョブ (http://www.jianzhi8.com) は、ウェブマスターが重複コンテンツの問題を本当に解決したいのであれば、重複コンテンツの可能性を減らすために、ウェブサイトにオリジナルのコンテンツを提供する必要があると考えています。あなたのサイトをユニークなものにするよう努めてください。


元のタイトル: ウェブサイト上の重複コンテンツは有害であり、ウェブマスターは雨の日のために備える必要がある

キーワード: ウェブサイトの繰り返し、重複コンテンツ、危険なコンテンツ、重大な危害、ウェブマスター、将来に備える必要性、インターネット、不安定、固定投稿、ウェブサイトの宣伝、収益化

<<:  再び判明した:百度はPPS買収の意向に署名し、近日中にデューデリジェンスを実施する予定

>>:  外部リンク構築段階:初期段階ではホームページにリンクし、後期段階では内部ページにリンクする

推薦する

dogyun: 香港「アリババクラウド」回線VPS、月額45元、cn2との3ネットワーク直接接続、高速化!添付 - VPS評価データ

Dogyunは、新しい「Alibaba Cloud」ライン香港VPSの発売を正式に発表しました。これ...

例: キーワード選択戦略

ウェブサイトの最適化で最適なキーワードを選択するにはどうすればよいでしょうか? SEO 作業の重要な...

検索エンジンはユーザー エクスペリエンスにますます注目しています。SEO をうまく行うにはどうすればよいでしょうか?

検索エンジンはユーザー エクスペリエンスにますます注目しています。SEO をうまく行うにはどうすれば...

tzhost-13元/KVM/VPS/C3コンピュータルーム/128mメモリ/200gトラフィック

オリジナルの tzhost (2009 年に設立) である idc.ac は、VPS の販売を開始し...

Virpus レビュー

数日前、virpus が SSD CACHE ハードディスクを搭載した新しい Xen VPS をリリ...

エンタープライズレベルの電子商取引ウェブサイトシステムを構築するのは、他のウェブサイトを構築するよりもなぜ難しいのでしょうか?

2018年最もホットなプロジェクト:テレマーケティングロボットがあなたの参加を待っています電子商取引...

クラウドネットワーク統合市場には幅広い展望があります。事業者と企業は協力して前進すべきである

[[395514]]クラウド開発が成熟するにつれて、クラウドネットワーク統合 (CNI) が業界でホ...

個人のウェブマスターが持つべき知識と能力について簡単に説明します。

個人ウェブマスターが持つべき知識は、完全な知識フレームワークであると言えます。さらに、ウェブマスター...

Webmaster.com からの毎日のレポート: 大手企業がモバイル インターネットを独占、Baidu が 360 盗作を公証

1. 百度が360の盗作の公証を要求したと言われており、検索結果が似通っているため物議を醸しているサ...

クラウドコンピューティングは頂点に一歩近づいた

小説では、頂点から一歩手前の修行段階を「頂点まで半歩」と呼ぶことが多い。 1946年、アメリカで世界...

パブリッククラウドのコスト管理に役立つ28の効果的な対策

クラウドが新たな標準となり、企業がデジタル変革計画を加速するにつれて、IT 環境は完全に変化しました...

企業のマーケティングモデルの断絶につながるいくつかの問題

今日の中小企業のオンラインマーケティング市場は、伝統的なモデルから徐々に脱却しています。伝統的な業界...

独立系ブログとサードパーティブログに関する私の個人的な意見

インターネットの急速な発展により、ブログはオンライン マーケティングにおいてもはや目新しいものではな...

「百度が方周子を買収」事件の判決:360に侵害賠償金5万元の支払い命令

網易科技は3月25日、北京奇虎と周鴻毅会長を、微博に「方周子は百度に買収された疑いがある」「ある検索...