ウェブサイトの最適化を行ったすべての SEO 担当者にとって、新しいサイトか古いサイトかに関係なく、検索エンジンにインデックスされたページ数は、ウェブサイトの最適化を評価するための基本的な指標です。さらに、多くの SEO 担当者は、自分のウェブサイトにインデックスされたページ数に苦労しています。では、ウェブサイトが検索エンジンにインデックスされないようにする要因は何でしょうか。ここで、Niuren Xiaoyu は、多くのウェブマスターの経験と自身の実践をまとめています。 要因 1: ロボットファイル ウェブマスターの誤操作。ここでの誤操作は、ロボット ファイルの記述です。多くの Web サイトがインデックスに含まれるのは、ロボットの誤った記述が原因で、スパイダーが Web ページをクロールできなくなります。 要因2: ウェブサイトドメインの全体的な重み ウェブサイトのドメイン名の全体的な重みだけでは十分ではありません。ここで、専門家のXiaoyuは、重みの異なるウェブサイトではスパイダーがウェブページをクロールするのにかかる時間が異なることを伝えています。重みの高いウェブサイトでは当然時間が長くなり、重みの低いウェブサイトでは時間が短くなります。私のウェブサイトのホームページや内部ページの重量が軽いものの多くは、ウェブページを組み込むための基本的な要件を満たしていません。これは自然界の動物の生存の法則と同じで、強いものだけが生き残るため、ウェブサイト全体の重量を改善することは、各ウェブサイトのウェブページを含めるために非常に重要です。 要因3: ウェブサイトの構造の問題 ウェブサイトの構造が適切に設計されていません。ウェブサイト構造の不合理な設計は、ウェブサイトのバックボーンが貧弱で、詳細がスムーズに流れていないことに例えられます。ウェブサイトの構造設計は、主にウェブサイトの物理構造と論理構造(URL構造)の設計が検索エンジンスパイダーの迅速な誘導とクロールに適しているかどうかに反映されます。同時に、ウェブサイトの構造に問題があると、さまざまなページ間でのウェブサイトの重みの転送が不利になります。これにより、Web ページの組み込みにも問題が発生します。 要因4: 乱雑な内部リンク 多くの SEO 担当者は、Web ページの内部リンクが他の関連ページの権威と重みを高めることができることを知っています。これは、Web ページのリンク要素に基づいています。ただし、Web ページの内部リンクの設計が適切に計画されているかどうかは、Web サイトのページ全体を総合的に包含するための必要条件でもあります。各 SEO 担当者は、思いついた場所にリンクするのではなく、Web ページの内部リンクを配置する前に計画を立てることをお勧めします。 要因5: ページ要素がSEOフレンドリーではない 一般的に、検索エンジンの認識に役立たないタグ要素が Web ページに多すぎることを指します。検索エンジンに精通している人は誰でも、検索エンジン自体がプログラムであり、テキスト タグのみを認識することを知っています。フラッシュ、JavaScript、ifrmae 要素が Web ページの主なインポート チャネルを占めている場合、Web ページが含まれない可能性が非常に高くなります。 要因6: ページの重複 ここでのページ複製とは、ウェブサイト自身のページコンテンツの複製と外部への複製を指します。 ページの重複とは、ウェブサイトの多くのページがタイトルのみを変更した同じ内容であるという事実を指します。ユーザーはウェブサイトが自分を騙していると感じます。検索エンジンにとって、ウェブサイトのコンテンツは長期的には単純すぎます。検索エンジンはウェブページをテキストファイルに分解して検索データベースにインデックスするため、スパイダーはウェブサイトに重複ページが多すぎることを理解します。時間が経つにつれて、スパイダーはますます少なくなり、ウェブサイトの後のページの掲載に大きな影響を与えます。 ページの外部的な繰り返しは、収集されたコンテンツが多すぎて盗用されていることを意味し、結果として掲載が拒否されます。この要素は、June Stormアルゴリズムのアップデート以来、Baiduが繰り返し攻撃を仕掛けている焦点でもあると思います。医療ステーション業界にはこのようなコンテンツが溢れているようで、自然とBaiduの主なターゲットになります。 要因7: サーバーとスペースの不安定性 この問題は、当たり前のことと言えます。サーバーとスペースの不安定さは、スパイダーの組み込みを直接拒否すると言えます。すべての SEO 担当者は、このことの重要性を理解しています。 上記の要因は、Web ページの組み込みに問題があることがわかった場合に、問題を迅速に発見して解決し、Web サイトのスパイダー クロール ログと Web サイトのバックグラウンド データを最大限に活用できるようにするために言及されています。ウェブページの収集は、きちんと計画する必要があります。ウェブページの収集は、量の時代から質+量の時代へと移行しました。ちょうど果樹のように、それぞれの果実は各ウェブページの重要なプロモーションページであり、それぞれの葉は果実を引き立てる普通のページです。適切なページインポートルールを策定することによってのみ、収集されたウェブページは、完璧な質+量のウェブページコレクションになります。 この記事はNiuren Xiaoyu http://blog.sina.com.cn/1976xiaoyu によって公開されました。転載は歓迎します。転載の際は出典を明記してください。 元のタイトル: ウェブサイトが検索エンジンに含まれないようにする 7 つの要因 キーワード: ウェブページコレクション、ウェブマスター、ウェブサイト、ウェブサイトプロモーション、収益化 |
<<: 新しいウェブマスターの皆さん、スパムの外部リンクの作成はやめてください。
>>: Google、Microsoftなどが共同で「オープンウェブ標準」ウェブサイトを立ち上げ
もう1年も終わりに近づき、例年通り、あらゆる専門・非専門の組織や個人が「2019年の総括」や「新年の...
IDC Review Network (idcps.com) は 3 月 18 日に次のように報告し...
Dedipath の最新プロモーションは、OpenVZ 仮想化に基づく VPS です。8G メモリ ...
2012年に1年間放浪しましたが、何も得られませんでした。 2 日前に、2013 年に行うことの 1...
最近、グループ内の友人とチャットしていたのですが、勉強したり授業に参加したりする人はほとんどいないこ...
最近、百度のエンジンはGreen Radish 2.0から大きく変わったことに気づきました。もともと...
調査会社ガートナーの調査レポートによると、クラウド コンピューティング インフラストラクチャ サービ...
編集者注/今年、モバイルインターネットは資本家のお気に入りになりました。中国の投資業界における「資金...
2018年最もホットなプロジェクト:テレマーケティングロボットがあなたの参加を待っています企業が製品...
検索エンジンに含まれるページは、実際にはインターネット上のデータ収集です。これは検索エンジンの最も基...
クラウド コンピューティングのトレンドが到来していることは誰もが知っています。過ぎ去ろうとしている ...
7月に、greencloudvpsは米国西海岸のサンノゼデータセンターにVPS事業を追加しました。当...
月収10万元の起業の夢を実現するミニプログラム起業支援プランWeChatインターネットはトラフィック...
HostCat のウェブマスター、つまり私が Yunwu Internet のボスと初めて知り合った...
初期の頃は、物理マシンでは通常 1 つのオペレーティング システムのみが実行され、ほとんどのアプリケ...