検索エンジンに含まれるページは、実際にはインターネット上のデータ収集です。これは検索エンジンの最も基本的な作業です。検索エンジンのコンテンツは、バックグラウンドにある膨大な URL リストから取得されます。これらの URL を通じて、コンテンツは継続的に収集、保存、維持されます。検索エンジン収集のプロセス、原則、および方法を学ぶことで、検索エンジンに含まれる Web サイトの数を効果的に増やすことができます。 1. ページ収集プロセス、 インターネットでは、URL は各ページのエントリ アドレスです。「スパイダー プログラム」は、これらの URL リストを通じてページをクロールします。「スパイダー」は、これらのページから URL リソースとストレージ ページを継続的に取得し、URL リストに追加します。この継続的なサイクルで、検索エンジンはインターネットから十分なページを取得できます。 URL はページへの入り口であり、ドメイン名はウェブサイトへの入り口です。検索エンジンはドメイン名を通じてウェブサイトに入り、URL リソースをマイニングします。言い換えれば、インターネット上のページをクロールする検索エンジンの主なタスクは、ドメイン名の膨大なリストを持ち、ドメイン名を通じてウェブサイトに絶えず入り、ウェブサイト上のページをクロールすることです。 私たちにとって、検索エンジンに含まれたい場合、最初の条件は検索エンジンのドメイン名リストを追加することです。検索エンジンのドメイン名リストを追加するには、2 つの一般的な方法があります。 検索エンジンが提供するウェブサイトログインポータルを使用して、ウェブサイトのドメイン名を検索エンジンに送信します。たとえば、Baidu の: http://www.baidu.com/search/url_submit.html。ここで独自のウェブサイトドメイン名を送信できます。ただし、この方法では、検索エンジンは定期的にクロールして更新するだけです。このアプローチは比較的受動的であり、ドメイン名送信ウェブサイトが含まれるまでに長い時間がかかります。 質の高い「外部リンク」にリンクすることで、検索エンジンは「他人」のウェブサイトページをクロールする際に当社のウェブサイトを見つけ、ウェブサイトの組み込みを達成することができます。この方法は、(十分な「外部リンク」がある限り)主導権を当社に握らせ、組み込み速度は最初の方法よりも速くなります。外部リンクの数と品質の関連性に応じて、通常は2〜7日以内に検索エンジンに組み込まれます。 2. ページ収集の原則 「ページインクルードプロセス」を学ぶことで、ウェブサイトのインクルードを高速化する手法を習得できます。次に、ページインクルードの原則を学習して、検索エンジンにインクルードされるページ数を増やしましょう。 ウェブサイトのページを有向グラフと見なすと、指定されたページから開始し、特定の戦略に従ってページ内のリンクに沿ってウェブサイト内のページを移動します。アクセスした URL を URL リストから継続的に削除し、元のページを保存し、元のページの URL 情報を抽出します。次に、URL をドメイン名と内部 URL の 2 つのカテゴリに分割し、URL がアクセスされたかどうかを判断し、アクセスされていない URL を URL リストに追加します。すべての URL リソースが使い果たされるまで、URL リストを再帰的にスキャンします。これを実行すると、検索エンジンはドメイン名、ページ URL の膨大なリストを構築し、十分な数の元のページを保存できるようになります。 3. ページ収集方法 「ページ収集プロセス」と「ページ収集の原則」を理解していても、検索エンジンで比較的重要なページを取得するには、検索エンジンのページ収集方法が関係します。 ページ収集法とは、検索エンジンがページをクロールする際に使用する戦略を指します。その目的は、インターネット上の比較的重要な情報をフィルタリングすることです。ページ収集法の策定は、検索エンジンのネットワーク構造の理解に依存します。同じクロール戦略を使用すると、検索エンジンは同じ時間内にウェブサイトからより多くのページ リソースをクロールでき、ウェブサイトに長く滞在するため、含まれるページ数も自然に増加します。 したがって、検索エンジンのページがどのようにインデックスされるかをより深く理解することで、Web サイトの使いやすい構造を確立し、インデックスされるページの数を増やすことができます。 検索エンジンがページをインデックスする方法には、主に「幅優先」、「深さ優先」、「ユーザー サブミッション」(ユーザー サブミッションについてはここでは説明しません) の 3 つがあります。これら 3 つのページ インデックス作成方法と、それぞれの利点と欠点を理解しましょう。
ウェブサイト全体を木と考えると、ホームページが根であり、各ページが葉になります。幅優先クロールは、ツリーの浅い層からページのクロールを開始し、同じレベルのすべてのページをクロールした後にのみ次の層に移動する水平ページクロール方法です。したがって、Web サイトを最適化するときは、比較的浅い階層のページに比較的重要な情報を表示する必要があります (たとえば、ホームページで人気のあるコンテンツを推奨するなど)。逆に、幅優先クロール方式では、検索エンジンはウェブサイトの比較的重要なページを最初にクロールすることができます。 まず、スパイダーはウェブサイトのホームページから開始し、ホームページ上のリンクが指すすべてのページをクロールしてページセット A を形成し、A 内のすべてのページのリンクを分析します。次に、これらのリンクを追跡して次のレイヤーのページをクロールし、ページセット B を形成します。このようにして、特定の設定条件が満たされるまで、浅いページから深いページへのリンクを再帰的に解析し、その後クロール プロセスを停止します。
幅優先クロール方式とは対照的に、深さ優先クロール方式は、最初に浅いページのリンクを追跡し、次に深いページを徐々にクロールして、最も深いページをクロールします。その後、浅いページに戻り、別のリンクを追跡して深いページへのクロールを続けます。これは垂直ページクロール方式です。深さ優先クロール方式を使用すると、検索エンジンはウェブサイト上のより隠れた人気のないページをクロールできるため、より多くのユーザーのニーズを満たすことができます。 まず、検索エンジンはウェブサイトのホームページをクロールし、ホームページ内のリンクを抽出します。次に、リンクの 1 つに沿ってページ A-1 までクロールし、A-1 内のリンクを取得してページ B-1 をクロールし、B-1 内の着信リンクを取得してページ C-1 をクロールし、このプロセスを継続的に繰り返します。特定の条件が満たされると、ページとリンクは A-2 からクロールされます。 次号では、「ページの検索エンジンインデックス作成(パート 2)」を紹介します。China Webmaster Station と Damin のブログをフォローしてください。 要点: 4. 検索エンジンによる重複インデックスを回避する方法 ①検索エンジン転載ページの判定 ②検索エンジンミラーページ判定 5. ページメンテナンス方法 ① 定期的なクローリング ②増分クロール ③分類と位置合わせクローリング 6. ページストレージ 原題: 検索エンジンによるページインデックスの原理と方法の分析 キーワード: 検索エンジン |
>>: BaiduによってウェブサイトがKになった理由を分析する
HUAWEI CLOUDは8月25日から9月3日まで、ラテンアメリカでの2周年を祝う一連のイベントを...
昨日、私はSotu.comサロンに出席し、王同教授の見解を聞きました。彼が挙げた例の一つは、百度で趙...
vmissは、3つのネットワークすべてにモバイルCMI回線の使用を強制し、中国本土に直接接続し、pi...
小紅書は草植え経済の中心であり、最も典型的な代表であり、コンテンツの推奨とコンテンツの植え付けを通じ...
6月12日、TAPD(テンセントアジャイル製品開発)は「2018年エンタープライズアジャイルコラボレ...
最近、権威ある組織AMinerが2022年のAI 2000の最も影響力のある人工知能リストを発表しま...
2018年最もホットなプロジェクト:テレマーケティングロボットがあなたの参加を待っていますかつては、...
月収10万元の起業の夢を実現するミニプログラム起業支援プランSEO 作業では、ウェブサイトのランキン...
技術の進歩により、人間がコンテンツを消費する方法に変化が起こりました。リアルタイムの没入型コラボレー...
[[429612]] 2021年10月15日、華雲データと陝西省西県新区開発建設管理委員会は、「秦創...
SEOの人気が高まるにつれて、オンラインマーケティングに従事するほぼすべての企業が優れたSEOを備え...
2005年からホスティングサービスを提供しているHostedFXが、現在全サーバーを50%割引で提供...
今日はcloud.netについてお話したいと思います。これは、onapp.com 傘下の VPS ク...
現在、CPU の計算能力とディスク アクセスの遅延のギャップは徐々に拡大しており、ユーザーのクラウド...
要点:モジュールが増え、コンテンツが増え、消費時間も増える。ビデオアカウントにユーザーをより長く滞在...