2018年最もホットなプロジェクト:テレマーケティングロボットがあなたの参加を待っています ウェブサイト構築の初期技術、つまりウェブサイト構築段階で総合的に考慮する必要がある技術的な詳細。ウェブサイト運用プロセス中のその後の調整には多くの側面が関係し、実装が不可能になる可能性もあります。 1. ウェブサイトのサイトマップ設定と技術的な詳細 サイトマップとは、ウェブサイトのウェブページの URL を検索エンジンに送信するためのファイルを作成し、そのページの URL アドレス、重み、更新頻度などをサイトマップに定義する通知メカニズムです。サイトマップを検索エンジンに送信すると、検索エンジンのクローラーがサイトマップ内のリンクアドレスに沿ってクロールします。これがサイトマップの仕組みです。 通常のサイトマップ ファイルの作成方法は次のとおりです。 XML を使用してサイトマップを作成するのが最も一般的で簡単な方法です。 Webサイト 2015.01.03T04:20.08:00 いつも 1.O Webサイト 2015.01.02T20:20:36Z 毎日 O.8 1. Baidu サイトマップ ウェブサイトアドレス 2015-01-01 ダフライ 1.0 2. 重要なフィールドの意味 ・changefreq: 送信された URL に対応するページ コンテンツの更新頻度を指定します (例: daily、weeIdb、monthly、yearly)。このパラメータは、検索エンジンのページ変更の頻度を設定するために使用されます。つまり、スパイダーが頻繁にクロールして Web ページのコンテンツを更新する必要があるかどうかを考慮するために使用されます。 ・lastmod: 現在のページコンテンツが最後に更新された時刻。このパラメータは検索エンジンに参照、つまり適時性の参照を提供することができます。一部のコンテンツ、特にコンサルティングコンテンツの場合、検索エンジンはコンテンツの更新時刻をランキング要素として使用します。 ・優先度: ページの重みを定義します。重みが高いほど、現在のページの他のページに対する優先度が高くなります。 ・:特定のリンクアドレスを記述するために使用します。リンクアドレス内の一部の特殊文字は、XML(HTML)で定義されたエスケープ文字に変換する必要があります。簡略版は サイトマップはメモ帳でも作成できます。メモ帳を直接開き、URL を 1 行に 1 つずつ入力し、それを検索エンジンに直接送信することで、同じ目的を達成できます。 3. スーパーポータルのサイトマップモード 検索エンジンでは、各 Web サイトが送信できるサイトマップ ファイルの数に制限はありません。 URL エントリは多数あり、差分によって新しく追加されたページを送信できます。 複数のサイトマップ ファイルを作成する場合、親サイトマップ ファイルを介して複数の子サイトマップ ファイルをリンクできます。 サイトマップファイルでは、サブサイトマップファイルは実際のURLエントリのパターンを入力することで完成し、 各サイトマップ ファイルには、URL エントリが多すぎないようにする必要があります。サイトマップ ファイルには、URL エントリが多すぎないようにすることをお勧めします。 1,000以上。 ここに例があります。 サイトマップ: メールアドレス 2015-01-01 毎日 1.0 URL2 20 1 5..0 1.,0 1 毎日 1.0 URL3 2015.01.01 ダフライ 1.0 URL4 20 1 5-0 1.0 1 毎日 1.0 サイトマップを送信する方法は多数あります。通常は、Baidu などの検索エンジンのウェブマスター アカウントを作成し、ウェブマスター バックグラウンドでサイトマップの URL を送信します。ウェブマスター バックグラウンドでは、各サイトマップの処理の進行状況と含まれるデータを確認できます。 2. ロボットファイルの設定と技術的な詳細 Robots.txt ファイルは、ウェブサイトのルート ディレクトリに配置されます。主に、スパイダーにウェブサイトのクロール範囲を通知するために使用されます。SEO では、このファイルで、検索エンジンに含めたくないウェブサイトの部分を宣言したり、検索エンジンに特定の部分のみを含めるように指定したりできます。 (1)Robots.txtファイルが頻繁に使用される状況 ・ウェブサイトのアップグレードにより、古いバージョンのウェブサイトの多くのページが新しいバージョンで削除されます。この場合、Robots ファイルを使用して、スパイダーにこれらの削除されたページをクロールしないように指示できます。 ・ウェブサイトには重複コンテンツが多数あります。たとえば、ウェブサイトには動的ページと静的ページの両方があり、これらのページのコンテンツは完全に重複しています。重複問題を解決するには、Robots ファイルでスパイダーが動的ページをクロールすることを禁止できます。 ・ウェブサイト上の一部のコンテンツは一般公開には適しておらず、内部アクセスを許可する必要があります。この場合、スパイダーにロボット内を這わないように指示することができます。 (2)Robotsファイルの基本的な書き方 ユーザーエージェント: 許可: /cgi.bin/see 許可: /tmp/hi 許可: /~joe/look 許可しない: /cgi.bin/ 禁止: /t.mp/ 許可しない: |00e| Allow はスパイダーがクロールできるページを指し、Disallow にはスパイダーがアクセスできないパスとファイルが続きます。 3. ロボットの使用例 (1)特定のディレクトリ内の特定のサフィックスを持つファイルのみにアクセスが許可されます。 以下に示すように、ここでは「$」記号が付いた URL のみにアクセスできます。 ユーザーエージェント: * 許可: .asp$ 許可しない: / (2)ウェブサイト内のすべての動的ページをインデックスすることは禁止されています。 ここでは、「?」を含む URL (例: index.asp?id=1) へのアクセスを制限します。 ユーザーエージェント: * 無効:/*?* (3)特定のサフィックスを持つドメイン名へのアクセスを制限するには「*」を使用します。 ここでは、次のように、admin ディレクトリ内のすべての htm ファイルへのアクセスが禁止されます。 ユーザーエージェント: * 表示:/admin/*.htm この記事は元々Lingchuang Network Heze Website Constructionによって書かれたもので、無断転載を禁じます。転載の際は出典を明記し、このリンクをそのままにしておいてください。よろしくお願いいたします。 原題: ウェブサイト初期構築に関する SEO テクニック (I) キーワード: SEO最適化、SEO最適化テクノロジー |
<<: 競合他社のウェブサイトを分析して、本当に理解していますか?
>>: 初期ウェブサイト構築に関するSEOテクニック(第2部)
人生は旅のようなものです。コピーライティングを職業として選んだということは、旅の目的を選んだというこ...
CCTV ニュースはいつ放送されても、程度の差こそあれ業界の是正と改革をもたらすだろう。したがって、...
dwidc(Dwidc Data)、現在の期間限定プロモーションはちょっとクレイジーです。湖北エンタ...
• 技術の進歩により、データセンタープロバイダーはより持続可能な慣行を採用できるようになっている[[...
Craigslist は世界最大の分類情報ウェブサイトであり、多くの人々に利便性をもたらすことから広...
2021年2月4日、世界トップクラスのオープンソースコミュニティであるCloud Native Co...
たった今、ネットユーザーがニュースを報じました: JD Cloud と Kingsoft Cloud...
これはオンラインになった日に含まれていました。これは少し控えめな数字です。オンラインになってから 3...
[中国にはいくつかの形態の農業協同組合が存在するが、農産物の70%以上は依然として個人投資家によって...
SEO はますます複雑になっているため、多くの経営者は、単純な SEO を使用して Web サイトを...
この記事の著者は、市場、ユーザー、製品、運用など、さまざまな観点からHuya Liveの主な機能、機...
SUSE が KubeCon Europe で NeuVector 5.0 を発表、あらゆる環境のコ...
gigsgigscloudは今年のブラックフライデーに向けて大きな動きを見せました。(1)ブラックフ...
ServerPronto Host Cat については、前回の記事で簡単に紹介しました。トップデータ...
delimiter.com の特別価格サーバーは、数年間にわたって運用されています。これらのサーバー...