2018年最もホットなプロジェクト:テレマーケティングロボットがあなたの参加を待っています ウェブサイト構築の初期技術、つまりウェブサイト構築段階で総合的に考慮する必要がある技術的な詳細。ウェブサイト運用プロセス中のその後の調整には多くの側面が関係し、実装が不可能になる可能性もあります。 1. ウェブサイトのサイトマップ設定と技術的な詳細 サイトマップとは、ウェブサイトのウェブページの URL を検索エンジンに送信するためのファイルを作成し、そのページの URL アドレス、重み、更新頻度などをサイトマップに定義する通知メカニズムです。サイトマップを検索エンジンに送信すると、検索エンジンのクローラーがサイトマップ内のリンクアドレスに沿ってクロールします。これがサイトマップの仕組みです。 通常のサイトマップ ファイルの作成方法は次のとおりです。 XML を使用してサイトマップを作成するのが最も一般的で簡単な方法です。 Webサイト 2015.01.03T04:20.08:00 いつも 1.O Webサイト 2015.01.02T20:20:36Z 毎日 O.8 1. Baidu サイトマップ ウェブサイトアドレス 2015-01-01 ダフライ 1.0 2. 重要なフィールドの意味 ・changefreq: 送信された URL に対応するページ コンテンツの更新頻度を指定します (例: daily、weeIdb、monthly、yearly)。このパラメータは、検索エンジンのページ変更の頻度を設定するために使用されます。つまり、スパイダーが頻繁にクロールして Web ページのコンテンツを更新する必要があるかどうかを考慮するために使用されます。 ・lastmod: 現在のページコンテンツが最後に更新された時刻。このパラメータは検索エンジンに参照、つまり適時性の参照を提供することができます。一部のコンテンツ、特にコンサルティングコンテンツの場合、検索エンジンはコンテンツの更新時刻をランキング要素として使用します。 ・優先度: ページの重みを定義します。重みが高いほど、現在のページの他のページに対する優先度が高くなります。 ・:特定のリンクアドレスを記述するために使用します。リンクアドレス内の一部の特殊文字は、XML(HTML)で定義されたエスケープ文字に変換する必要があります。簡略版は サイトマップはメモ帳でも作成できます。メモ帳を直接開き、URL を 1 行に 1 つずつ入力し、それを検索エンジンに直接送信することで、同じ目的を達成できます。 3. スーパーポータルのサイトマップモード 検索エンジンでは、各 Web サイトが送信できるサイトマップ ファイルの数に制限はありません。 URL エントリは多数あり、差分によって新しく追加されたページを送信できます。 複数のサイトマップ ファイルを作成する場合、親サイトマップ ファイルを介して複数の子サイトマップ ファイルをリンクできます。 サイトマップファイルでは、サブサイトマップファイルは実際のURLエントリのパターンを入力することで完成し、 各サイトマップ ファイルには、URL エントリが多すぎないようにする必要があります。サイトマップ ファイルには、URL エントリが多すぎないようにすることをお勧めします。 1,000以上。 ここに例があります。 サイトマップ: メールアドレス 2015-01-01 毎日 1.0 URL2 20 1 5..0 1.,0 1 毎日 1.0 URL3 2015.01.01 ダフライ 1.0 URL4 20 1 5-0 1.0 1 毎日 1.0 サイトマップを送信する方法は多数あります。通常は、Baidu などの検索エンジンのウェブマスター アカウントを作成し、ウェブマスター バックグラウンドでサイトマップの URL を送信します。ウェブマスター バックグラウンドでは、各サイトマップの処理の進行状況と含まれるデータを確認できます。 2. ロボットファイルの設定と技術的な詳細 Robots.txt ファイルは、ウェブサイトのルート ディレクトリに配置されます。主に、スパイダーにウェブサイトのクロール範囲を通知するために使用されます。SEO では、このファイルで、検索エンジンに含めたくないウェブサイトの部分を宣言したり、検索エンジンに特定の部分のみを含めるように指定したりできます。 (1)Robots.txtファイルが頻繁に使用される状況 ・ウェブサイトのアップグレードにより、古いバージョンのウェブサイトの多くのページが新しいバージョンで削除されます。この場合、Robots ファイルを使用して、スパイダーにこれらの削除されたページをクロールしないように指示できます。 ・ウェブサイトには重複コンテンツが多数あります。たとえば、ウェブサイトには動的ページと静的ページの両方があり、これらのページのコンテンツは完全に重複しています。重複問題を解決するには、Robots ファイルでスパイダーが動的ページをクロールすることを禁止できます。 ・ウェブサイト上の一部のコンテンツは一般公開には適しておらず、内部アクセスを許可する必要があります。この場合、スパイダーにロボット内を這わないように指示することができます。 (2)Robotsファイルの基本的な書き方 ユーザーエージェント: 許可: /cgi.bin/see 許可: /tmp/hi 許可: /~joe/look 許可しない: /cgi.bin/ 禁止: /t.mp/ 許可しない: |00e| Allow はスパイダーがクロールできるページを指し、Disallow にはスパイダーがアクセスできないパスとファイルが続きます。 3. ロボットの使用例 (1)特定のディレクトリ内の特定のサフィックスを持つファイルのみにアクセスが許可されます。 以下に示すように、ここでは「$」記号が付いた URL のみにアクセスできます。 ユーザーエージェント: * 許可: .asp$ 許可しない: / (2)ウェブサイト内のすべての動的ページをインデックスすることは禁止されています。 ここでは、「?」を含む URL (例: index.asp?id=1) へのアクセスを制限します。 ユーザーエージェント: * 無効:/*?* (3)特定のサフィックスを持つドメイン名へのアクセスを制限するには「*」を使用します。 ここでは、次のように、admin ディレクトリ内のすべての htm ファイルへのアクセスが禁止されます。 ユーザーエージェント: * 表示:/admin/*.htm この記事は元々Lingchuang Network Heze Website Constructionによって書かれたもので、無断転載を禁じます。転載の際は出典を明記し、このリンクをそのままにしておいてください。よろしくお願いいたします。 原題: ウェブサイト初期構築に関する SEO テクニック (I) キーワード: SEO最適化、SEO最適化テクノロジー |
<<: 競合他社のウェブサイトを分析して、本当に理解していますか?
>>: 初期ウェブサイト構築に関するSEOテクニック(第2部)
ウェブマスターさん、こんにちは。友情リンクと百度コレクションを交換しましょう。最近、QQでよく似たメ...
SEOWHY は SEO 業界で最も有名なブランドです。私が SEO を学び始めたときも、SEOWH...
2018年最もホットなプロジェクト:テレマーケティングロボットがあなたの参加を待っています過去 2 ...
背景クラウドネイティブ時代の到来に伴い、Dubbo 3.0 の重要な目標はクラウドネイティブを完全に...
2013年9月17日、あるニュースが皆の前に現れました。 「SogouがSosoと合併し、Tence...
多くの SaaS ベンダーからのレポートを見ると、ますます多くの IT スタッフが SaaS の調達...
armorshark は今回、特大 SSD ハードドライブと 3.5T の月間トラフィックを特徴とす...
今年の夏は気温が非常に高く、北部の沿岸都市大連でも秋に入ってから気温が33度を記録した。気温がどれだ...
サービスであれ、物理的な製品であれ、信頼できる販売チャネルを見つけることによってのみ、商品を販売する...
前回の記事では、計画プロセスを大まかに共有しました。計画プロセス全体については、皆さんが大まかに理解...
ウェブサイトのSEO最適化に携わる多くのウェブマスターは、ウェブサイトのキーワードを選択する際に困惑...
携帯アプリを開いたとき、携帯を軽く振ると広告ページや関連アプリが表示されるという状況に遭遇したことは...
最近、中国ではスマートシティの建設が加速し続けており、複数のプロジェクトへの入札が開始されている。近...
ウェブマスターとして、私は間違いなく失敗者です。今振り返ってみると、8年間も運営されているウェブサイ...
[概要]ビデオ検出では、ビデオが著作権を侵害しているかどうかを判断するために、手動による表示、ビデオ...