ウェブサイトのランキングを良くしたいなら、オンサイトとオフサイトの最適化をしっかり行う必要があります。皆さんはオンサイトまたはオフサイトの最適化の方法、秘密、コツなどをたくさん読んだことがあると思います。その中には、上級 SEO 担当者が書いたものもあれば、ウェブマスター自身の経験の共有や実践的な経験もあります。今日は、オンサイト最適化に関する私の見解と理解についてお話しします。 私はオンサイト最適化に取り組み始めたばかりです。以前はオフサイト最適化を行っていたため、それについてはあまりよく知りません。今日は、オンサイト最適化プロセス中に多くの人が無視する 3 つの側面、つまりサイトマップ、404 ページ、robots.txt について主にお話しします。多くのウェブマスターは、サイトマップ、404 ページ、robots.txt がウェブサイト上にある限り最適化する必要はないと考え、オンサイト最適化を行う際にこれら 3 つの側面を無視する傾向があります。実際、これはまったく事実ではありません。多くの新しいサイトは、組み込まれるまでに時間がかかったり、まったく組み込まれなかったりします。古いサイトがランク付けされない主な理由は、これら 3 つの側面で適切な最適化が行われていないためです。これら 3 つの側面を適切に最適化すると、スパイダーが Web サイトに対してより友好的になることがわかります。 サイトマップはウェブサイトマップとも呼ばれます。 専門用語で言えば、サイトマップとは、Web サイト上のすべてのページへのリンクを含むページです。これは、Web サイト上のすべてのリンクのコンテナーであり、Web サイトの構造、フレームワーク、コンテンツに基づいて生成されたナビゲーション Web ページ ファイルです。ほとんどの人は、Web サイトで必要な情報を見つけられない場合、解決策としてサイト マップを使用します。スパイダーはサイト マップを非常に好みます。 なぜウェブサイトの地図について話すのでしょうか? 蜘蛛を人間に例えると、見知らぬ街に行くとき、まず考えるべきことはその街の地図を買うことです。そうしないと、迷子になりやすいからです。同様に、スパイダーが Web サイトをクロールするときにガイドとなるマップがあれば、スパイダーは迷子になりません。また、マップが適切な構造と強力な連続性を備えている場合、スパイダーは Web サイトに長時間留まります。非常にわかりやすい例え話をすると、地図を購入したときに、道路標識や地名がはっきりと記されていなければ、行きたい場所をどうやって見つけることができるでしょうか?また、地図が非常にわかりにくく、道路間の連続性がないため、迷子になる可能性もあります。そのため、当社のウェブサイト マップの最適化では、内部リンクを作成する際に一定の合理的な連続性を持たせる必要があります。あるページから別のページにリンクする場合、一定の関連性が必要です。そうでないと、スパイダーが簡単に嫌がることになります。ウェブサイトの URL アドレスは、地図上の標識のように明確にマークする必要があります。理解できない文字やページに関連しない文字は使用しないでください。そうしないと、スパイダーが Web サイトをクロールするときに、Web サイトの Web ページの具体的なコンテンツを理解することが難しくなります。 404 ページ 404 は、W3C によって規定された HTTP ステータス コードの 1 つです。これは、WWW Web サイトにアクセスするときによく発生するエラーです。ブラウザに、要求されたページが存在しない、またはリンクが間違っていることを伝え、ウィンドウを閉じて離れるのではなく、Web サイトの別のページを使用するようにユーザーを誘導します。これが専門家による公式の説明です。簡単に言えば、404 ページは Web サイト内のエラー ページです。Web サイトの URL を入力し、エラーが発生すると、404 ページに直接ジャンプします。404 ページは、ユーザーを Web サイトのホームページまたはユーザーがより関心を持っている他のページに戻します。そのため、404 ページを作成するときに、ユーザーやスパイダーに適切なガイダンスを提供し、ユーザーをホームページまたは Web サイトのその他のページに戻るように誘導する必要があります。404 ページに何も記載されていない場合、スパイダーやユーザーはページにアクセスしても情報を見つけられず、すぐに閉じてしまいます。これはユーザー エクスペリエンスが非常に悪いです。下の画像の 404 ページから、この Web サイトの 404 ページには、ホームページに戻るリンクと無料相談の 2 つの戻りリンクがあることがわかります。このような 404 ページの最適化はすでに非常に優れています。間違いを犯した場合は、ホームページに戻って必要な情報を見つけることができます。 ロボット.txt 検索エンジンが Web サイトにアクセスすると、最初に表示されるファイルは Robots.txt です。Robots.txt は、サーバー上のどのファイルを表示できるかを Web スパイダーに伝えます。 SEO ウェブサイト最適化を実行するときは、Robots.txt を使用して、js やその他のバックグラウンド プログラム ファイルなど、スパイダーにクロールさせたくないコンテンツをブロックします。Robots.txt がない場合、スパイダーはウェブサイト上のすべてのファイルをクロールします。この場合、スパイダーが好まないウェブサイト内の一部のファイルもクロールされます。これにより、スパイダーはウェブサイトに対して深刻な嫌悪感を抱き、ウェブサイトの検索エンジン クロール効率が大幅に低下します。したがって、Robots.txt を設定することを忘れてはなりません。設定する必要があるだけでなく、特に一部の JS ジャンプ ファイルは、スパイダーにクロールさせないでください。一部のウェブサイトでは登録が許可されていますが、登録情報もブロックする必要があります。スパイダーが大量の登録情報をクロールすると、有用な情報がまったくなくなり、ウェブサイトの最適化に役立ちません。これには、Web サイト内のログイン ページとコメント ページが含まれます。これらのページはすべてのページに存在するため、スパイダーはクロール時に多くの重複ページを支配し、Web サイトのランキングにはつながりません。 通常、SEO は想像するほど複雑ではありません。ウェブサイトの基本的な詳細に注意を払うことで、検索エンジンの信頼を得ることができます。上記の SEO オンサイト最適化の 3 つの詳細は非常に重要です。誰もが知っていると思いますが、単純なことや重要ではないと思われることを見落としがちです。詳細が成功と失敗を決定します。最適化する際には、いくつかの小さな詳細を無視してはなりません。これらの詳細がウェブサイトの成功と失敗を決定する可能性があるからです。 この記事は常州102整形外科関節リウマチ専門病院(http://www.102guke.com.cn/)から提供されています。転載の際は原本性を尊重してください。 元のタイトル: オンサイト最適化の三銃士: サイトマップ、404、Robots.txt キーワード: オンサイト、最適化、3 つの剣、サイトマップ、404、Robots.tx、ウェブマスター、ウェブサイト、ウェブサイトのプロモーション、収益化 |
>>: URL構造の最適化におけるよくある2つの誤解の分析例
はじめに: これは著者の 2 回目の投稿です。この記事は質の高いもので、私の考えを広げてくれました。...
[51CTO.com からのオリジナル記事] クラウド コンピューティングをどのように分類しますか?...
タイトルにあるように、友人の輪はビジネスの輪になる運命にあります。このフレーズはオフラインで最もよく...
今日、クラウド コンピューティングの複雑さの危機が迫っています。人々は毎日何百ものワークロードをクラ...
ホームページ構築の敷居がどんどん下がっていくなか、ホームページ構築やウェブデザインを提供する会社、ス...
タオバオの中小規模の販売業者にとって、タオバオの列車やダイヤモンドブースを購入するには多額の費用がか...
[[315604]]コンテナ クラウドで分散ストレージを使用する場合、HDFS、CEPH、GFS、G...
私は Vino SEO チームのリーダー、Bingze です。私の一般的なオンライン名は、zhch1...
[[435371]] [51CTO.com クイック翻訳]独自のクラスター レベルのログ記録のために...
動画業界は、止めることのできない勝者総取りの業界となっている(下の図からわかるように、コンテンツとト...
注:この記事は非常に退屈です。特別な必要がない限り、スキップしたり無視したりすることができます。昨日...
SEO 担当者であれば、ほぼ全員がこのような経験をしています。新しい友人に何の業界に携わっているか尋...
zgovps (zgocloud) は、中秋節と国慶節の特別プロモーションを実施しました。年間 19...
Linodeの日本データセンターがまだiij回線を使用していた頃は、国内購入料金が非常に人気がありま...
近年、大量のウェブサイトが格下げされ追い出されており、医療ウェブサイトは今回特に注目されています。こ...