SEO の最初の 2 年間でウェブマスターが学ぶべきこと

SEO の最初の 2 年間でウェブマスターが学ぶべきこと

SEMWATCHのデータが失われ、以前書いた記事もいくつか消えてしまいました。 Baidu スナップショットなどを通じて復元することも可能ですが、すべて数か月前に書き込まれたものなので必要ないと思います。

特に自分のブログでは、数か月ごとに過去の記事をすべて削除します。なぜなら、その時々の SEO に対する自分の見解を振り返るたびに、最高の評価は「まあまあ」だからです。

それでは、記事をもう一度書き直して、より詳細な内容を書いてみましょう。

SEOの仕事に就いてから、長くもなく短くもなく、ほぼ2年が経ちました。

2年前のある日、私は一晩中王童のSEOに関する本を読み、キーワード密度を調整する場所、altを追加するのに最適な場所など、さまざまなことを紙に書き留めました。その後、この知識を使用して、Witkey Webサイトで人々のための計画を作成しました。数か月後、私は SEO のトレーニングに参加し、第一線の SEO 実践者による記事をいくつか読みました。その時点で、私は nofollow の役割をよく理解していました。さまざまな環境でのその使用法について理論的に説明した数百語の記事を書くことができました。その時、私は SEO とはまさにそれであると感じていました。

もちろんそれは間違っています。

その後の 2 年間、私は『検索エンジン: 原理、テクノロジー、システム』という本を読んで、検索エンジンの原理について学び始めました。これが、舞台裏で検索エンジンに実際に触れた初めての経験でした。それから徐々にプログラミングやデータ分析などを学び、毎日たくさんのランキング事例を分析していき、SEOの基礎が固まっていきました。その後、大手インターネット企業で第一線のSEO担当者として働き、以前よりもはるかに多くのデータ、テクノロジー、人脈に日々接するようになりました。しかし、SEO にはまだ探求すべきことがたくさんあると感じています。

私の周りの多くの SEO 担当者は、私が経験したさまざまな段階にまだいるようです。そのため、SEO のいくつかの段階で必要な知識と学習方法をいくつか書いて、より効果的に学習し、不要な堂々巡りを避ける必要があると思います。

1. SEOに興味のある人、SEOスペシャリスト、またはプロダクトマネージャーなど、ウェブサイトのSEO関連の変更に参加する必要がある人

1. 第一線の専門家が書いた記事など、インターネット上の他の人が書いた SEO 記事を厳選して読みます。記事の質を十分に判断できない場合は、まったく読まないということもできます。

SEO の目的が最終的な効果 (トラフィック、コンバージョン) であることは必ず明らかですが、インターネット上では SEO のやり方を解説した記事で、どのような変更がどのような効果をもたらすのかを明記したものはほとんどないことがわかります。

SEO 担当者は経験が少ないため曖昧なことしか言えませんし、最前線で働く SEO 担当者は守秘義務契約や業界倫理に縛られていることが多く、明確に説明できないこともあります。

SEO の本でも同じことが言えます。たとえ本の中に、非常に価値のあることについて語っている短い章がたまにあったとしても、著者が詳細に書きたくないため、それを理解できない読者はやはり理解できないでしょう。したがって、SEO に関する本をすべて読むのはやめたほうがよいでしょう。

同様に、SEO トレーニングにあまり頼りすぎないでください。役立つ情報が含まれているトレーニング セッションはごくわずかです。さらに、せいぜい数十時間の研修を受けただけでは、何千時間も SEO に取り組んできた人を超えることは絶対に不可能です。

2. インターネットの基礎知識が必要です

インターネットの基礎知識は、詳細に議論するには大きすぎるテーマです。これは、どの技術かということだけではなく、知識の範囲についても言及しています。

最も単純な例を挙げると、Web ページ上の HTML 記述のみを表示する場合、ソース コードを表示するために IE を使用する人もいれば、要素を表示するために Firefox を使用する人もいます。どちらも同じ目的を達成できますが、前者は非常に非効率的であり、専門家からは素人のアプローチと見なされています。

このような経験をまとめた本や記事はありません。日々の仕事の中で、もっと効率的な方法はないかと自問自答し、さまざまな可能性を試し続けることで、少しずつ知識が広がっていくしかないのです。

まず、W3school の基本情報を参照する必要があります。これは、さまざまなインターネット技術の入門 Web サイトです。もちろん、知識を広げたいのであれば、やはり長期的な蓄積に頼る必要があります。

この部分は、SEO (またはその他のインターネット テクノロジー) を学習する初期段階で最も時間のかかる作業です。

自分に常識があるかどうかをテストしたい場合は、次の質問に自分で答えてみてください。

フロントエンドとバックエンドとはどういう意味ですか?

JavaScript、Java、PHPはどのような言語ですか?

サーバー、VPS、仮想ホストの違いは何ですか?

Web ページから返される HTTP ステータス コードを表示するにはどうすればよいですか?

3. Baidu SEOガイドの内容をすべて覚えておく

Baidu SEO ガイドは Baidu の担当者によって書かれています。合計でわずか数十ページの文書ですが、SEO 担当者が注意を払う必要のある重要な問題が数多く記載されています。

多くの SEO 担当者は、Baidu は価値のない内容しか書いていないと考え、このガイドを軽蔑していますが、実際はそうではありません。たとえば、重要なコンテンツでは Ajax を使用しないことと、URL の一意性を確保することという 2 つのポイントが挙げられます。この 2 つのポイントは非常に重要ですが、これらの点を完璧に実行している大規模な Web サイトはこれまで見たことがありません。ただし、これは SEO 効果に大きく影響します。多くの場合、1 回の変更で、特定の種類のページのデータ指標が数十パーセントポイント影響を受けることがあります。

より詳しい情報については、Google ウェブマスター ツールのヘルプをご覧ください。しかし、内容が膨大であるため、社内のプロダクトマネージャー全員に、この資料を参考にすることはできるが、Baidu のガイドラインを覚えておく必要があると伝えました。しかし、SEO のためには、少なくともこの資料を注意深く読む必要があります。

2. 実装計画を作成する必要があるSEO担当者

1. 広範なインターネット知識に基づいて、いくつかの技術的な知識についてもより深い理解を持つ必要があります。

一般的に言えば、すべての SEO ニーズは、最終的には技術者によって Web サイトに実装されます。ただし、ほとんどの SEO 要件は技術的に達成できません。

たとえば、サブドメインのルート ディレクトリに、さまざまな robots.txt ファイルを一括で追加する必要があります。ファイルをアップロードするだけだと思う​​人もいるかもしれませんが、ほとんどの場合はそうではありません。多くの Web サイトのアーキテクチャでは、異なるサブドメインがルート ディレクトリを共有し、同じファイルのみを保存できます。解決策は実はとても簡単です。PHP などを使用して robots.txt を動的に解析し、アクセス時にアクセス先のドメイン名を判別し、対応するコンテンツを返します。しかし、すべてのプログラマーがこのような奇妙な要件に頻繁に遭遇するわけではなく、多くの人はすぐにこの方法を思いつくことができません。

このような場合の多くでは、SEO は技術スタッフと解決策を話し合うことができるはずです。

次の質問で自分自身をテストすることができます。

関連記事へのリンクはどのように生成されますか? 具体的には、特定のオープンソース プログラムまたはアルゴリズムをどのように使用しますか?

クリック元をカウントできる URL トラッキング パラメータの特定の設定以外に、実行可能な方法はありますか?

2. SEOを全体的に捉え、細かい部分ではなく結果に影響を与える部分に焦点を当てる

これは、基礎をきちんと理解している SEO 担当者が直面する最大の問題です。

詳細とは何ですか? 推定 SEO トラフィックがサイト全体のトラフィックの 1000 分の 1 未満であるページの場合、ここで画像に alt を追加し、そこでキーワードを削除または減らすなどします。特に大企業の場合、こうした大量の変更は通常、他の人に引き継がれ、複数の人に影響を及ぼします。

では、詳細ではないものは何でしょうか? リストページや内部ページテンプレートで、ここに画像に alt を追加したり、あちらのキーワードを削除または減らしたり、などです(あくまで一例ですが、できることはたくさんあり、その方法のほとんどはインターネット上では見ることができません)。公開ページのテンプレートの変更はサイト全体に影響を及ぼすため、たとえ小さな変更であっても、サイト全体の SEO トラフィックが数パーセント変化する可能性があります。

3. より信頼性の高いプランを作成する必要があるSEO

1. プログラミング言語を理解し、特定のニーズを解決するためのスクリプトを素早く作成できる

ここで言うプログラミング言語は、より速い書き込み速度が必要です。一般的には、Python、Ruby、PHP などが適しています。個人的には Python をお勧めします。

SEO の複雑なニーズを解決するために、市販の既製のソフトウェアを使用することを考えないでください。SEO のニーズの変化は、既存のプログラムの数よりも常に大きくなります。この場合、一時的なスクリプトに頼ることしかできません。

(例えば、順位を確認する際、1つだけ確認するのは便利な場合もありますが、100個確認するのは少々面倒です。100個を比較して、自社の順位が競合他社よりも高いことがわかったらどうしますか?また、検索ボリュームを組み合わせて、この100個の単語が他のウェブサイトに与えたSEOトラフィックを推定するにはどうしたらいいでしょうか?このような複雑なニーズは無数にあります。)

それでも、ほとんどの SEO 担当者は、これはプログラマーの仕事であるべきだと考えるでしょう。しかし、これが現段階で SEO レベルのギャップが生じる主な理由です。

理想的には、最小の要件であっても、プログラマーとの複数回のコミュニケーションを経て、完了するまでに数十分かかります。大企業では実行が遅いため、小さな要件が数日で完了することも珍しくありません。

しかし、例えばランキングをチェックする必要がある場合、SEO 担当者は自分でそれを書くことができます。プログラミング言語に精通していて、そのようなコードを頻繁に書いている人であれば、2 分以内に確実に完了できます。

コードを書く能力は SEO 機能の向上に直接役立つわけではありませんが、SEO を 1 日に 1 つか 2 つのことしかできない状態から、1 日に何十ものことまで実行できるようになるのに役立ちます。

そのため、SEO のレベルは経験年数に比例しないことがよくあります。

2. データを理解し分析する

データは広範囲をカバーできます。トラフィック分析、Google Analytics、ログ分析など。ログ分析には、基本的な Linux コマンドと正規表現の学習も必要です。大規模な Web サイトではデータが膨大であるため、元のログを分析できない場合があり、データ ウェアハウスからデータ分析を実行する必要があります。

データを分析するだけではなく、それが何を意味するのかを正確に理解することも重要です。

たとえば、Google Analytics によって記録されたオーガニック トラフィックは、多くの人から正確な SEO UV と見なされていますが、実際はそうではありません。 GA のデフォルトの指標である Visits は一般に UV (Unique Visits) よりも高く、デフォルトでは Organic は Baidu トラフィックの約 20% を記録しておらず、360、soso、sogou などはまったく記録していません。特別な区別をしない場合は、Baidu PPC トラフィック、オープン プラットフォーム トラフィックなども Organic にカウントされます。また、Web ページ上のコードのインストール場所や Web ページの読み込み速度も、データ記録が完全かどうかなどに影響します。

単純な「SEO トラフィック」であっても、その背後には非常に複雑な記録ルールが含まれています。統計手法によっては、最終値が 2 倍異なることも不思議ではありません。

A がウェブサイトの SEO トラフィックは 1 日あたり 100 万だと言い、B が 200 万だと言った場合、どちらを信じるべきでしょうか。もちろん、まずは各データがどのようにカウントされるかを理解する必要があります。

3. 検索エンジンの原理を理論的に理解し、実際の検索エンジンを実際に見てみる

検索エンジンの原理については、初心者は「検索エンジン入門」を、その後は「これが検索エンジン」を読むことをお勧めします。そうしないと、SEO の手法をいくつか知っていても、その背後にある理由を理解する機会がありません。

しかし、検索エンジンを理解していないと SEO の取り組みが妨げられますが、これらの理論に固執するとさらに悪くなります。

Baidu や Google などの大規模な商用検索エンジンには、いわゆる「推測して実行」ルールが数多くあります。誰かが突然、長い記事の方が重みが高いという考えを思いついた場合、一連の複雑な研究​​の後、記事の長さは正式に分類ルールに組み込まれ、要素の 1 つになります。

同様に、いくつかのルールは、それを思いついた人が考えたかどうかにのみ依存するため、理論と実践の間に矛盾があると言わないでください。Baidu と Google の間にも多くの矛盾があります (ただし、Baidu は Panda など Google から多くのものをコピーしたため、類似点も多数あります)。

したがって、理論から脱却し、毎日より多くのランキング例を分析し、いくつかのクロールとインクルードデータを見て、Baiduなどの検索エンジンを実際に理解する必要があります。

4. 検索ユーザーのニーズを深く理解する

私は何度もこの例を挙げてきました。

私は北京にいて、ウォルマートで何かを買いたいと思っていました。「ウォルマートの住所」を検索して、Dianping のページを見ました。ユーザー エクスペリエンスはほぼ完璧でした。具体的な住所だけでなく、地図やユーザーレビューも掲載されています。のみ。 。しかし、なぜこのページは温州のウォルマートなのでしょうか? 。 。

SEO とは、外部リンクを投稿することだけですか? SEO とは、ランキング付けだけですか? SEO とは、トラフィックを生成することだけですか? そのため、n 個のサイトから K アウトされることは、すべての資格のある SEO にとって必要なステップであると人々が言うのを時々聞くと、私は面白くもあり、無力感も感じます。

元記事: http://semwatch.org/2012/11/learn-seo/


元のタイトル: SEO の最初の 2 年間でウェブマスターが学ぶ必要があること

キーワード: ウェブマスター、SEO、2年間、それら、SEMWATCH、失われた、以前、私が書いた、ウェブサイト、ウェブサイトのプロモーション、お金を稼ぐ

<<:  HTML の芸術: SEO 最適化の剣

>>:  Google+ の隠れた価値: Google SEO ツールになる

推薦する

もう一度言います。タイポグラフィはウェブデザインの基礎です

あなたは何年もこの質問を探し続けており、夢の中でこの質問を聞くこともよくあります。そして、あなたはイ...

Sina 不動産ビデオ最適化ソリューション

ウェブサイトの主なキーワードと対応する URL:不動産 http://v.house.sina.co...

分散アーキテクチャでは、従来のデータベースの運用と保守はどのような変化に直面するでしょうか?

[[319472]]分散アーキテクチャは近年最もホットなトピックかもしれません。この記事では、集中型...

Oracle、Oracle Autonomous Transaction Processingを発表

オラクルの会長兼 CTO ラリー・エリソンは本日、Oracle Autonomous Transac...

ウェブサイトのPR価値とページのPR価値について簡単に説明します

私は幸運にも外資系企業でSEO業務に携わっており、日々先輩方からSEOを学んでいます。そこで、私の学...

現在のオンラインプロモーションにはデータ分析が必要

現在の検索エンジン環境は、いくぶん複雑であると言えます。すべての主要な検索エンジンは、一定の地位を確...

クラウド コンピューティング + AI、クラウド コンピューティングの大手は 2017 年第 3 四半期に何を行うのでしょうか?

2017年第3四半期の決算が発表され、クラウドコンピューティングの大手4社、アルファベット、アマゾン...

5 つの主要な分散ストレージ テクノロジの比較分析、どれを選びますか?

ストレージは種類によってブロックストレージ、オブジェクトストレージ、ファイルストレージに分けられます...

中国郵政は、1億個を超えるピーク時の注文量に対応するため、Alibaba Cloud PolarDB分散データベースを導入した。

9月18日、2020年雲旗大会で、中国郵政の上級幹部はスピーチの中で、アリババクラウドのクラウドネイ...

何宝紅:中小企業のクラウドへの移行は産業発展の大きなトレンドになる

2021年は第14次5カ年計画の初年であり、新たな発展パターンを構築するための出発の年です。第14次...

深圳経済特区で過去40年間に人気を博したインタラクティブ製品の裏話

「突破」「最速」「流行」…写真をアップロードするだけで、テーマの異なる8つのコミックストーリーを体験...

クラウドコンピューティングにはダモクレスの剣がかかっている

ここ数年、クラウド コンピューティングはテクノロジー業界の新たな寵児となっています。アマゾン、マイク...

チャネルの落とし穴: アプリ運用の 8 つの隠れたルール

まず、アプリ運用の位置づけを分析してみましょう。オペレーション職の内容は、チャネルプロモーション、デ...

5G時代が加速しています。エッジ コンピューティングが「コア」コンピューティングに取って代わるのはいつでしょうか?

5G時代では、接続されるデバイスの数が大幅に増加し、ネットワークのエッジで膨大な量のデータが生成され...