SEO 関連のデータ分析のやり方をわかりやすく説明してほしいとよく頼まれ、数時間ですぐに習得できることを期待されることもあります。しかし、この分野にはカバーすべきことがたくさんあるため、すべてを数語で説明することは不可能であり、簡単な要約をどこから始めればよいのかわかりません。 SEO は非常に未成熟な業界であり、参考資料も非常に限られています。ほとんどのことはデータを通じて調査する必要があり、調査の過程で過去の直感では気付かなかった真実が明らかになることも少なくありません。そのため、データ化は SEO にとって非常に残酷な場合があります。単純なデータによって、何年にもわたる人々の努力が無駄になることがよくあります。 最も一般的な例を挙げると、SEO トラフィックは何から構成されているのでしょうか? ほとんどの人は、SEO トラフィックは人気キーワードによって支えられている、または、人気キーワードの数が多いことによって支えられていると考えているため、人気ワードの順位が上がればトラフィックも必ず増加すると考えますが、そうではありません。大規模なウェブサイトのほとんどでは、SEO トラフィックの大部分は、Baidu Index が認識できない非常にロングテールの単語から発生しています。したがって、人気のある単語をランク付けしようとどれだけ努力しても、それらがもたらすトラフィックは依然として非常に限られています。 これまでこのようなデータを見たことがないので、信じられないと思う人もいるかもしれません。ただし、このデータはウェブサイトの元のログを分析することによってのみ結論付けることができ、サンプリング レートが極めて低い Google Analytics などの統計システムではこのようなデータを見ることができません。言うまでもなく、GA を使いこなせる SEO 担当者はほとんどいないため、SEO トラフィックに関する真実はほとんど明らかになりません。 そのため、「SEO は死んだ」という声を時々耳にしますが、私は「SEO はまだ生きていない」とよく言います。これはまったく誇張ではありません。 データ分析の学習を始める方法 SEO の最終的な目標は、ウェブサイトの収益を生み出すことなので、コンバージョンとトラフィックという 2 つの主要な指標があります。 たとえば、トラフィックはさらに次のように細分化できます: トラフィック = 包含 * ランキング * クリック率 * 検索ボリューム インクルージョンはさらに次のように分けられます: インクルージョン = クロール量 * ページ品質 たとえば、クロール量のボトルネックは、状況に応じて、クロール時間の上限、クロール総量の上限、またはページ総数の上限である可能性があります。状況によって処理方法が異なり、異なるデータ インジケーターを追加する必要があります。 同様の分類方法により、最終的なデータ指標(コンバージョン、トラフィック)から数十または数百のデータ指標を徐々に細分化できます。これらのデータ指標はすべて、値の変化が最終的にコンバージョンまたはトラフィックに影響を与えるため、役立ちます。 (SEOに関する人気書籍の中に、ウェブサイトの分析や運用について多くのスペースを割いて書いている本がありますが、結局そのウェブサイトのSEOトラフィックは非常に少なく、効果はあまりありません。なぜなら、そこには多くの「分析」があるものの、そのほとんどは意味のないデータを見ているからです。) 主要なデータ指標が変動する場合 (最も一般的なのは総トラフィックの変化)、データをセグメント化して具体的な理由を分析する必要があります。次の 2 つの例で、一般的な考え方と手順を説明します。 関係する分野は非常に広範囲です。 まず、検索エンジンの基本原理を理解して、どのようなデータ指標がどのような状況で関連しているかを知る必要があります。 その後は、さまざまなタイプのデータを取得する方法が異なるため、さまざまなテクノロジーの初歩的な知識が必要です。収集する必要があるもの、ログから抽出する必要があるもの、データ ウェアハウスからエクスポートする必要があるもの、API から取得する必要があるものなど、学習する必要がある方向は同じではありません。 データだけでは単なる数字に過ぎません。価値あるものにするには分析する必要があります。一時的な分析には Excel が一般的に使用されますが、監視分析にはグラフを出力できるレポートシステムを作成する必要があります。 これらを習得するには少なくとも半年はかかりますが、難しいことではなく、恐れることもありません。 1+1 を学習しているとき、9*9 は難しいと思うかもしれませんが、学習後に振り返ってみると、何でもないことがわかります。 基本的な仮説的ケーススタディ 実際のアプリケーションに近い例を考えてみましょう。 ゲーム フォーラム、セクション A はオンライン ディスク ゲームのダウンロード用で、多くのページに X オンライン ディスクへのエクスポート リンクがあります。セクション B は BT ダウンロード用で、ページにはサイト内にトレント ダウンロード リンクがありますが、サイト外へのエクスポート リンクはありません。 分析を開始: クロールされたページ数とリアルタイムに含まれるページ数をカウントして計算したところ、セクション A のページの品質がセクション B のページの品質よりも大幅に低いことがわかりました。 (ページ品質 = 含まれるページ数 / クロールされたページ数) したがって、この時点で、セクション A の投稿ページにある X ネットワーク ディスクのエクスポート リンクがページ品質の低下を引き起こしたのではないかと推測できますか? 推測を検証するために、セクション A の投稿ページを 2 つのグループに分けます。グループ aa には X ネットワーク ディスクのエクスポート リンクがあり、グループ bb には X ネットワーク ディスクのエクスポート リンクがありません。それぞれのページの品質を計算します。グループ aa の投稿のページ品質がグループ bb の投稿のページ品質よりも大幅に低い場合、次のような予備的な結論を導き出すことができます。 X Cloud Disk のエクスポート リンクは、自身の投稿ページの品質を低下させ、含まれる投稿の数に影響を与え、最終的には SEO トラフィックに損害を与えます。したがって、このタイプのエクスポートされたリンクは、独自のサイト内の URL から 301 を介して X ネットワーク ディスクにリダイレクトするなど、特別な処理が必要です。 もちろん、この結論は正しくないかもしれません。たとえば、グループ aa の投稿の特徴には、X ネットワーク ディスクのエクスポート リンクに加えて、大量の再投稿投稿 (ゲーム リソース投稿の多くは再投稿投稿) が含まれており、後者が実際にそのページの低品質につながっている可能性があります。 より厳密なデータ分析(再投稿された投稿を再投稿されていない投稿とグループ化するなど)を行うと、正確な結論につながる可能性が高くなりますが、この厳密さに終わりはありません。結局のところ、SEO はロケット科学ではありません。特定のステップでデータを取得するのが難しい場合は、経験を利用して推測する方がコスト効率が良い場合があります。 したがって、まずプロジェクトを実施し、その後、A セクション全体のページ品質が B セクションの品質に近づいているかどうかを監視して、最終的な効果に基づいて以前の推測が正しいかどうかを確認することができます。 この例は完全に仮説的なものですが、実際には投稿のネットワーク ディスクへのエクスポート リンクがページの品質に影響するかどうかはわかりません。しかし、日常生活では同様の例に何度も遭遇する可能性があり、このタイプの分析に必要なデータは簡単に収集できるため、日常的な SEO データ分析で遭遇する可能性が最も高い状況です。 高度な実践的ケース分析 (数値は実際の値と同じではありませんが、おおよその割合は同じです) 一定期間内に内部ページのトラフィックが大幅に減少し、その原因を分析する必要があります。 一般的で効果的なアイデアは、ホットワードの 25% を取り上げ、それらがもたらすトラフィックが他の 75% のワードと比較してどのように変化するかを確認することです。データからホットワードのトラフィックの減少が大きいことがわかった場合、ホットワードのランキングが最も低下したことを意味します。低下の程度が同程度であれば、全体的な影響です。 まず、人気のあるキーワードの 25% ではトラフィックが 35% 減少し、人気がないキーワードの 75% ではトラフィックが 30% 減少すると計算されます。 しかし、データは 5% 異なるものの、その差は特に明白ではなく、確認するにはさらなる分析が必要です。 多くの場合、キーワードはさらに細分化できるため、たとえば「SEO 記事」はさらに「SEO」と「記事」の 2 つの検索用語に分割され、検索用語は検索エンジンが実際に処理するものです。したがって、さらなる分析では、人気のある検索用語の 25% のトラフィックの変化に焦点を当てます。 最終データによると、人気検索用語の 25% を含むキーワードのトラフィックは 40% 減少しましたが、人気検索用語を含まないキーワードのトラフィックは 10% しか減少しませんでした。 結論は非常に明確で、人気のある検索用語に関連するトラフィックが変化しました。ウェブサイトの最近のプロジェクト開始リストを比較したところ、変更は見られなかったため、これはBaiduのアルゴリズム調整によるものでした。 トラフィックの変化の理由がわかれば、それに応じた改善計画を自然に立てることができます。この計画が実行できるかどうかは、ウェブサイトが SEO にどれだけ重点を置いているかによりますが、少なくとも「Baidu はいつも私たちのサイトを K するのが好きです」といった言い訳をする必要はありません。 著者: zero は専門家ではありませんが、SEO の最前線にいて、毎日コードを書いています。個人ブログ: テクノロジー分野 http://tech-field.org/ 原題: データ分析の始め方 SEOデータ分析の概要と事例 キーワード: 方法、開始、学習、SEO、分析、ケース、私がお手伝いします、お手伝い、ウェブマスター、ウェブサイト、ウェブサイトのプロモーション、お金を稼ぐ |
<<: CZ ウェブマスター ツールにおける Baidu からのトラフィックのソースに関するいくつかの意見
先ほど、SEO に関する FAQ の 3 つの側面、 「新しいサイトが含まれないのはなぜか」、「 W...
[[428155]]この記事はWeChatの公開アカウント「三太子敖冰」から転載したもので、著者は三...
最近、ガートナーは、世界のトップクラウドベンダーの全体的なセキュリティ機能を初めて包括的に評価した「...
多くの人は、ファーストレベルドメイン名とセカンドレベルドメイン名が何であるかを理解していません。実際...
ソフトテキストプロモーションが効果的かどうかを判断する基準は、消費者の注目を集めることができるかどう...
2012 年第 7 回中国インターネット ウェブマスター年次会議は、4 月 7 日に北京国際会議セン...
besthosting.ua は、2003 年にウクライナで設立された On-line LTD のホ...
以前、Xiwei Qiangwei 氏が紹介した記事「検索トラフィックこそが王様、トラフィックこそが...
SEOを学んでから1年近く実践・運用していますが、やっていることは同じです。クライアントのウェブサイ...
ご存知のとおり、ウェブサイトの最適化は細部にこだわった仕事です。多くの場合、ウェブマスターとしてウェ...
SEO についてもっと学びたかったので、多くの SEO 学習グループに参加しました。グループでは、ほ...
一度限りの消費者顧客は、当社の事業の持続的な成長を推進することはできません。顧客を維持し、忠実な会員...
[51CTO.com からのオリジナル記事] 本日開催された AWS Re:Invent カンファレ...
AWS IoT Core は、接続されたデバイスがクラウドアプリケーションや他のデバイスと簡単かつ安...
月給5,000~50,000のこれらのプロジェクトはあなたの将来ですマーケティング プロセスでは、広...