Baidu ウェブマスター プラットフォームの外部リンク データ分析を取得するための Python3 スクリプト

Baidu ウェブマスター プラットフォームの外部リンク データ分析を取得するための Python3 スクリプト

Baiduウェブマスターツールの外部リンクツールで照会された外部リンクデータを分析するために、Pythonスクリプトを書きました。ウェブマスタープラットフォームから直接データを取得することで、分析用のすべてのデータを保存し、サイト上のリンクされたページ+回数、外部リンクのルートドメイン+ドメイン名の下のリンクの数、アンカーテキスト+アンカーテキストの使用回数をエクスポートしました。もちろん、データを取得できるため、より多くの次元でデータを分析できます。このスクリプトは、上記の3つの側面のみを分析します。他のニーズがある場合は、自分で拡張できます。

コードと手順は以下に掲載されています。

スクリプトの最初の関数は次のとおりです。

説明: この関数は主に、Baidu Webmaster Platform 外部リンク ツールで照会された Web サイトの外部リンクのすべてのデータを取得し、all_data リストに書き込みます。

#コーディング=utf-8

import json#jsonモジュールを呼び出す

import urllib.request#urllib.requestモジュールを呼び出す

def url_outerlink_anchor(url):#ウェブマスタープラットフォームデータを取得する

html1 = urllib.request.urlopen('http://zhanzhang.baidu.com/inbound/detail?d=%s&pagesize=100&page=1'%url).read().decode('utf-8')#最初の外部リンクリストを開く

data1 = json.loads(html1)#json形式に変換

outerlink_num = int(data1['count'])#外部リンクの総数を取得する

range_page_num = outerlink_num//100+2#ページあたり100項目を表示、外部リンクの総数

range_page_num_list = range(1,range_page_num)#例えば、計算後、range_page_num=4、range_page_num_list = [1,2,3]となり、各ページには100個の外部リンクが表示されるので、3ページあります。

#上記の計算は主に以下のすべてのデータを取得するためのものです

すべてのデータ = []

for i in range_page_num_list:#for ループはデータを抽出し、それを all_data リストに追加します

html=urllib.request.urlopen('http://zhanzhang.baidu.com/inbound/detail?d=%s&pagesize=100&page=%r'%(url,i)).read().decode('utf-8')

データ = json.loads(html)

urls=[]

データ['list']内の項目の場合:

urls.append([item['url'],item['outer_url'],item['anchor']])#URL、外部リンク、アンカーテキストを抽出

all_data.extend(URL) は、

return all_data#すべてのデータを返す list all_data

スクリプトの 2 番目の関数は次のとおりです。

説明: この機能は主に、Web サイトにリンクされているすべてのページとリンク回数を取得し、csv ファイルに書き込みます。

def every_page_num(url):#各ページがリンクされている回数を取得します

all_data = url_outerlink_anchor(url)#すべてのデータ

url_list = []

for item in all_data:#ページデータを取得してurl_listに追加します

url_list.append(項目[0])

quchong_url_list = {}.fromkeys(url_list).keys()#重複するページデータを削除する

file = open('%s_every_page_num.csv'%url,'a+')#csvファイルを作成して開く

quchong_url_list 内のアイテム:

file.write(item+','+str(url_list.count(item))+'\n')#ページが接続された回数を書き込みます

ファイルを閉じる()

Trueを返す

この関数で取得したデータを組み合わせて円グラフ効果を作成します。

上記のデータに基づいて、Web サイトのその後のリンク構築の計画を立てることができます。

スクリプトの 3 番目の関数は次のとおりです。

説明: この関数は主に、すべての外部リンク ルート ドメインを取得し、ルート ドメインの下の Web サイトを指すリンクの数をカウントして、csv ファイルに書き込みます。

def outer_url_num(url):#外部リンクのルートドメインと各ドメイン名のリンク数を取得します

all_data = url_outerlink_anchor(url)#すべてのデータ

外側のURLリスト = []

for item in all_data:#外部リンクデータを取得し、outer_url_listに追加します

外側のURLリストに追加(項目[1])

げんゆう = []

for link in outer_url_list:#外部リンクのルートドメインを取得し、genyuに追加します

genyu.append(link[:link.index('/')])

qu_chong_genyu = {}.fromkeys(genyu).keys()#次の統計についてgenyuのデータを推測します

file = open('%s_outer_url_num.csv'%url,'a+')#csvファイルを作成して開く

for item in qu_chong_genyu:#各ルートドメインのリンク数をカウントし、ファイルに書き込みます

file.write(item+','+str(genyu.count(item))+'\n')

ファイルを閉じる()

Trueを返す

この関数で取得したデータを組み合わせて円グラフ効果を作成します。

上記のデータを組み合わせることで、外部リンクの幅とソースドメインの数のバランスをとることができます。

スクリプトの 4 番目の関数は次のとおりです。

説明: この関数は主にすべてのアンカー ワードを取得し、アンカー ワード リンクの数をカウントして csv ファイルに書き込みます。

def アンカー番号(url):

all_data = url_outerlink_anchor(url)

アンカーリスト = []

all_data内のアイテムの場合:

アンカーリストに追加(項目[2])

quchong_anchor_list = {}.fromkeys(anchor_list).keys()

ファイル = open('%s_anchor_num.csv'%url,'a+')

quchong_anchor_list 内の項目:

file.write(item+','+str(anchor_list.count(item))+'\n')

ファイルを閉じる()

Trueを返す

この関数で取得したデータを組み合わせて円グラフ効果を作成します。

上記のデータを組み合わせることで、主にウェブサイトのアンカーテキストの構築を計画することができます。もちろん、データを分析し続け、各ページのアンカーテキストをカウントすれば、サイト全体のリンクプランを立てることができます。

以下が実行関数です。url='http://www.****.com/' の http://www.****.com/ を自分のウェブサイトに変更するだけです。

__name__ == '__main__' の場合:

url='http://www.***.com/'

url_outerlink_anchor(url)#データを取得するために最初の関数を実行します

every_page_num(url)#2番目の関数を実行する

outer_url_num(url)#3番目の関数を実行する

アンカー番号(url)#4番目の関数を実行する

上記がこのスクリプトの内容のすべてです。もちろん、最初の関数を通じてデータを取得した後、多次元分析を自由に実行できます。上記は主な3つを簡単に紹介しただけであり、必要に応じて拡張することもできます。

この記事は、Poor Abrasive Station (Emery Sand http://www.moliao88.com/) を宣伝するために Lao Jiang によって書かれました。他の人の労働の成果を尊重し、転載する際には出典を明記してください。


原題: Baidu ウェブマスター プラットフォームの外部リンク データ分析を取得するための Python3 スクリプト

キーワード: python、リンク分析

<<:  Weiphone フォーラムがクラッシュしたのはなぜですか? 国家ラジオ・映画・テレビ総局による禁止令により、新しいドメイン名が正式に開始された。

>>:  宜尚の従業員は報酬計画に不満を持ち、ストライキを起こしたと報じられている。詳細を独占公開

推薦する

ウェブサイトが攻撃を受けており、アクセスが遅くなっています。しばらくお待ちください。

この2日間、ウェブサイトは攻撃を受けています。DDoS攻撃を受けた国内データセンターからのトラフィッ...

2014 年に最適化のために他に何をすべきでしょうか?

今年後半から多くのウェブサイトが降格またはK化されていることが明らかになっており、そのほとんどは企業...

共通のウェブマスターウェブサイト分析と貢献経験の共有

はじめに: 数日前、28tui の創設者 Mou Changqing 氏がブログで批判しているのを見...

ウェブサイトのスナップショットが更新されていない場合に使用してはいけない「​​7つの傷害」

更新されていない新しいサイトのスナップショットは、確かにウェブマスターにとって最も厄介なことですが、...

Amazon Web Services: ゲーム業界の革新と再編を実現

「マリオ」や「テトリス」の初期の時代から、今日の人気の「原神」まで、世界のゲーム業界は過去 70 年...

Baidu アンチチートアップデート: 低品質サイトを処罰

みなさんこんにちは。私は徐子宇です。皆さんはまだ百度の6.22と6.28のメジャーアップデートに夢中...

ウェブサイト運営初期段階におけるプロモーション重点とプロモーションチャネルの分析

多くの友人から、目標を設定し、プロモーションの方法もいくつか知っているが、どのように最適化したりキー...

ITインターネットリーダーの視点から見た2013年:新たな状況におけるチャンス

2012年は過ぎましたが、世界の終わりはまだ来ておらず、ITとインターネットの紛争は続くでしょう。記...

EIGのホストプロモーション 冬のセール

EIG 傘下のバーチャルホスト数社からプロモーションメールが届きました。さらに興味深かったのは、プロ...

検索エンジンリンク分析におけるリンク最適化

ウェブサイトの最適化において、よく言われる「コンテンツは王、リンクは女王」という言葉は、今やこの2つ...

クラウドでデジタルコアを構築する方法

クラウド コンピューティングは、今日多くの組織がビジネスを運営する上で重要な部分となっています。多く...

bluehost - ドメインの新規登録または移管に 5.99 ドル

Bluehost は EIG に買収されて以来大きな動きはなく、データセンターも以前ほど良くないよう...

広告で最大の効果を達成する方法についての簡単な説明

多くの中小企業は、強力な広告を打つことを好みますが、結果は満足のいくものではありません。その理由は、...