リンクの方向によるウェブサイトコンテンツの重複は、ウェブサイトの SEO では常にタブーとされてきました。異なるリンクが同じ Web ページを指している場合、検索エンジンはそれを不正行為とみなします。昨日言及したWordPressリダイレクトプラグインも、ある意味で重複コンテンツを防ぐように設計されています。しかし、WordPress の構造上、Web ページのコンテンツが重複してしまうことが多々あります。たとえば、2 つの URL http://www.domain.com/archive/1 と http://www.domain.com/archive/1/feed の内容は同じなので、このような事態が発生しないようにする方法を見つける必要があります。 通常、重複コンテンツは、noindex タグを使用したり、抜粋を使用してコンテンツを要約したり、robots.txt を構成したりすることで解決できます。今日は主にWordPressでのrobots.txtファイルの使用についてお話します。 robots.txt ファイルは、Web サイトのゲートのようなものです。検索エンジンのスパイダーに、どの Web ページのコンテンツをクロールできるか、どのコンテンツをクロールできないかを伝えます。したがって、robots.txt ファイルを適切に構成することで、ブログ コンテンツの重複の問題を理想的に解決できます。 robots.txt の具体的な文法と使用方法については、robotstxt.org を参照してください。中国では、このタイプの WordPress robots.txt が非常に人気があります。先ほど filination.com で上記に言及した robots ファイルを見たところ、簡単な説明が示されていました。 robots.txt ファイルを初めて使用する方は、以下を参照してください: ユーザーエージェント: Googlebot # 内のすべてのディレクトリとファイルを禁止 # これらの拡張子で終わるすべてのファイルを禁止 # 個々の投稿フィード、カテゴリ、トラックバックの解析を禁止.. robots.txt は人によって異なり、ロボットに対する理解も人によって異なります。また、SEO は常にホットな話題であるため、WordPress robots ファイルは唯一のものではなく、最適なものもありません。もっと良いアイデアが思いついたら、ぜひ共有してください。 元のタイトル: WordPress SEO Robots.txt の最適化 キーワード: seo |
<<: WordPressプラグインのおすすめ: 最高のSEOプラグイン
>>: WORDPRESSにおすすめの基本的なSEOのヒント
著者はずっと Guoping 先生の記事を読むのが好きでした。Guoping 先生の記事はすべて、一...
admin5.comが3月1日に伝えたところによると、Baiduの外部リンク拒否ツールのベータ版が本...
以前の会社でパブリックアカウントの運用を始めて、最初はCPSのみでしたが、後に有料広告も行うようにな...
この号では、個人の WeChat アカウントにプライベート トラフィック プールを構築する必要がある...
私は田舎の負け犬で、非常に失敗した草の根ウェブマスターです。かつては栄華を極め、最も栄えていた時には...
文/チャイ氏序文:私はWeChat Momentsで押し鴨を販売して約40日になります。私はWeCh...
海外メディアの報道によると、アップルは製品のソースコードとキーを中国市場に提出し、監視用の「バックド...
moonvmはどうですか? moonvm 台湾アポルはどうですか? moonvm は、台湾の hin...
solidseovps は現在、8G メモリ、2 コア (AMD EPYC)、10Gbps 帯域幅で...
今ではタオバオアフィリエイトになるのはますます難しくなっていると言わざるを得ません。市場全体の発展環...
クラウド コンピューティング環境を管理する場合は、「ホット スタンバイ」や「パイロット ライト」など...
私は非常に複雑な気持ちでこの記事を書きました。著者は、長年にわたり最適化業界に携わってきた経験から、...
anynodeは、同社のVPSがロサンゼルスのZenlayerデータセンターネットワークに接続されて...
おそらく、古い VPS hostigation.com (acrosvm.com、highspeed...
Catalyst は、実は評判、いわゆる「10G」、そしてシアトルという理由で選びました。この 3 ...