WordPress サイトをインストールした後、多くのウェブマスターは robots.txt ファイルの記述に悩まされています。 robots.txt ファイル プロトコルは、検索エンジン ロボット プロトコルとも呼ばれます。検索エンジン クローラーがウェブサイトをクロールするとき、まずウェブサイトのルート ディレクトリに robots.txt ファイルがあるかどうかを確認し、次に robots.txt プロトコルに従って、ウェブサイト所有者が検索エンジンにクロールさせたいコンテンツをクロールします。 robots.txt ファイルは、検索エンジンのクローラーに、どのページをクロールできるか、どのページをクロールできないかを伝えることを目的としています。これにより、ユーザーのプライバシーを効果的に保護できるほか、スパイダーの帯域幅を節約し、スパイダーのクロールを容易にして、インクルージョンを促進することができます。 まず、robots.txt ファイルのルールについて簡単に説明します。 1. すべての検索であらゆるコンテンツをクロールできるようにする ユーザーエージェント: * 許可しない: これは、すべての検索エンジンがすべてのページをクロールできることを意味します。Disallow は許可されないことを意味しますが、その後に空白の状態が続くため、クロールが許可されないページは存在しないことを意味します。 2. 1 つ以上の検索エンジンのクロールをブロックします。最近人気の 360 総合検索を例に挙げてみましょう。 ユーザーエージェント: 360spider 許可しない: / ユーザーエージェント: * 許可しない: 最初の 2 行は、360 総合検索スパイダーがどのページもクロールできないことを意味します。説明については最初のポイントを参照してください。同様に、360 総合検索に加えて Baidu スパイダーをブロックしたい場合は、最初に追加し続けます。 3. 検索エンジンによる特定のページのクロールを許可しない。ここでは、WordPress管理バックエンドページをすべての検索エンジンにクロールさせない例を取り上げます。 ユーザーエージェント: * 禁止: /wp-admin/ WordPress 管理バックエンドがルート ディレクトリの wp-admin フォルダーにあることは誰もが知っています。disallow の後に /wp-admin を追加すると、検索エンジン スパイダーがクロールできなくなります。 Baidu にバックエンドをクロールさせず、他の検索エンジンにバックエンドをクロールさせる、360 総合検索にバックエンドをクロールさせず、他の検索エンジンにバックエンドをクロールさせるなどの組み合わせについては、上記 3 つのポイントを参考に組み合わせてください。 話題に戻り、WordPress の robots.txt ファイルの書き方についてお話ししましょう。実際、WordPress の robots ファイルは非常にシンプルで、主に次の 3 つの重要なポイントに焦点を当てています。 1. ウェブサイトのバックエンドをクロールするためにスパイダーを使用しない まず、検索エンジンが WordPress のバックエンド ページをクロールしないように設定します。これは、ほぼすべての Web マスターが robots.txt ファイルを設定する主な目的です。これは WordPress に限定されません。もちろん、異なる種類の Web サイトのバックエンド ページのフォルダー名は異なります。 2. 静的化後、スパイダーが動的URLをクロールできないようにします。 動的なパラメータが多すぎるとスパイダーのクローリングに役立たないため、WordPress の URL を静的にすることをお勧めします。しかし、多くのウェブマスターがURLを静的化した後、記事を公開するたびに、検索エンジンは常に静的URLと動的URLの両方を含めるようになります。これは明らかに記事ページの重みの分散につながり、重複ページが多すぎて、最終的には検索エンジンからペナルティを受けることになります。実際、この状況を回避する方法は非常に簡単です。つまり、robots.txtファイルで設定して、スパイダーが動的URLをクロールしないようにし、動的URLがBaiduに含まれないようにすることです。 3. 最後にXML形式のウェブサイトマップを追加する robots.txt の最後にサイトマップを追加すると、スパイダーが Web サイトをクロールするとすぐにサイトマップがキャプチャされるようになり、ページが組み込まれる可能性が高まります。 最もシンプルなWordPress robots.txtは次のように記述されます。 ユーザーエージェント: * 禁止: /wp-admin/ 許可しない:/*?* #つまり、? を含む URL はキャプチャされません。動的 URL には ? が含まれます。# サイトマップ: http://www.yourdomain.com/sitemap.xml # を含む行を削除し、サイトマップ内の yourdomain を自分のドメイン名に変更します。このようにして、WordPress robots.txt ファイルが完成します。最後に、このファイルをルート ディレクトリにアップロードします。 Robots.txt ファイルを作成するときに注意すべき点がいくつかあります。 1. スラッシュ問題 まず、先頭のスラッシュが必要です。末尾にスラッシュがある場合は、このディレクトリの下にあるすべてのページを意味します。スラッシュがない場合は、/wp-admin.html、/wp-admin.php などのスラッシュのあるページとスラッシュのないページの両方がブロックされます。これらは 2 つの異なる概念であり、行の後にスラッシュを追加するかどうかは必要に応じて検討する必要があります。 2. 大文字の使用に関する問題 各行の最初の文字以外はすべて小文字にする必要があります。 3. 許可と禁止 実際、多くの初心者ウェブマスターにとっては、どちらか一方の書き方をマスターするだけで十分です。なぜなら、両方の書き方を同時に教え込まれると、簡単に混乱してしまうからです。したがって、初心者の場合は、混乱によるエラーを防ぐために、robots.txt ファイルでは 1 つの方法のみを使用するのが最善です。 この記事は、SEO学習ウェブサイトのディレクターである張東龍によって最初に書かれました。転載する必要がある場合は、元のアドレスhttp://www.zhangdonglong.com/archives/578を維持してください。ありがとうございます。 元のタイトル: WordPress robots.txt ファイルについて キーワード: robots.txt、wordpress、ウェブマスター、ウェブサイト、ウェブサイトのプロモーション、収益化 |
<<: 新しいウェブマスターが生計を立てるためには、どのようなウェブサイトを構築すべきでしょうか?
>>: 電子商取引サイトの内部構造 SEO最適化スキルの共有
ウェブマスター向けのウェブサイトであるため、GG広告を掲載する際には「推奨」を重視し、オンライン収益...
Hostcram は米国ワイオミング州に登録された会社です (登録番号: -000736577)。主...
タオバオアフィリエイトは現在ゆっくりと発展していますが、タオバオアフィリエイト軍団が消滅したことはあ...
Hostcat は、多くの安価な VPS とカスタム ISO をサポートする多くの VPS を導入し...
ショートビデオ、セルフメディア、インフルエンサーのためのワンストップサービス前回の号では、杭州鋒蘭が...
hmbcloudはアメリカの企業(中国系アメリカ人が経営)で、cn2 giaとIPLCのハイエンドラ...
1. SEO とは何ですか? SEO (Search Engine Optimization) は中...
2016 年はライブ ストリーミング元年であり、200 を超える新しいライブ ストリーミング プラッ...
gigsgigscloud は昨日、まったく新しいシンガポール VPS とシンガポール クラウド サ...
vps777は2017年に設立された新しい事業で、米国に登録されているそうです。現在はCCコンピュー...
Sharknode はロサンゼルスに登録された VPS 事業者です。2009 年に設立されました。現...
Backupsy の Windows VPS ブランド Winity は、Hyper-V をベースに...
bhostは少なくとも5年間VPSを運営しています。英国に登録されており、独自のAS番号(AS600...
LBXUは現在、「ダブルイレブンホットセール」イベントを推進しており、同時に、米国から新しく発売され...
1年以上前、世界的な感染症の流行とそれに伴う社会運営やビジネスモデルの急激な変化に直面し、マイクロソ...