検索エンジンがサイトのコンテンツをうまく閲覧できない場合、サイトにどれだけ努力を注いでも無駄になってしまいます。このような事態を避ける最善の方法は、サイト全体の構造を完全に計画することです。 まず、サイトの構築を始める前に、検索エンジンのクロール パターンとルールを分析する必要があります。検索エンジンは「スパイダー」を使用してサイトのソース コードをクロールし、リンクを取得して、サイトのページを収集し、検索エンジン データベースに保存することは周知の事実です。これは、検索エンジンの簡単な収集プロセスです。同時に、検索エンジンは、ページ速度、ソーシャル シグナルなどの特定のアルゴリズムに従って重みを配分し、ランク付けします。これらは、Web サイトを構築する前に知っておく必要があるすべてです。 検索エンジンのスパイダーがページにアクセスし、適切に閲覧、クロールできれば、サイトの重み付けランキングは確実に大幅に向上します。では、検索エンジンにサイトを気に入ってもらうにはどうすればよいでしょうか。以下に、私の SEO Walker サイトの 5 つの操作を示します。 1. ナビゲーションを簡素化する 私のように、多くのウェブマスターがサイト構築時に特にナビゲーション設計にこだわっていると思います。ナビゲーション設定は、サイト全体の重み付けとユーザーフレンドリーな体験にとって非常に重要だからです。同時に、ナビゲーション設定が複雑であれば、必然的にコードも複雑になります。検索エンジンは通常、より複雑なコードをクロールするのが困難または困難であると感じ、複雑なナビゲーションではユーザーが必要なコンテンツをすばやく見つけることができず、ユーザーフレンドリーな体験に大きな打撃を与えることは間違いありません。この点で、検索エンジンのスパイダーに自分のサイトを好きになってもらいたい場合、最初のステップはナビゲーションバーを簡素化することです。 シンプルな解決策: サイトのナビゲーションをできるだけ簡素化して、ユーザーが 3 回のクリックで必要なディレクトリを見つけられるようにします。メイン ナビゲーションにドロップダウン ナビゲーションを設定すると、ページが肥大化することなく、3 番目と 4 番目のレベルのディレクトリを適切に表示できます。 (ii)サイトに表示される画像やスクリプトファイルの量を最小限に抑える 検索エンジンのクローリング原理は、仮想ツール「スパイダー」を使用して、主にテキストとスクリプトで構成されるページコンテンツを解釈することであることはわかっています。ただし、現在の検索エンジン技術では、検索エンジンはフラッシュや画像上のコンテンツを認識できないため、これは間違いなくサイトUIデザイナーにとって大きな問題です。 簡単な解決策: 何らかの形式のコンテンツ変換を使用して、サイト コードを検索エンジンが認識できるようにします。また、スパイダー シミュレーターを使用して、スパイダーがサイトをクロールする様子をシミュレートして観察することもできます。クロール中に失われたコンテンツが多すぎたり、クロールできなかったりする場合は、変更を加える必要があります。 (III)一貫性のないリンク操作を避ける サイトに内部リンクを構築する場合、その名前の付け方には細心の注意を払う必要があります。なぜなら、検索エンジンは人間のように知的な判断を下すことができないことは誰もが知っているからです。検索エンジンは通常、URL に基づいて判断します。2 つの異なるコード コンテンツが同じ URL アドレスにリンクされていることがあります。この場合、検索エンジンは間違いなく見失ってしまいます。リンク ページに表示するコンテンツはどれですか? 私たちにとっては単純なように思え、ロジックも理解できますが、検索エンジンは結局ユーザー フレンドリーではないため、多くの場合、検索エンジンが好む形式でリンクする必要があります。 検索エンジンが判断できないコンテンツに誘導されることを避けるために、リンク先には一貫性のある同一のコードを使用し、リンク先によって表現されるコンテンツを一意にする必要があります。 (IV)301リダイレクトの適切な使用 301 リダイレクトはよく使われる手法です。では、301 リダイレクトはいつ使用するのでしょうか。まず、その役割は、検索エンジンがページをクロールするときに、指定したページにジャンプすることです。通常、ドメイン名リダイレクトを使用して、www のないアドレスを www のあるアドレスにリダイレクトします。実際、多くの場合、サイトには重複したコンテンツがあり、これらの重複コンテンツはすべての検索エンジンに含まれることもあります。このとき、多くのジャンク ページが生成されます。このときに直接削除すると、より多くのデッド リンクが生成される可能性があります。その場合、301 リダイレクトを使用して重複ページを別のページにジャンプするのが合理的です。これにより、重複コンテンツを回避できるだけでなく、デッド リンクの生成も削減できます。しかし、1 つ注意しなければならないのは、301 リダイレクトをあまり使用しないことです。 (V) サイトマップの正しい使い方 サイトのインデックス作成を改善し、検索エンジンとの親和性を高めたい場合、サイトマップは検索エンジンがクロールしてすばやくキャプチャできるようにする優れた方法です。ただし、間違ったサイトマップを使用すると、サイトのクロールに非常に悪影響を及ぼします。したがって、サイトマップの指示の正確性を確保する必要があります。もちろん、一般的な CMS バックグラウンドでは、独自のサイトマップ生成が現在あるため、通常は 1 回のクリックで生成します。もちろん、サイトがいくつかのプラットフォームで実行されている場合は、サイトマップを自動的に生成するためのプラグインをダウンロードする必要があります。それが機能しない場合は、HTML コードを使用してサイトマップ ページを手動で作成し、作成後に検索エンジンに送信できます。 要約: 通常、検索エンジンがサイトを好まない理由は、サイトの内容が独創的でなかったり、過剰に収集されたりすることに加えて、これら 5 つの状況です。もちろん、細かいエラーもありますが、結局のところ、各サイトの状況は異なります。この記事はウェブゲーム http://www.2763.net のウェブマスターから提供されたものです。転載の際は出典を明記してください。 元のタイトル: 検索エンジンのスパイダーにあなたのサイトを気に入ってもらう 5 つの方法 キーワード: 5 つの側面、検索、エンジン、スパイダー、サイト、if、不可能、ウェブマスター、ウェブサイト、ウェブサイトのプロモーション、収益化 |
<<: 口コミマーケティングを活用して検索エンジンマーケティング広告の無駄を減らす方法
>>: 事例分析:3つの側面から旅行サイトをもっとユーザーフレンドリーにする
テストは、キャンペーンを開始する上で最初かつ最も重要なステップです。テストによって、顧客がこのチャネ...
onepoundwebhosting、512M メモリ搭載の xen pv ベース VPS のプロモ...
多くの企業の最高情報責任者は、来年クラウド コンピューティングへの支出を大幅に増やす計画を立てており...
Raksmart データセンター サーバーがプロモーション中です: 米国サーバー (独自の独立したデ...
おそらく多くのウェブマスターは、「スナップショット独占」が何を意味するのかまだよくわかっていないでし...
k8s必要日々の仕事では、すべてのプロジェクトが完璧というわけではありません。ポッドのステータスは実...
医療業界の多くのウェブマスターは、2012 年が私たちにとって最も困難な年であったことに気付くと思い...
Profitserver は常に無制限トラフィックの VPS サービスに重点を置いてきました。コア ...
インターネット市場を最も単純かつ大まかに区分すると、消費者市場と企業市場に大別できます。前者は個人ユ...
インターネットマーケターなら誰でも知っていることですが、2012年5月2日17時頃、Baiduのデー...
前回彼女と「コンテナ技術」について話したのですが、理解しているようでよくわからず、なかなか受け入れて...
パブリック クラウドにより、IT チームがデータを操作し、クラウド ネイティブな方法で新しいアプリケ...
tmhhost について皆さんがよく知っているのは、香港トリプルネットワーク cn2 gia、香港 ...
マイクロマーケティングの時代において、インタラクティブソーシャルプラットフォームとリッチメディアの代...
効果的な SEO 戦略は、人間の心理学に基づいた技術的な作業です。ユーザーの心理を理解し、市場、ユー...