今のところ、無実の罪で告発され処罰されたオリジナルのウェブマスターはまだたくさんいます。Baidu の現在のオリジナル記事の審査技術は、実に不十分です。では、ウェブマスターはオリジナル ルートに従う必要があるのでしょうか、それとも収集されたコンテンツ ルートに従う必要があるのでしょうか。Baidu のテクノロジーにより、これまで常にオリジナル ルートに従ってきた人々は、オリジナル コンテンツを書く意欲を失ってしまいました。では、今日では独創性をどのように保護すればよいのでしょうか? まず、記事を書いて、できるだけ早くBaiduに送信します。 おそらく、あなたのウェブサイトは、記事を書き終えた後、すぐにスパイダーがクロールすることを保証できないでしょう。では、他の手段を使って、Baidu に記事がオリジナルであるとみなされる可能性を高めることはできるでしょうか? 現在の ping メカニズムにより、Baidu は間接的に、ある程度の時間内に元のソースを事前に識別することができます。したがって、小規模なウェブサイトがオリジナルの記事を作成するときは、ping メカニズムを通じて Baidu に ping を送信することを忘れてはなりません。 第二に、ウェブサイトはサイトマップをインストールし、定期的に自動的に生成されるようにする必要があります。 スパイダーが Web サイトをクロールする場合、通常は最初にロボットをクロールすることは周知の事実です。その目的は、クロールできるページとクロールできないページを検出することです。そのため、多くのウェブマスターは、サイトマップのアドレスをロボットに書き込むことができることをまだ知らず、これにより、サイトマップがスパイダーによってクロールされる可能性が大幅に高まります。サイトマップの自動生成は、Web サイト全体のリンクがサイトマップに含まれることと同じであることは誰もが知っています。そのため、より多くのページがクロールされてサイトマップに含まれるようにするには、スパイダーにサイトマップをクロールさせる必要があります。 3番目は、外部リンクの数を使ってBaiduがリンクを特定するのを間接的に支援する ある人が悪人であるかどうかは、一人の人間だけでは決まらないことは、誰もが知っています。さらに確認するには、多数の人の承認が必要です。したがって、外部リンクの数を使用して、Baidu が記事がオリジナルであるかどうかをより正確に識別できるようにすることもできます。では、私たちは何をすべきでしょうか? 以下は私自身のこれまでの実践です: 1) >> ウェブサイト上のすべてのリンクを整理する サイトマップにはサイト全体のすべてのページリンクが含まれていることは誰もが知っているので、サイトマップから始めることができます。サイトマップ ページを開き、すべてのコンテンツを Excel にコピーします。 Excel 関数ボックスのデータ フィルターを使用して、各ページの一意のリンクを整理し、ページ リンクではないすべてのコンテンツをクリアします。方法は、列 A を選択し、データをクリックしてからフィルター - 自動フィルターをクリックし、列 A の右下隅にある小さな三角形をクリックしてクリックし、[カスタム] を選択してから、カスタム関数表示ボックスのドロップダウンで [含める] を選択し、右側の対応する入力ボックスに Web サイトのドメイン名を入力して [OK] をクリックします。結果は次の図に示されています。 前のステップの後でも、いくつかの文字はまだ存在します。次に、置換によって不要なものを削除します。上の図から、不要な文字は と であることがわかります。さて、次のステップは、Excel でキーボード ショートカット (Ctrl+h) を使用して置換機能ボックスを開き、検索対象に入力し、置換対象を空白のままにして、すべて置換をクリックすることです。これにより、現在のワークシート内のすべてのコンテンツが簡単にクリアされます。それらを削除するには、上記と同じ手順に従います。最終的に完成した写真は以下のとおりです 次に、いくつかの検索および収集プラットフォームを使用して、Baidu に含まれた記事と含まれていない記事をフィルタリングし、Baidu に含まれていない記事ページを整理し、その記事が他のウェブマスターによって収集されているかどうかをリアルタイムで追跡します。収集されている場合は、記事をさまざまなプラットフォームに送信し、下部に元のソースを記載することができます。ソースは記事へのリンクです。この方法により、記事へのポインタの数が大幅に増加し、Baidu がオリジナル記事を識別するのに大いに役立ちます。 この記事は元々、Qiaoshuo SEO Forum http://www.qiaoshuoseo.com/ で公開されました。転載の際は出典を明記してください。 元のタイトル: 一生懸命書いたオリジナル記事を保護する方法 キーワード: オリジナル記事 |
<<: QQグループを利用して6000以上のインデックスキーワードをホームページに掲載する方法
>>: 半年間の SEO 経験を持つ新人ウェブマスター必読の書
[51CTO.comからのオリジナル記事] 専門的で経験豊富な医師の不足と良質な医療資源の集中により...
【ポイント】ショッピングガイド事業がますます多くの外部要因に囲まれる中、将来的にはショッピングガイド...
今年に入ってWeChatのユーザー数が大幅に増加し、モバイル端末での利用頻度はQQを上回る傾向にある...
HostMist から、メモリの少ない VPS のプロモーションが届きました。とても気に入ったので、...
gigsgigscloud が、米国ロサンゼルスの双方向 CN2 GIA 回線、KVM 仮想化、2 ...
エッジコンピューティングは最近ホットな話題です。近年最もエキサイティングな技術革新として称賛され、そ...
servarica(カナダの会社、2010年~)は数日前にブラックフライデー\サイバーマンデースーパ...
サーバー仮想化はもはや誰にとっても珍しい話題ではなく、多くの企業がデータセンターにサーバー仮想化テク...
文/@董一志弁護士私のようなグルメな友人たちの辞書には、Fantong.com は間違いなく欠かせな...
私はオンライン マーケティングに 4 年以上携わっています。主に Baidu 検索エンジンで働いてお...
少し前に、PC ベースの Web サイト用のモバイル サイトを構築しました。わずか 1 週間で、We...
パブリック クラウドは、企業がオンプレミスのデータ センターでワークロードを運用する代わりに、インフ...
いわゆる SEO の専門家の中には、ただの誇大宣伝で、いわゆる SEO の達人の中には、ただの自称だ...
クラウド コンピューティング サービスの 3 つの基本モデルは、サービスとしてのソフトウェア (Sa...
ウェブサイトのタイトルを書くことは、SEO 最適化作業において非常に重要なステップであり、SEO 担...