動的レンダリング対。 クローキング: SEO にどのような影響を与えるか?

公開: 2023-01-30

SEO の分野に足を踏み入れている場合は、おそらく「ブラック ハット テクニック」という用語に出くわしたことがあるでしょう。 ブラック ハット テクニックは、違法で怪しげな SEO テクニックを表しており、結果はすぐに得られますが、長期的には持続可能ではありません。

そのようなブラック ハット テクニックの 1 つがクローキングです。 クローキング技術の利用は、Google によって禁止されているだけでなく、Googlebot によって検出された場合にウェブページが削除される可能性もあります。

ただし、意図せずにクローキングを使用する場合もあります。 この記事では、クローキングと動的レンダリングの誤解されている手法について説明し、Web ページの開発中によくある間違いを回避できるようにします。

動的レンダリングにJavaScript プリレンダリングを使用することをお勧めします

始めましょう!

クローキングとは?

クローキングは、Google の検索アルゴリズムを操作するために検索エンジンと人間のユーザーにさまざまなコンテンツを提示することを含むブラック ハット SEO 手法を表します。 その結果、クローキングはまた、ユーザーを誤解させて、Web ページのランキングを上げるように誘導します。

たとえば、クローキング技術を利用する Web サイトは、リクエストのユーザー エージェントまたは IP アドレスを使用して Google ボットを識別し、オンライン小売業者に表示されるページとは異なるページを提供します。

クローキングなどのブラック ハット手法を使用することは、Google の SEO ガイドラインに反するだけではありません。 それはあなたのウェブサイトにも害を及ぼす可能性があります。 ほとんどのブラック ハットの実践者は、違法なコンテンツや無関係なキーワードを使用して、検索エンジン ページで高いランキングを獲得します。

クローキングを行うと、ウェブサイトのインデックスが削除されたり、永久に禁止されたりする可能性があります。 したがって、クローキングは SEO の選択肢にはなりません。

ダイナミック レンダリングとは

動的レンダリングは、JavaScript Web サイトの完全にレンダリングされたバージョンや、単一ページのアプリケーションでさえ、JavaScript の実行が困難な検索エンジンに提供するのに役立ちます。

Web サイトまたは特定の Web ページをレンダリングするには、 Reactjs prerenderingを使用できます

ほとんどの場合、Google や Bing などの検索エンジンは、さまざまなインデックス作成の問題につながる可能性がある JavaScript を多用した Web ページの実行に苦労しています。 動的レンダリングは、Web サイトが Google ボットや Bing ボットなどの検索クローラーを容易に識別し、JavaScript コンテンツの実行後に要求された Web ページの静的 HTML バージョンを提供するのに役立ちます。

ほとんどすべての Javascript 事前レンダリングは、同様の手法に従います。

  • まず、Javascript prerender などのミドルウェアがサーバーにインストールされ、検索エンジンのクローラーを識別してサービスにリクエストを送信します。
  • プリレンダリングは、Web ページから必要なデータを抽出し、完全にレンダリングされたページのスナップショットを作成します。
  • 最後のステップでは、サーバーを使用して静的ページをクローラーに送り返し、後で使用できるようにキャッシュします。

ただし、ユーザー エージェントが人間の場合、リクエストは通常​​のルートをたどり、オンライン ユーザーを Web サイトに送ります。

クローキングとダイナミック レンダリングは 2 つの異なる概念

クローキングと動的レンダリングは、似た概念のように思えるかもしれません。 しかし、Google は、この 2 つは SEO に対するまったく異なるアプローチであることを明らかにしています。

動的レンダリングでは、Google ボットと人間のユーザーに異なるバージョンのサイトを送信するため、混乱が生じます。 では、ダイナミック レンダリングがクローキングと見なされないのはなぜでしょうか?

これを明確にするために、Google は次の声明を発表しました。

通常、Googlebot は動的な Reactjs の事前レンダリングをクローキングとは見なしません。 動的レンダリングが同様のコンテンツを表示する場合、Googlebot は動的レンダリングをブラックハット SEO クローキングとしてスキャンしません。

両者の主な違いは次のとおりです。

クローキングはプロセスを表すだけでなく、テクニックを使用する意図も表しています。

JavaScript prerender のようなサービスを使用することで、ページの静的バージョンを作成しています。 ただし、コンテンツは検索エンジンとユーザーの両方にとって同じままです。

Prerender のようなサービスを使用する場合、ページの静的バージョンを作成しますが、検索エンジンとユーザーのコンテンツは同じになります。 Google のサーバーからレンダリング プロセスを削除しているだけです。

ただし、これは、事前レンダリングまたは動的レンダリングを誤って使用すると、悪意がなくてもクローキング ペナルティが発生する可能性があることも意味します。

では、どうすればそれを回避できますか? 確認してみましょう!

ダイナミック レンダリングの使用中にクローキング ペナルティを回避するにはどうすればよいですか?

動的レンダリングはクローキングと同様に機能します。いくつかの変数がうまくいかず、ウェブサイトが間違った意図がなくてもクローキング ペナルティを受ける可能性があります。

JavaScript prerender を使用する際に考慮する必要がある詳細を次に示します。

常にハッキングに注意してください。

違法なエンティティが使用する最も顕著な戦術の 1 つは、適切なトラフィックを収集する Web サイトをハッキングすることです。 これらのページをクローキングすることにより、トラフィックはメインの Web サイトにリダイレクトされます。

最近 Web サイトの違反を経験した場合、またはクローキング ペナルティを受けた理由がわからない場合は、ハッキングが理由の 1 つかもしれません。 これを回避するには、常にウェブサイトを監査して、クローキングを示唆する可能性のある奇妙なリダイレクトやバックエンドの問題を発見してください。

非表示のテキストを確認する

Reactjs の事前レンダリング中に、テキスト属性の一部が変更され、テキストが非表示になる問題が発生することがあります。 これらのコンポーネントは、Google のクローラーによって検出され、キーワードの詰め込みの試みとしてタグ付けされる可能性があり、最終的にランキングのペナルティにつながる可能性があります。

さらに、動的にレンダリングされたページがユーザーに表示されるものと大きく異なる非表示の要素がある場合、Google はレンダリング前のクローキングも考慮します。

部分的にレンダリングされたページ

クローキングがレンダリングと異なる主な点は、クローキングでは、検索エンジンが見るものとユーザーが受け取るものとの間に大きな違いがあることです。

部分的にレンダリングされたページでは、一部のコンテンツが失われる可能性があり、おそらく Google ボットはアルゴリズムをだまそうとしていると判断します。 部分的なレンダリングは、次の状況が原因で発生する可能性があります。

  • ページ レンダリングのタイムアウト
  • ページエラー

まとめ

すべてのサイトで動的レンダリングが必要なわけではありません。 主に、急速に変化する JavaScript で生成されたコンテンツ、または Google クローラでサポートされていない JavaScript 機能を使用するコンテンツ用に予約されています。

動的レンダリングの利点は、Googlebot のクロールと JavaScript コンテンツのレンダリングが高速になり、検索結果のインデックス作成が高速になることです。