【要注意】シンガポールからのアクセスが突然の爆増!? 滞在時間0秒の謎の正体「AIボット」と今すぐすべき対策
皆様、こんにちは。 いつもブログをご覧いただき、ありがとうございます。
ウェブサイトやブログを運営していると、アクセス解析ツール(Googleアナリティクスなど)をチェックするのが日課という方も多いと思います。 そんな中で、「あれ?急にアクセスが爆発的に増えている!」と驚いた経験はありませんか?
実は私自身、最近のアクセスレポートを分析していて、特定の国からの異常なアクセス急増に気が付きました。それが「シンガポールからのアクセス」です。
今回は、この「シンガポールからの謎のアクセス急増」の正体と、データから読み解くAIボット(クローラー)の特徴、そしてその対策について分かりやすく解説したいと思います。
データが語る「異常な増加率」
まずは、私が実際に確認したレポートデータを元に、いかにこのアクセスが特異なものかを見ていきましょう。 前期(2月〜3月)と比較したシンガポールからのアクセス数値は、以下のようになっていました。
- アクティブユーザー数: 22人 → 511人(+2,222.73%)
- イベント数: 69回 → 1,551回(+2,147.83%)
他の国からのアクセスでは全く見られない、まさに「爆発的」と言える驚異的な増加率です。一見すると「海外で自分のサイトがバズったのかも!?」と喜んでしまいそうになりますが、次のデータを見ると少し様子がおかしいことに気が付きます。
ボット特有の「低エンゲージメント」
人間(本当の読者)によるアクセスと比較して、このシンガポールからのアクセスは、サイト内での行動(エンゲージメント)を示す数値が極端に低くなっています。
- エンゲージメント率: 1.57%(※日本からのアクセスは69.96%)
- 平均エンゲージメント時間: 0秒(※日本からのアクセスは57秒)
- 1ユーザーあたりのエンゲージメントセッション数: 0.02
511ユーザーもアクセスしているのに、有効なセッション(10秒以上の滞在や、2ページ以上の閲覧など)が「たったの8回」しかありません。 滞在時間が計測されないほど一瞬で通信を終え、ほとんどのアクセスがページを読み込んだ瞬間に離脱している(またはスクロールなどのアクションを起こしていない)状態です。
これは、生身の人間がコンテンツを「読んでいる」のではなく、プログラムが自動的に情報を「取得(スクレイピング)」している動きそのものです。
なぜ「シンガポール」からのアクセスになるの?
では、なぜAIボットやプログラムによるアクセスが、遠く離れたシンガポールからやってくるのでしょうか?
その理由は、シンガポールがアジア地域におけるITインフラの中心地だからです。シンガポールには、AWS(Amazon Web Services)、Google Cloud、Microsoft Azureといった、世界主要クラウドサービスの巨大なデータセンターが集中しています。
最近急増している最新のAIモデル(LLM)のトレーニング用クローラーや、情報のリアルタイム検索を行うAIボットは、これらのクラウド基盤のサーバー上で稼働していることが多くあります。そのため、アクセス元の地域別データを見ると「シンガポール」として記録されるケースが非常に多くなるのです。
結論とこれからの対策
レポートのログに見られる「シンガポールからのアクセス急増」は、データ上でも間違いなく「AIボットやスクレイピングツールによるもの」と裏付けられました。
特に、「ユーザー数は20倍以上に増えたのに、滞在時間は0秒で、エンゲージメント率が激減している」という点は、典型的なボットの挙動です。
アクセス数が増えること自体はサーバーがダウンしない限り実害はありませんが、アクセス解析のデータが乱れてしまい、本当の読者の動きが見えにくくなってしまうというデメリットがあります。 もしこれが意図しないアクセスであり、解析の邪魔になると感じる場合は、以下の対策を検討する時期と言えるでしょう。
- 特定のIPアドレス帯域のブロック(サーバー側の設定)
robots.txtでのAIボットのクロール拒否設定
例えば、話題のChatGPTの学習用クローラーである「GPTBot」などは、サイトのルートディレクトリにあるrobots.txtに数行追記するだけで、アクセスを拒否することが可能です。ご自身のサイトの正確なデータを守るために、ぜひ一度アクセス解析の国別データを見直してみてくださいね。
robots.txt に追加するAIボット拒否コード(コピペOK)
以下のコードを、ご自身のサイトの robots.txt ファイルに追記するだけで、現在主流となっている主要なAIによるデータの収集(スクレイピング)を防ぐことができます。
# OpenAI (ChatGPT) の学習ボットをブロック
User-agent: GPTBot
Disallow: /
# Common Crawl (多くのAIモデルが学習として利用するボット) をブロック
User-agent: CCBot
Disallow: /
# GoogleのAI学習ボット(Geminiなど)をブロック
User-agent: Google-Extended
Disallow: /
# Anthropic (Claude) の学習ボットをブロック
User-agent: Anthropic-ai
Disallow: /
# Perplexity AI のボットをブロック
User-agent: PerplexityBot
Disallow: /
# Meta (Facebook等) のボットをブロック
User-agent: FacebookBot
Disallow: /
設定における3つの重要ポイント
1. 「Disallow: /」でサイト全体をブロック
Disallow: / (スラッシュ)と記述することで、「サイト内のすべてのページへのアクセス(クロール)を許可しない」という強い指示になります。
2. 通常の検索順位(SEO)には悪影響ゼロ!
「Googleのボットを拒否したら、検索結果から消えてしまうのでは?」と不安になるかもしれません。しかし、Google-Extended はあくまで「AIの学習用」のボットです。通常の検索エンジン用のボットである Googlebot とは完全に別物として扱われるため、ブログの検索順位が落ちるようなことはありません。
3. すべてのAIを100%防げるわけではない
robots.txt はあくまで「紳士協定(ルールのお願い)」のようなものです。行儀の良い大手企業のAIボットはこれを守ってアクセスを控えてくれますが、ルールを無視するボットも一部存在します。それでも、上記の主要なボットをブロックするだけで、異常なアクセスの大部分はしっかりとカットできます。
AIボットの仕組みや、アクセスをブロックする具体的な手法については、以下の専門サイトの情報を参考にしています。
- GDEP Solutions: 「OpenAIはウェブページからデータ取集を停止する機能を公開、クローラー『GPTBot』をオフにすることで個人や企業の著作物を守る」 (GPTBotの挙動とrobots.txtでのブロック方法に関する解説) https://gdep-sol.co.jp/newtech-report/no120/
- Qiita: 「robots.txtファイルを使用してAIクローラーをブロックする方法」 https://qiita.com/Brutus/items/440d19f185f37352eb75
