技術 約11分で読めます

Google DriveのAIランサムウェア検出が正式版になったがファイル常時監視のリスクも考えたい

いけさん目次

Googleが、ベータ版として提供してきたGoogle DriveのAIランサムウェア検出・復元機能を2026年4月に正式版としてリリースした。検知能力はベータ比14倍に向上したとされる。

ランサムウェア対策としては心強い。だがこの機能、裏を返せば「Googleがあなたのファイルを常時AIで監視している」ということでもある。Googleには自動スキャンの誤判定でアカウントごとBANしてきた前科がそこそこあるので、メインの作業環境としてDriveを使っている身としてはちょっと身構えてしまう。

ランサムウェア検出機能の概要

Google DriveのWindows・macOS向けデスクトップアプリに組み込まれる機能。AIモデルがファイルの変化を継続的に監視し、ランサムウェアに特有のパターン(大量ファイルの暗号化、拡張子の一括置換など)を検出すると、即座にクラウドへの同期を停止する。

ローカルのファイルが暗号化されても、同期を止めることでクラウド側はクリーンな状態のままでいられる。検出だけでなく、感染前の任意の時点へのファイル復元機能も提供される。

graph TD
    A[ランサムウェアがローカルファイルを暗号化開始] --> B[AIモデルが異常パターンを検知]
    B --> C[クラウドへの同期を即時停止]
    C --> D[クラウド側のファイルはクリーンなまま]
    D --> E[感染前の時点に復元可能]

提供対象

機能対象
ランサムウェア検出(AI監視・同期停止)Frontline Standard/Plus、Business Standard/Plus、Enterprise Standard/Plus、Education Standard/Plus
ファイル復元全エディション(個人アカウント含む)

検出機能はBusiness Standard以上のプランに限定で、一番安いBusiness Starter(月約$7/ユーザー)では使えない。復元機能は個人ユーザーにも提供される。検出はデスクトップアプリが動いている端末が前提で、モバイルからの感染やAPIを直接叩くケースには適用されない。

14倍向上の中身

公式発表では「ベータ版比で検知能力が14倍向上」とされている。ただし14倍の具体的な内訳(偽陰性率の改善なのか、検出できるランサムウェアファミリーの種類が増えたのか)は詳細が公開されていない。

従来のシグネチャベースのマルウェア検出は、既知のパターンとの照合で動くため新種や亜種への対応が遅れやすかった。AIモデルによる行動ベースの検出は、未知のランサムウェアに対しても「大量ファイルを高速で暗号化している」という動作パターンから異常を検知できる点が強み。

検出方式特徴弱点
シグネチャベース既知マルウェアのハッシュや特徴パターンと照合新種・亜種に対応が遅れる
行動ベース(AI)ファイル操作の異常パターンを学習・検出正常な大量ファイル操作を誤検知する可能性
ハイブリッド両方を組み合わせ複雑になる分、判定ロジックがブラックボックス化

ところで、Googleはファイルを監視している

この機能を歓迎する一方で、「Googleが自分のファイルをAIで常時監視している」という事実は改めて認識しておくべきだろう。ランサムウェア検出のためにファイルの変更パターンを見ているということは、当然ほかの目的でもファイルの中身を見る技術的基盤がある。

実際、Googleは2021年12月にGoogle Drive内のファイルを自動スキャンしてポリシー違反コンテンツを検出する仕組みを公式に導入している。対象はCSAM(児童性的虐待コンテンツ)、マルウェア、フィッシング、著作権侵害など。

スキャンの仕組み

graph TD
    A[ファイルがDriveにアップロード/同期] --> B[ハッシュマッチング]
    B --> C{既知の違反コンテンツと一致?}
    C -- Yes --> D[即座に危険判定]
    C -- No --> E[AIモデルによる分析]
    E --> F{違反パターンを検出?}
    F -- Yes --> D
    F -- No --> G[問題なし]
    D --> H[人間のレビュアーが確認]
    H --> I{違反と判定?}
    I -- Yes --> J[アカウント停止・NCMECへ報告]
    I -- No --> G
ステップ内容
ハッシュマッチング画像をNCMEC(全米行方不明・被搾取児童センター)が管理するCSAMデータベースの知覚ハッシュと照合
AIモデルハッシュに一致しない新規コンテンツも、類似パターンがあれば危険判定
人間レビュー危険判定されたコンテンツをGoogleの従業員が確認
法的義務CSAMを検出した場合、GoogleはNCMECへの報告が法律で義務付けられている

問題は、このパイプラインの精度が完璧ではないこと、そしてGoogleの判定に対するユーザーの異議申し立て手段がきわめて限られていることだ。

誤BANの実例

医療写真でアカウント永久停止(2021年)

2021年2月、サンフランシスコのソフトウェアエンジニア「Mark」が、幼児の患部の腫れを小児科医に見せるために写真を撮影した。遠隔診療で医師に送るため、妻がMarkのAndroidスマホで撮ったものだ。

写真はGoogle Photosに自動バックアップされ、Googleの自動CSAM検出システムがこれを検出。2日後にアカウントが無効化され、「有害なコンテンツ」「重大なポリシー違反であり、違法の可能性がある」と通知された。GoogleはNCMECに報告し、サンフランシスコ市警が捜査したが「犯罪なし」と結論。

しかし警察が無罪と判断したあとも、Googleはアカウントの復旧を拒否した。 Markは以下をすべて失った。

  • Gmail(長年のメール履歴)
  • Google Photos(家族写真すべて)
  • Google Drive(仕事のファイル)
  • Google Fiの電話番号
  • 他サービスの二要素認証アクセス

New York Timesが取材してGoogleに問い合わせた後も、Googleは復旧を拒否し続けた。同時期にテキサス州のCassioという父親もほぼ同じ状況でアカウントを永久停止されている。

共有フォルダに第三者が違反画像を投入、YouTuberのチャンネルが消えた(2023年)

日本でも事例がある。イラストレーターのさいとうなおき氏(YouTube登録者100万人超)は、視聴者からイラストを募集するために共有Google Driveフォルダを使っていた。第三者がそのフォルダに問題のある画像をアップロードしたとみられ、Googleの自動検出がこれを検出。結果、YouTubeチャンネル削除・Gmail停止・Google Driveロックと、アカウント全体が停止された。

自分がアップロードしたファイルではなく、共有フォルダに他人が入れたファイルでBANされる という点が怖い。

AI開発者がデータセットでBAN(2025年末)

アプリ開発者のMark Russoは、NSFW検出アプリの開発中に公開AIデータセット「NudeNet」をGoogle Driveにアップロードした。GitHub上で公開され学術論文でも引用されているデータセットだが、中にCSAMが含まれていた(本人は知らなかった)。

Googleはアカウントを即座に停止。14年分のアカウントデータ、Firebase、AdMob収益へのアクセスを失い、13万件以上のファイルが削除された。404 Mediaが報道した後、Googleは「悪意のないアップロード」と認めてアカウントを復旧したが、削除された13万件のファイルは戻らなかった。

数字1文字のファイルが著作権侵害判定(2022年)

ミシガン州立大学のEmily Dolson助教授のケースはさらに不条理だ。Google Driveにアップロードしたoutput04.txtというファイルが著作権侵害と判定された。ファイルの中身は数字の「1」だけ。

セントアンドリュース大学のChris Jefferson氏が再現実験を行い、2,000以上のファイルをアップロードしたところ、「173」「174」「451」など特定の数字だけを含むファイルが著作権侵害と判定された。共有が不可能になり、異議申し立てもできなかった。

Google Docsのコード不具合で大量ロックアウト(2017年)

2017年10月、Googleのコードプッシュのバグにより、Google Docsの一定割合が「不正なコンテンツ」として誤検出された。ファイル所有者は共有できなくなり、共同編集者はアクセスを失った。ジャーナリストの取材原稿なども影響を受けている。

誤BANの共通パターン

これらの事例に共通するのは以下のパターンだ。

問題詳細
単一障害点1つのGoogleアカウントがBANされると、Gmail・Drive・Photos・YouTube・Calendar・連絡先・2FAすべてが同時に使えなくなる
人間レビューも失敗するMarkのケースでは、人間のレビュアーも医療写真を虐待と判定した
異議申し立てが貧弱1〜2回のアピールで終了。結果は最終決定で、具体的な説明もない
BAN後のデータエクスポート不可アカウント停止後はデータを取り出す手段がない
法的救済も困難Baker v. Google(2024年7月)で裁判所はGoogleのアカウント停止権限を認めている
メディア報道だけが有効な異議申し立て複数のケースで、報道機関が取材して初めて復旧された

2025年10月のポリシー拡大

2025年10月、Googleは児童保護ポリシーの名称を「CSAI」(Child Sexual Abuse Imagery)から「CSAE」(Child Sexual Abuse and Exploitation)に変更し、対象範囲をグルーミング(未成年への手なずけ・接近行為)やセクストーション(性的画像を使った脅迫)にも拡大した。

重要なのは、違反が検出された場合は7日間の猶予期間なしで即座にアカウントが停止される ようになった点。これは正当な措置だが、誤検知の場合のダメージも即座に発生する。

ランサムウェア検出機能との関係

今回のランサムウェア検出機能は、上記のコンテンツスキャンとは目的も仕組みも異なる。ファイルの「中身」ではなく「変更パターン」を監視する行動ベースの検出だ。

ただし、Googleがファイルを監視するインフラをさらに拡充しているという点では同じ延長線上にある。「ランサムウェアを検出するためにファイルの変更を常時監視している」基盤は、Googleがその気になれば別の目的にも転用できる。

Googleのプライバシーポリシーは、違法コンテンツの検出やサービスの保護のためにユーザーデータを分析する権限をGoogleに与えている。ユーザーがこれにオプトアウトする手段は、事実上「Googleを使わない」以外にない。

WorkspaceのAI機能と料金の階層化

ランサムウェア検出がBusiness Starterで使えない件は、GoogleがWorkspace全体で進めているAI機能の階層化の一端でもある。

2025年1月、Googleはそれまで月額$20〜30/ユーザーの有料アドオンだったGemini(旧Duet AI)を全Business/Enterpriseプランに標準搭載した。その代わり全プランが17〜22%値上げされている。「AI標準搭載」と言えば聞こえはいいが、使えるGemini機能はプランによって違う。

プランGemini機能ランサムウェア検出月額目安
Business Starter限定的(Gmailサイドパネル程度)非対応約$7
Business StandardDocs・Sheets・Slides・Meetでフル対応対応約$14
Business PlusStandard+強化セキュリティ対応約$22

さらに2026年3月からは「AI Expanded Access」「AI Ultra Access」という有料アドオンが追加された。Gemini 3 Proへのアクセス、Veo 3.1による動画生成、Meetの音声翻訳などが含まれる。基本機能は標準搭載だが、高度な機能は追加課金という構造。

Google Flow

Googleは2026年2月にFlowというAI映像制作ツールも発表している。DeepMindが開発したブラウザベースの映像制作環境で、Veo(動画生成)、Imagen(画像生成)、Geminiを統合し、自然言語プロンプトでAI動画を生成・編集できる。

利用には個人向けのGoogle AI Pro(月$19.99)またはAI Ultra(月$249.99)が必要。Workspace向けにもAI Expanded/Ultra Accessアドオン経由でクレジットが付与される場合がある。なおWorkspace内の「Workspace Studio」(ノーコード自動化ツール)でも「フロー」という用語が使われているが、こちらはワークフロー自動化の意味で別物。

AI機能で上位プランへ誘導する構造

ランサムウェア検出もGeminiもFlowも、GoogleのAI戦略の一環。だが機能ごとに対象プランが異なり、アドオンも重層化している。

カテゴリ必要なプラン/アドオン
基本AI(Gemini基本機能)全Business/Enterprise(値上げ込み)
高度AI(Gemini 3 Pro、動画生成等)AI Expanded/Ultra Accessアドオン
セキュリティAI(ランサムウェア検出等)Business Standard以上
AI映像制作(Flow)Google AI Pro/Ultra、またはWorkspaceアドオン

Business Starterで十分だったユーザーが「ランサムウェア検出のためにStandardへアップグレード→Geminiもフルで使いたいからアドオン追加」と考えると、月額が倍以上に跳ね上がる。AI機能を餌に上位プランへ誘導する構造と言われても仕方ない。

Google Driveをメインストレージにする場合のリスク軽減策

Googleのエコシステムを完全に避けるのは現実的ではない。だが「全部Google」のリスクは上記の通り明確なので、以下のような対策は検討に値する。

対策内容
3-2-1バックアップルール重要なデータは3つのコピーを、2種類のメディアに、1つはオフサイトに保管。Google Driveだけに依存しない
Google Takeoutで定期エクスポート定期的にデータをエクスポートしておく。BANされた後では使えない
認証の分散二要素認証のリカバリー手段をGoogleアカウント以外にも確保しておく。Google Authenticatorだけに頼らない
メールの分散重要な連絡先やサービスのメールアドレスをGmail一本に集中させない
共有フォルダの管理不特定多数がアップロードできる共有フォルダは、自分のメインアカウントでは作らない。さいとうなおき氏の事例を忘れない

Google一強から抜け出そうとする動きは前からある。NASに戻る人、Nextcloud自鯖する人、Protonに移行する人。ただどれもGoogleほど全部入りで楽じゃないから、試して戻ってくるパターンをよく見る。

国内にDriveレベルのストレージサービスがあれば乗り換えるのにな、とは常々思っている。データが国内にあって、サポートが日本語で通じて、誤BANされても日本の法律で争える。それだけでハードルがだいぶ下がるんだけど、現状そんなサービスはない。結局Googleに依存しつつバックアップだけ別に取る、という微妙な運用を続けるしかない。