表紙記事:AIはSF的な危機ではなく、従来の脅威を加速させている
2025年10月、世界をリードするAI企業であるOpenAIは、警戒すべき脅威レポートを発表しました。この報告書は、2024年2月に公開脅威報告の仕組みを開始して以来、ChatGPTなどの自社モデルを悪用していた40以上のネットワークを特定し、無力化(disrupt)したことを明らかにしています。
このレポートの核となるメッセージは次のとおりです。AIはまだSF小説に出てくるような全く新しい攻撃能力を生み出してはいませんが、驚異的なスピードと規模で、従来のサイバー犯罪、詐欺、地政学的な強制を加速させています。
「脅威アクターは、AIを古い手口に**『ボルトオン(付加)』**して、活動のスピードを上げているに過ぎない」とOpenAIの最高経営責任者(CEO)は声明で述べています。これは、防御側の反応時間が大幅に圧縮され、攻撃を仕掛けるための敷居とコストが著しく低下していることを意味します。
国家レベルの強制:SNS監視から情報戦へのAI兵器化
レポートの中で最も大胆かつセンシティブな部分は、国家レベルの悪意ある行動に焦点を当てている点であり、これはOpenAIの「国家安全保障ポリシー」に対する重大な違反を含んでいます。
🚨 中国:社会的監視と情報収集を目的とした利用
OpenAIは、中国に関連する複数のエンティティ(政府機関または情報機関と疑われるアカウントを含む)が、ChatGPTに対して極めて機密性の高い要求を行っていたことを明らかにしました。
• ソーシャルメディア監視システム: モデルに対し、X、Facebook、TikTokなどのプラットフォーム上の政治的反対意見、過激な発言、宗教的なコンテンツをスキャンするための大規模な「ソーシャルメディア・リスニング」ツールの設計提案やアーキテクチャを提供するよう要求していました。
• サイバースパイ活動: これらのアカウントは、AIを利用してマルウェアの構成要素(遠隔操作型トロイの木馬 RATなど)を洗練させたり、フィッシング攻撃のコンテンツを最適化したりしていることも判明しており、その活動パターンは既知の中国の情報ニーズと一致しています。
これらの行動は、権威主義的な政権が汎用AIを利用して、デジタル監視能力を新たなレベルに押し上げようとしていることを露呈しています。
🇷🇺 ロシア:AIを利用した「ディープフェイク」プロパガンダの製造
レポートは、ロシア起源と疑われる脅威アクターについても名指ししています。これらのエンティティは、ChatGPTを使用して動画のスクリプトやプロンプトを生成し、これを他のモデルと組み合わせてディープフェイク動画や偽ニュース調のプロパガンダコンテンツを作成し、ソーシャルメディアを通じて拡散する**秘密裡の影響力操作(IO)**を行っていたことが判明しました。これは、AIの情報戦における役割が、単なるテキスト生成からマルチメディアコンテンツの大量生産へと進化していることを示しています。
国際的な詐欺:AIが犯罪組織の「効率化ツール」に
地政学的な脅威に加え、大規模な組織的詐欺やサイバー犯罪も、AI悪用の主要な分野となっています。
報告書には、AIを犯罪の「パイプライン」に組み込んでいる複数の国際的な詐欺グループが挙げられています。
1. 東南アジアの詐欺拠点: カンボジア、ミャンマーを起源とする犯罪ネットワークや、ナイジェリアからの詐欺グループが、AI悪用の主要な担い手でした。彼らはAIを利用して多言語翻訳、ソーシャルメディア偽アカウントのコンテンツの大量生成、虚偽の投資家プロフィールの作成、さらにはプロフェッショナルに見える企業ウェブサイトや求人広告の作成を行っていました。
2. 検知回避の試み: これらの巧妙な犯罪者は、AI生成テキストが検知される可能性があることを認識しており、モデルに対してAIテキストのマーカー(特定のダッシュ記号など)を削除するよう指示し、出所を曖昧にして詐欺の信憑性を高めようとしていました。
OpenAIのデータは、詐欺グループがAIのスピードと低コストという利点を活用し、かつてない規模と効率で世界的な金融詐欺を実行していることを示しています。
結論と課題:「民主的AI」の責任の境界線
OpenAIは報告書の中で、「民主的AI」を構築し、「常識的なルール」に基づいて人類を保護するという使命を改めて強調しました。しかし、この報告書自体が、同社のグローバル・ガバナンス能力に関する深い議論を巻き起こしています。
• 「常識」は誰が定義するのか? OpenAIが中国政府関連のアカウントを停止する際、それは実質的に世界的な倫理的・政治的な規制権限を行使していることになります。そのポリシー策定における透明性と説明責任は、国際社会から継続的に精査されるでしょう。
• AGI時代の防御: 現在の脅威は、依然として古い問題の「加速器」に過ぎません。**汎用人工知能(AGI)が本当に成熟した場合、報告書が懸念するように「斬新な攻撃能力」**が生み出されるのでしょうか?これは、すべてのAI巨大企業が継続的に準備し、答えを出し続けなければならない究極の課題です。
この報告書は、AIセキュリティ分野における一つのマイルストーンであり、AI悪用の最前線を明確に描き出しています。その戦線とは、一方は効率を追求するサイバー犯罪者であり、もう一方はAIを兵器化して国益を実現しようとする強権的な勢力です。
(本記事は、OpenAIが2025年10月に発表したレポート『Disrupting malicious uses of AI』および関連報道に基づいて作成されています。)
