Главная История: ИИ Ускоряет Старые Угрозы, Не Создавая Фантастических Кризисов
В октябре 2025 года ведущая мировая компания в сфере ИИ, OpenAI, опубликовала тревожный отчет об угрозах. В нем указывается, что с момента запуска механизма публичного оповещения об угрозах в феврале 2024 года, компания успешно нейтрализовала и сообщила о более чем 40 сетях, злонамеренно использующих ее модели, такие как ChatGPT.
Центральное сообщение отчета таково: ИИ пока не создал совершенно новых наступательных возможностей, как в научной фантастике, но он с поразительной скоростью и масштабом ускоряет существующую киберпреступность, мошенничество и геополитическое принуждение.
«Акторы угроз просто ‘насаживают ИИ’ на старые методы, чтобы двигаться быстрее», — заявил генеральный директор OpenAI. Это ускорение означает, что время реакции оборонительной стороны критически сжимается, в то время как порог и стоимость запуска атак значительно снижаются.
Принуждение на Государственном Уровне: Вооружение ИИ — От Слежки в Соцсетях до Информационной Войны
Самая смелая и чувствительная часть отчета указывает на злонамеренные действия на государственном уровне, что является серьезным нарушением «Политики национальной безопасности» OpenAI.
🚨 Китай: Фокус на Социальном Надзоре и Сборе Разведывательной Информации
OpenAI обнаружила, что несколько учетных записей, связанных с субъектами, имеющими отношение к Китаю (включая предполагаемые государственные или разведывательные структуры), делали чрезвычайно чувствительные запросы к ChatGPT:
• Системы Мониторинга Социальных Сетей: Требовали от модели предоставить предложения или архитектуры для разработки крупномасштабных инструментов «прослушивания социальных сетей». Эти системы предназначались для сканирования таких платформ, как X, Facebook и TikTok, на предмет политического инакомыслия, экстремистских высказываний и религиозного контента.
• Кибершпионаж: Также было обнаружено, что эти учетные записи использовали ИИ для усовершенствования компонентов вредоносного ПО (таких как трояны удаленного доступа RAT) и оптимизации контента для фишинговых кампаний, причем их деятельность соответствовала известным китайским разведывательным нуждам.
Эти действия показывают, как авторитарные режимы пытаются использовать общий ИИ для выведения возможностей цифрового надзора на новый уровень.
🇷🇺 Россия: Использование ИИ для Создания Пропаганды в Стиле «Дипфейк»
В отчете также были упомянуты акторы угроз предполагаемого российского происхождения. Было обнаружено, что эти субъекты использовали ChatGPT для генерации видео-сценариев или подсказок, которые, по-видимому, предназначались для использования с другими моделями. Целью было создание «дипфейк» (Deepfake) видео и пропагандистского контента в стиле ложных новостей, который затем распространялся в социальных сетях в рамках Скрытых Операций Влияния (IO). Это демонстрирует, что роль ИИ в информационной войне эволюционировала от простого текстового генератора до массового производителя мультимедийного контента.
Транснациональное Мошенничество: ИИ как «Инструмент Эффективности» для Преступных Групп
Помимо геополитических угроз, организованное мошенничество в крупных масштабах и киберпреступность остаются горячей зоной злоупотребления ИИ.
В отчете перечислены несколько транснациональных преступных синдикатов, которые интегрировали ИИ в свой криминальный «конвейер»:
1. Центры Мошенничества в Юго-Восточной Азии: Криминальные сети, происходящие из Камбоджи и Мьянмы, а также группы мошенников из Нигерии, были основными участниками злоупотребления ИИ. Они использовали ИИ для многоязычного перевода, массовой генерации контента для поддельных учетных записей в социальных сетях, создания ложных инвестиционных профилей и даже для построения профессионально выглядящих веб-сайтов компаний и объявлений о вакансиях.
2. Уклонение от Обнаружения: Эти опытные преступники, осознавая, что текст, сгенерированный ИИ, может быть обнаружен, инструктировали модели удалять маркеры (например, определенные тире) из выходного контента, пытаясь скрыть его происхождение и повысить правдоподобность мошенничества.
Данные OpenAI показывают, что мошеннические группы используют скорость и низкую стоимость ИИ для осуществления финансовых махинаций по всему миру с беспрецедентным размахом и эффективностью.
Вывод и Вызовы: Границы Ответственности «Демократического ИИ»
В отчете OpenAI вновь подчеркнула свою миссию: построение «Демократического ИИ», основанного на «правилах здравого смысла», для защиты человечества. Однако сам отчет вызывает более глубокую дискуссию о способности компании к глобальному управлению:
• Кто Определяет «Здравый Смысл»? Запрещая учетные записи, связанные с правительством Китая, OpenAI фактически осуществляет своего рода глобальную этическую и политическую регулятивную власть. Прозрачность и подотчетность в разработке ее политик будут находиться под постоянным международным контролем.
• Защита в Эпоху AGI: Нынешние угрозы — это всего лишь «ускорители» старых проблем. Если Общий Искусственный Интеллект (AGI) действительно созреет, приведет ли это, как неявно опасается отчет, к появлению «новых наступательных возможностей»? Это конечный вызов, к которому все гиганты ИИ должны непрерывно готовиться и на который должны отвечать.
Этот отчет является важной вехой в области безопасности ИИ, четко обозначающей текущие линии фронта злоупотребления ИИ: с одной стороны, киберпреступники, нацеленные на эффективность, а с другой — могущественные субъекты, пытающиеся вооружить ИИ в интересах государства.
(Этот отчет составлен на основе публикации OpenAI «Disrupting malicious uses of AI» от октября 2025 года и связанных с ней сообщений в СМИ.)
