ATLA WIRE

OpenAI исправляет уязвимость утечки данных ChatGPT и уязвимость токена GitHub в Codex

31.03.2026
19321
OpenAI исправляет уязвимость утечки данных ChatGPT и уязвимость токена GitHub в Codex
Уязвимости ChatGPT и Codex, исправленные в феврале 2026 года, раскрыли эксфильтрацию данных через DNS и токены GitHub, повышая риски безопасности ИИ для предприятий.

OpenAI только что исправила две опасные дыры в безопасности ИИ — ChatGPT могла утечь ваши данные через DNS

OpenAI только что выпустила исправления для двух критических уязвимостей в ChatGPT и Codex, которые могли позволить злоумышленникам эксфильтрировать данные через DNS-запросы и украсть токены GitHub. Если вы используете ИИ в своей корпоративной инфраструктуре, это ваш сигнал к пробуждению.
Уязвимость ChatGPT, исправленная в феврале 2026 года, была уязвимостью эксфильтрации через DNS. Злоумышленники могли манипулировать ИИ для отправки конфиденциальных данных через DNS-запросы — по сути, используя собственную инфраструктуру системы против неё. Представьте это как цифрового троянского коня, скрывающегося на виду.
Тем временем у Codex была уязвимость токена GitHub, которая могла раскрыть учетные данные аутентификации. Это не просто теория — реальные корпоративные среды могли бы быть скомпрометированы, если бы злоумышленники получили доступ к этим токенам.
Обе уязвимости подчеркивают растущую поверхность атаки по мере интеграции ИИ в бизнес-процессы. Когда ваш ИИ-ассистент потенциально может утечь ваши данные или получить доступ к вашим репозиториям кода, это не просто ошибка — это бизнес-риск.
Article image 1
  • Уязвимость эксфильтрации DNS ChatGPT исправлена в феврале 2026 года
  • Уязвимость токена GitHub Codex также исправлена
  • Обе уязвимости могут привести к краже данных в корпоративных средах
  • Подчеркивает растущие риски безопасности ИИ по мере увеличения внедрения
Время имеет значение — эти исправления были выпущены в феврале 2026 года, но публичное раскрытие только что произошло. Если вы используете старые версии этих ИИ-систем, вы всё ещё можете быть уязвимы. Корпоративные команды безопасности должны убедиться, что их развертывания ИИ обновлены.
Это касается не только OpenAI — это касается всей экосистемы безопасности ИИ. По мере того как всё больше компаний интегрируют ChatGPT, Codex и подобные инструменты в свои операции, уязвимости, подобные этим, становятся путями для реальных атак. Грань между 'крутой функцией ИИ' и 'риском безопасности' только что стала тоньше.
#ChatGPT#OpenAI#безопасность ИИ#патчи безопасности#утечка данных#уязвимости в ИИ-системах#уязвимости ИИ-систем
Есть тема? Пишите ATLA WIRE в Telegram:t.me/atla_community
Banner | ATLA WIRE
ATLA WIRE