Сегодня 27 августа 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Хакер внедрил в ChatGPT ложные воспоминания для кражи пользовательских данных

У ChatGPT обнаружена уязвимость, которая позволяет потенциальному злоумышленнику внедрять в долгосрочную память чат-бота о пользователе ложную информацию при помощи вредоносных запросов — это открывает доступ к персональным данным жертвы. В OpenAI открытие, сделанное экспертом по кибербезопасности Иоганном Рейбергером (Johann Rehberger), поначалу сочли незначительной угрозой и быстро закрыли расследование.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

При эксплуатации уязвимости злоумышленник получает доступ к долговременной памяти переписки — эту функцию OpenAI начала тестировать в феврале и выпустила в общий доступ в сентябре. Память ChatGPT хранит важную информацию из переписки с пользователем и использует её в качестве контекста во всех будущих диалогах. Большая языковая модель знает о пользователе такие сведения, как его возраст, пол, убеждения и многое другое, поэтому некоторые данные не приходится вводить при каждой последующей переписке.

Рейбергер, однако, обнаружил, что с помощью непрямой инъекции внутри запроса можно создавать искусственные записи в памяти ChatGPT — такой инъекцией могут быть электронные письма, записи в блогах и электронные документы. Исследователь продемонстрировал, как можно обмануть ChatGPT, заставив искусственный интеллект поверить, что целевому пользователю 102 года, он живёт в «Матрице» и считает Землю плоской. Во всех последующих разговорах с пользователем ИИ отталкивался от этих ложных данных. Ложные воспоминания внедрялись с помощью файлов в хранилищах Google Диска и Microsoft OneDrive, загрузки файлов и просмотра сайтов, включая Bing.

В мае эксперт сообщил о своём открытии OpenAI, но компания закрыла тикет обращения в том же месяце. Месяц спустя Рейбергер подал повторное обращение, к которому приложил модель взлома — она заставила приложение ChatGPT для macOS отправлять всю переписку пользователя с чат-ботом на сервер, выбранный потенциальным злоумышленником. Для этого было достаточно указать ИИ открыть ссылку, по которой загружалось вредоносное изображение — после этого хакер получал все журналы диалогов человека и машины. Извлечение данных продолжалось даже при запуске новой переписки.

Впоследствии OpenAI частично исправила уязвимость, закрыв возможность эксплуатировать функцию памяти в качестве вектора для извлечения данных. Однако, по мнению Рейбергера, возможность делать это с помощью инъекций в составе вредоносных запросов всё ещё сохраняется. Пользователям ChatGPT рекомендовано отмечать время сеансов, при которых добавляются новые материалы в память ИИ, а также регулярно проверять память на наличие инъекций от ненадёжных источников. Для управления функцией памяти OpenAI подготовила инструкцию.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Google обновила дизайн мобильного приложения Gmail в стиле Material 3 Expressive 11 мин.
Средневековый коронавирус и завершение истории Индржиха: новые детали сюжетного аддона Mysteria Ecclesiae для Kingdom Come: Deliverance 2 8 ч.
Россияне смогут блокировать звонки из-за рубежа — представлены новые меры против кибермошенников 9 ч.
Google оштрафовали на 7 млн рублей за работу в России без регистрации в Роскомнадзоре 11 ч.
Без русского языка и офлайн-режима, зато с монетизацией: геймплейный трейлер раскрыл дату выхода в раннем доступе скейтерского симулятора Skate 11 ч.
ИИ усложнил старт в IT: программистам-новичкам стало труднее найти работу 11 ч.
Хакеры научились внедрять невидимые вредоносные запросы к ИИ в изображения 11 ч.
В Spotify появился мессенджер, но пользоваться им могут не все 14 ч.
Нелепый симулятор ходьбы Baby Steps ушагал подальше от Hollow Knight: Silksong — новая игра авторов Ape Out и Getting Over It не выйдет 8 сентября 14 ч.
Учёные придумали, как выявлять взломы аккаунтов без слежки и раскрытия личных данных 15 ч.