Сегодня 30 июля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Поумневшие ИИ-модели OpenAI o3 и o4-mini проявили повышенную склонность к галлюцинациям

На этой неделе OpenAI выпустила модели искусственного интеллекта o3 и o4-mini. Они стали передовыми во многих отношениях, однако чаще галлюцинируют — то есть с уверенностью дают не соответствующие действительности ответы — по сравнению со своими предшественниками.

 Источник изображений: Mariia Shalabaieva / unsplash.com

Источник изображений: Mariia Shalabaieva / unsplash.com

Проблема галлюцинаций остаётся одной из крупнейших и наиболее сложных в современной отрасли ИИ — она затрагивает даже самые эффективные современные системы. Исторически каждая последующая модель демонстрировала улучшения в этом аспекте, то есть снижение количества галлюцинаций по сравнению с предыдущими версиями. Однако к o3 и o4-mini это, по-видимому, не относится. Новые системы от OpenAI галлюцинируют чаще, чем предыдущие рассуждающие модели компании, включая o1, o1-mini и o3-mini, а также традиционные «нерассуждающие», такие как GPT-4o, — гласят собственные тесты разработчика.

Некоторую тревогу вызывает то, что и сама компания не знает, почему так происходит. В техническом отчёте (PDF) она указывает, что «необходимы дополнительные исследования», чтобы понять, почему частота галлюцинаций увеличивается по мере масштабирования рассуждающих моделей. OpenAI o3 и o4-mini лучше предшественников справляются с рядом задач, в том числе в области математики и программирования, однако, поскольку «в целом они делают больше заявлений», они также чаще делают как «более точные заявления», так и «более неточные или галлюцинаторные», — говорится в отчёте разработчика.

 Источник изображений: Mariia Shalabaieva / unsplash.com

В собственном тесте OpenAI PersonQA, предназначенном для оценки знаний моделей о людях, o3 допускала галлюцинации в 33 % случаев, что примерно вдвое превышает частоту аналогичных ошибок у предыдущих рассуждающих моделей o1 и o3-mini (16 % и 14,8 % соответственно). Модель o4-mini в том же тесте галлюцинировала в 48 % случаев. Сторонний тест Transluce, проведённый независимым разработчиком, показал, что o3 имеет склонность выдумывать действия, которые она якобы предпринимала при подготовке ответов. В одном из случаев она утверждала, что запускала программный код на Apple MacBook Pro 2021 года «вне ChatGPT» и копировала числа в свой ответ. При этом у o3 действительно есть доступ к некоторым инструментам, но выполнить такое действие она не могла.

Согласно одной из версий, проблема с галлюцинациями, частота которых ранее снижалась при подключении стандартных средств после основного этапа обучения, могла, напротив, усугубиться из-за применения использованного для моделей серии «o» типа обучения с подкреплением. В результате модель OpenAI o3 может оказаться недостаточно полезной на практике, считают эксперты. Также было обнаружено, что в задачах, связанных с программированием, она значительно превосходит другие модели, но иногда дополняет код неработающими ссылками на веб-сайты.

Одним из многообещающих подходов к снижению числа галлюцинаций является открытие функций веб-поиска для моделей. Так, GPT-4o удалось добиться 90 % правильных ответов в эталонном тесте OpenAI SimpleQA. Возможно, это решение окажется эффективным и для рассуждающих моделей. «Устранение галлюцинаций во всех наших моделях — актуальная область исследований, и мы постоянно работаем над повышением их точности и надёжности», — заявили в OpenAI ресурсу TechCrunch.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Photoshop сделал редактирование объектов и людей на фото удивительно простым 8 мин.
Google согласилась подписать европейский свод правил в сфере разработки ИИ 2 ч.
Италия запустила проверку Meta из-за внедрения ИИ-чат-бота в WhatsApp 3 ч.
Meta разрешит программистам пользоваться ИИ на собеседованиях 3 ч.
«Яндекс» раскрыл алгоритм распознавания голосовых команд в шумных условиях 4 ч.
FromSoftware отложила горячо ожидаемое обновление для Elden Ring Nightreign из-за сильнейшего землетрясения на Камчатке 4 ч.
Microsoft прекратила предоставлять облачные услуги связанной с «Роснефтью» индийской Nayara Energy 5 ч.
YouTube разрешил блогерам материться — у видео со сквернословием не будут ограничивать монетизацию 5 ч.
Electronic Art готовит «самую захватывающую» линейку игр в своей истории — Battlefield 6 не будет стоить $80 6 ч.
Meta переманила из Apple уже четвёртого крупного специалиста в сфере ИИ за месяц 6 ч.
В ноябре в Москве пройдёт «Электроника России» 2025 — выставка-форум передовых отечественных технологий 16 мин.
YTL Power и NVIDIA инвестируют $2,3 млрд в ИИ в Малайзии — но связано ли это с предыдущей сделкой на $4,3 млрд? 27 мин.
Пентагон заказал разработку аналоговых «мозгов» для дронов и систем автопилота 2 ч.
Groq намерен привлечь $600 млн финансирования — в случае успеха это удвоит капитализацию бизнеса 2 ч.
Представлен китайский серверный процессор Zhaoxin KH-50000: до 96 ядер, 12 каналов DDR5 и 128 линий PCIe 5.0 3 ч.
Micron представила SSD на 122 Тбайт и 14 000 Мбайт/с — следующая модель будет в два раза ёмче 3 ч.
Австралия впервые запустила свою космическую ракету — полёт продлился всего 14 секунд и завершился взрывом 3 ч.
Неожиданный эффект ИИ-бума: прибыль аккумуляторного бизнеса Panasonic взлетела на 47 % 4 ч.
Futurehome вынудила пользователей платить за базовые функции своих устройств умного дома 4 ч.
Цены на DDR4 стабилизировались, а флеш-память NAND приготовилась дорожать 5 ч.