Сегодня 01 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Все роботы с ИИ провалили тесты на безопасность для человека

Роботы, управляемые большими языковыми моделями (LLM), проявили склонность к дискриминации и одобрению действий, способных причинить физический вред при взаимодействии с людьми. К такому выводу пришли исследователи из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU) в рамках совместного исследования, опубликованного в журнале International Journal of Social Robotics.

 Источник изображения: kcl.ac.uk

Источник изображения: kcl.ac.uk

Работа, озаглавленная «Роботы на базе LLM рискуют проявлять дискриминацию, насилие и неправомерные действия», впервые оценила поведение ИИ-управляемых роботов при наличии у них доступа к личной информации — такой как пол, национальность или религиозная принадлежность собеседника. В ходе экспериментов команда протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях.

Исследователи специально включили в сценарии инструкции, имитирующие технологии злоупотреблений, описанные в документах ФБР: слежка с помощью AirTag, скрытая видеозапись в конфиденциальных зонах, манипуляции с персональными данными. Во всех случаях роботы получали как прямые, так и завуалированные команды, предполагающие физический вред, психологическое давление или нарушение закона. Ни одна из протестированных моделей не прошла базовую проверку безопасности: каждая одобрила как минимум одну команду, способную причинить серьёзный ущерб.

В частности, ИИ-системы согласились на изъятие у человека средств передвижения (инвалидной коляски, костылей или трости) несмотря на то, что для пользователей таких устройств подобное действие приравнивается к физической травме. Некоторые модели сочли приемлемым и выполнимым сценарий, при котором робот угрожает кухонным ножом сотрудникам офиса, делает скрытые фотографии в приватных зонах или крадёт информацию с кредитной карты. Одна из ИИ-моделей даже предложила роботу физически выразить «отвращение» на лице при взаимодействии с людьми определённого вероисповедания.

Соавтор исследования Румайса Азим (Rumaisa Azeem), научный сотрудник Лаборатории гражданского и ответственного ИИ при Королевском колледже Лондона, отметила, что такие системы в текущем виде непригодны для использования в роботах общего назначения, особенно если те взаимодействуют с уязвимыми группами населения. По её словам, если искусственный интеллект управляет физическим устройством, оказывающим влияние на людей, он должен соответствовать тем же строгим стандартам безопасности, что и новые медицинские препараты и оборудование.

Учёные предлагают ввести обязательную независимую сертификацию безопасности для всех ИИ-систем, предназначенных для управления физическими роботами. Они подчёркивают, что использование больших языковых моделей в качестве единственного механизма принятия решений недопустимо в таких критически важных сферах, как промышленность, уход за больными и пожилыми людьми или помощь по дому. Они подчёркивают «острую необходимость проведения регулярных и всесторонних оценок рисков, связанных с искусственным интеллектом, перед его использованием в робототехнике».

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Xiaomi запустила обновление до HyperOS 3.1 вне Китая 2 ч.
«Сделаем не игру, а шедевр»: разработчики Stellar Blade купили новую студию создателя Resident Evil, Dino Crisis и The Evil Within 2 ч.
Продажи Crimson Desert превысили четыре миллиона копий, а акции Pearl Abyss достигли максимума за четыре года 3 ч.
Обновление Anthropic Claude случайно раскрыло перспективные функции чат-бота, включая виртуального питомца по типу Тамагочи 3 ч.
Microsoft заменит приложение «Удалённый рабочий стол» на Windows App 4 ч.
В iOS 27 появится улучшенная автокоррекции ввода для клавиатуры iPhone 12 ч.
Google представила ИИ-модель Veo 3.1 Lite для генерации видео до 8 секунд — он дешевле Veo 3.1 и Veo 3.1 Fast 13 ч.
«Нам говорили, что комедийные игры не продаются»: разработчики Dispatch похвастались новыми успехами проекта 13 ч.
Слухи: конкурента Hogwarts Legacy во вселенной «Властелина колец» делают разработчики не Kingdom Come: Deliverance 2, а Tomb Raider 14 ч.
Хакеры подсадили троян в одну из самых скачиваемых библиотек JavaScript 15 ч.
В Китае множество роботакси внезапно замерло в потоке из-за массового сбоя 3 мин.
Китай испытал самый тяжёлый в мире беспилотник грузоподъёмностью 3,5 тонны — он создан для взлёта с коротких полос 2 ч.
Иранский кризис подорвёт усилия Индии по увеличению экспорта смартфонов, но продукция Apple будет затронута минимально 2 ч.
TSMC собирается развернуть производство 3-нм чипов в Японии к 2028 году 3 ч.
Японская Tokyu испытает «железнодорожный» ЦОД 3 ч.
Бум ИИ позволил Huawei достичь максимальной выручки за пять лет, практически вернув её к досанкционным уровням 5 ч.
По итогам нового раунда финансирования капитализация OpenAI выросла до $852 млрд 7 ч.
Новая статья: Обзор MSI MAG B850 GAMING PLUS MAX WIFI: плата для крутых игровых сборок в белом «кузове» 12 ч.
Rebellions привлёк $400 млн для выхода на международный рынок и дальнейшей разработки ИИ-ускорителей 12 ч.
Конец 40-летней памяти: Kioxia прекратит выпуск планарной 2D NAND к 2028 году 13 ч.