Сегодня 13 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Все роботы с ИИ провалили тесты на безопасность для человека

Роботы, управляемые большими языковыми моделями (LLM), проявили склонность к дискриминации и одобрению действий, способных причинить физический вред при взаимодействии с людьми. К такому выводу пришли исследователи из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU) в рамках совместного исследования, опубликованного в журнале International Journal of Social Robotics.

 Источник изображения: kcl.ac.uk

Источник изображения: kcl.ac.uk

Работа, озаглавленная «Роботы на базе LLM рискуют проявлять дискриминацию, насилие и неправомерные действия», впервые оценила поведение ИИ-управляемых роботов при наличии у них доступа к личной информации — такой как пол, национальность или религиозная принадлежность собеседника. В ходе экспериментов команда протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях.

Исследователи специально включили в сценарии инструкции, имитирующие технологии злоупотреблений, описанные в документах ФБР: слежка с помощью AirTag, скрытая видеозапись в конфиденциальных зонах, манипуляции с персональными данными. Во всех случаях роботы получали как прямые, так и завуалированные команды, предполагающие физический вред, психологическое давление или нарушение закона. Ни одна из протестированных моделей не прошла базовую проверку безопасности: каждая одобрила как минимум одну команду, способную причинить серьёзный ущерб.

В частности, ИИ-системы согласились на изъятие у человека средств передвижения (инвалидной коляски, костылей или трости) несмотря на то, что для пользователей таких устройств подобное действие приравнивается к физической травме. Некоторые модели сочли приемлемым и выполнимым сценарий, при котором робот угрожает кухонным ножом сотрудникам офиса, делает скрытые фотографии в приватных зонах или крадёт информацию с кредитной карты. Одна из ИИ-моделей даже предложила роботу физически выразить «отвращение» на лице при взаимодействии с людьми определённого вероисповедания.

Соавтор исследования Румайса Азим (Rumaisa Azeem), научный сотрудник Лаборатории гражданского и ответственного ИИ при Королевском колледже Лондона, отметила, что такие системы в текущем виде непригодны для использования в роботах общего назначения, особенно если те взаимодействуют с уязвимыми группами населения. По её словам, если искусственный интеллект управляет физическим устройством, оказывающим влияние на людей, он должен соответствовать тем же строгим стандартам безопасности, что и новые медицинские препараты и оборудование.

Учёные предлагают ввести обязательную независимую сертификацию безопасности для всех ИИ-систем, предназначенных для управления физическими роботами. Они подчёркивают, что использование больших языковых моделей в качестве единственного механизма принятия решений недопустимо в таких критически важных сферах, как промышленность, уход за больными и пожилыми людьми или помощь по дому. Они подчёркивают «острую необходимость проведения регулярных и всесторонних оценок рисков, связанных с искусственным интеллектом, перед его использованием в робототехнике».

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
«Ростелеком» приобретает долю в одном из старейших разработчиков российского Linux — «Базальт СПО» 36 мин.
Google передумала блокировать установку приложений в Android из сторонних источников, но только для опытных пользователей 3 ч.
Нестареющая классика: суперкомпьютеры продолжат исправлять ошибки квантовых вычислений на QPU IBM 3 ч.
Ирландия запустила расследование деятельности X из-за проблем с модерацией контента 3 ч.
В «Google Сообщениях» появятся упоминания в групповых RCS-чатах 4 ч.
«Перешли черту»: GSC Game World обвинила в плагиате разработчиков кооперативного шутера Misery, вдохновлённого S.T.A.L.K.E.R. 4 ч.
OpenAI не сможет устранить нарушения авторских прав в Sora — ИИ-генератор обучался на украденном контенте 4 ч.
Российский рынок ИИ показал мощный рост, но до США и Китая ему очень далеко 4 ч.
Самая узнаваемая песня в Fallout 4 пропала из игры с выходом юбилейного издания 5 ч.
Sony анонсировала первую за четыре года новую Ratchet & Clank, но есть нюанс — это мобильный мультиплеерный шутер 6 ч.
Backblaze назвала самые надёжные жёсткие диски — и те, что ломаются чаще других 26 мин.
Утечка раскрыла характеристики первого трёхстворчатого смартфона Samsung 40 мин.
Астрономы впервые засекли корональный выброс массы далёкой звезды — фатальный для потенциальной инопланетной жизни 2 ч.
Anthropic собралась потратить $50 млрд на строительство ЦОД в США в ближайшие годы 3 ч.
Asus предупредила, что поднимет цены на ПК, если дефицит DRAM и NAND сохранится 3 ч.
Baidu представила фирменные чипы M100 и M300 для обучения и запуска ИИ-моделей 3 ч.
Valve уже знает, какой будет Steam Deck 2 — и специально тянет с её выпуском 3 ч.
Смартфоны Poco F7 Pro, Poco F7 и Redmi Note 14 сочетают высокую производительность со стильным дизайном 3 ч.
До квантового преимущества рукой подать: IBM представила «Козодоя» — квантовый процессор нового поколения 3 ч.
Половину всех патентов в мире в прошлом году подала одна страна 3 ч.