Сегодня 27 апреля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Microsoft защитила клиентские ИИ-приложения от галлюцинаций

Корпорация Microsoft разработала насколько новых средств безопасности приложений на основе искусственного интеллекта — эти инструменты адресованы клиентам, которые не имеют возможности самостоятельно проводить стресс-тесты своих продуктов.

 Источник изображения: azure.microsoft.com

Источник изображения: azure.microsoft.com

Средства безопасности, сами основанные на большой языковой модели, обнаруживают галлюцинации ИИ-приложений, то есть выдаваемую ими правдоподобную, но не соответствующую действительности информацию, и в реальном времени блокируют потенциально опасные пользовательские запросы. Это поможет избежать нежелательных дискуссий о генеративном ИИ, порождённых различными инцидентами: дипфейками со знаменитостями, попытками фальсификации истории и созданием прочих недопустимых материалов.

На начальном этапе средства безопасности включают три основные функции. Prompt Shields («защита запросов») блокирует потенциально опасные подсказки, которые провоцируют ИИ нарушать заданные правила. Groundedness Detection («оценка связи с действительностью») обнаруживает и блокирует галлюцинации. И, наконец, это обнаружение защищённых материалов — тех, на которые распространяется авторское право. Скоро к набору добавятся инструменты, направляющие ИИ давать безопасные ответы и отслеживающие потенциально проблемных пользователей. Средства защиты призваны оценивать безопасность и запросов к ИИ, и ответов на них.

В ходе недавнего инцидента генератор изображений Google Gemini сам пострадал от фильтров, направленных на расширение расовой инклюзивности — в Microsoft решили подстраховаться от подобных происшествий, применив метод индивидуального контроля. С другой стороны, компания не хочет брать на себя роль диктатора и голоса истины в последней инстанции в области морального облика ИИ, поэтому клиенты Azure могут отключать предлагаемые ей фильтры.

В перспективе система предложит клиентам Azure отчёты о пользователях, которые пытаются провоцировать ИИ на недопустимые ответы — это поможет администраторам ресурсов выяснять, какие из этих запросов отправлялись в рамках тестирования, а какие исходили от людей с вероятными недобрыми намерениями. Средства безопасности уже доступны для работы с наиболее популярными моделями, включая GPT-4 и Llama 2. Проработка безопасности менее популярных платформ будет осуществляться в индивидуальном порядке.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме
Прежде чем оставить комментарий, пожалуйста, ознакомьтесь с правилами комментирования. Оставляя комментарий, вы подтверждаете ваше согласие с данными правилами и осознаете возможную ответственность за их нарушение.
Все комментарии премодерируются.
Комментарии загружаются...

window-new
Soft
Hard
Тренды 🔥
Госдума рассмотрит запрет на «организацию обращения криптовалют» с 1 сентября 2024 года 9 мин.
Google вложит в развите ЦОД до $50 млрд в 2024 году 41 мин.
UserGate развернула облачный центр ИБ-мониторинга и анализа инцидентов 4 ч.
Российский «Яндекс» отчитался по результатам первого квартала 2024 года 5 ч.
Постъядерные каникулы: вышел новый трейлер амбициозного мода-долгостроя Fallout: Miami для Fallout 4 7 ч.
Обновлённый законопроект разрешит физлицам в РФ заниматься майнингом, но без фанатизма 8 ч.
Анонсирован VR-хоррор Alien: Rogue Incursion, который полностью погрузит игроков в ужасы вселенной «Чужого» 16 ч.
Российская пошаговая тактика «Спарта 2035» про элитных наёмников в Африке получила первый геймплей — демоверсия не выйдет 30 апреля 17 ч.
Власти США позвали Сэма Альтмана, Дженсена Хуанга и Сатью Наделлу помочь им с защитой от ИИ 19 ч.
«В команде явно продали души дьяволу»: игроков впечатлила работа Biomutant на Nintendo Switch, но производительность требует жертв 19 ч.