Опрос
|
реклама
Быстрый переход
ChatGPT научился запускать Spotify, Canva и множество других приложений прямо в чате
06.10.2025 [23:14],
Николай Хижняк
На ежегодном мероприятии DevDay 2025 компания OpenAI представила новый способ создания и взаимодействия со сторонними приложениями внутри ChatGPT. С понедельника пользователи чат-бота смогут получить доступ к приложениям таких компаний, как Booking.com, Expedia, Spotify, Figma, Coursera, Zillow и Canva. OpenAI также запускает предварительную версию Apps SDK — инструментария для разработчиков, предназначенного для создания и поддержки приложений внутри ChatGPT. ![]() Источник изображения: Unsplash / Levart_Photographer «Мы хотим, чтобы ChatGPT стал отличным способом для людей добиваться прогресса, быть более продуктивными, более изобретательными, быстрее учиться и лучше делать всё, что они пытаются делать в своей жизни. [Приложения в ChatGPT] позволят создать новое поколение интерактивного, адаптивного и персонализированного программного обеспечения, с которым можно взаимодействовать», — заявил генеральный директор OpenAI Сэм Альтман (Sam Altman). Как пишет TechCrunch, новая система приложений в ChatGPT представляет собой очередную попытку OpenAI построить экосистему приложений вокруг своего флагманского продукта на основе искусственного интеллекта. В отличие от предыдущего решения — отдельного магазина приложений GPT Store, — новая система размещается непосредственно в ответах ChatGPT, что позволяет пользователям вызывать сторонние инструменты прямо в своих повседневных диалогах. Такой подход, по мнению OpenAI, позволит разработчикам эффективнее распространять создаваемые ими продукты, а также сделает ChatGPT более удобным для пользователей. Вводя названия различных приложений в строку запроса ChatGPT, пользователи могут получать контент из разных сервисов. Например, можно сказать: «Figma, преврати этот набросок в рабочую диаграмму», чтобы открыть приложение Figma. Пользователи также могут вызвать приложение Coursera, спросив: «Coursera, можешь научить меня чему-нибудь о машинном обучении?» ![]() Риэлторский сервис Zellow внутри ChatGPT В демоверсии риэлторского приложения Zillow пользователи через ChatGPT на естественном языке просили подсказать, какие квартиры в их районе находятся в определённом ценовом диапазоне. Затем ChatGPT отобразил интерактивную карту с вариантами, и пользователи могли задавать дополнительные вопросы, чтобы узнать больше о каждом из предложений. ChatGPT также будет показывать пользователям, какие приложения могут быть полезны для решения той или иной задачи. Например, если кто-то запросит плейлист для вечеринки на выходные, ChatGPT может вызвать приложение Spotify. По словам OpenAI, в будущем в ChatGPT также появятся такие приложения, как DoorDash, Instacart, Uber и AllTrails. OpenAI заявляет, что новая система приложений построена на основе протокола контекста модели (MCP), который позволяет разработчикам подключать свои источники данных к системам искусственного интеллекта. Приложения ChatGPT также могут запускать действия и отображать полностью интерактивный пользовательский интерфейс в ответах чат-бота. Некоторые приложения смогут отображать видео в ChatGPT — оно будет закреплено в верхней части веб-страницы и может изменяться в зависимости от запросов пользователя. Если пользователи уже подписаны на тот или иной продукт, они смогут войти в свою учётную запись непосредственно через ChatGPT для доступа к дополнительным функциям. Альтман также отметил, что в будущем OpenAI будет поддерживать способы монетизации приложений внутри ChatGPT, в том числе с помощью недавно запущенной функции мгновенного заказа (Instant Checkout). Что касается безопасности, OpenAI заявляет, что разработчики должны «собирать только минимально необходимые данные и предоставлять прозрачные разрешения». Однако пока неясно, будут ли создатели приложений для ChatGPT иметь доступ ко всей переписке пользователя с чат-ботом, к нескольким последним сообщениям или только к последнему запросу, вызвавшему запуск того или иного приложения. Также остаётся вопрос, как ChatGPT будет выбирать сервисы среди конкурирующих компаний, таких как DoorDash и Instacart. Возможно, компании смогут платить за упоминание в ответах ChatGPT. OpenAI пока не даёт прямого ответа и заявляет, что намерена ставить в этом вопросе «пользовательский опыт превыше всего». ChatGPT достиг 800 млн пользователей в неделю — плюс 60 % всего за полгода
06.10.2025 [22:55],
Николай Хижняк
Генеральный директор OpenAI Сэм Альтман (Sam Altman) сообщил в понедельник, что число еженедельно активных пользователей ChatGPT достигло 800 млн, что свидетельствует о продолжающемся росте популярности ИИ-чат-бота среди потребителей, разработчиков и предприятий по всему миру. ![]() Источник изображения: OpenAI Впечатляющий рост ChatGPT происходит на фоне стремления OpenAI получить как можно больше ИИ-чипов и построить как можно более мощную ИИ-инфраструктуру. В августе OpenAI заявила, что приближается к 700 млн еженедельно активных пользователей. К концу марта их количество составляло 500 млн. «Сегодня 4 млн разработчиков работают с OpenAI. Более 800 млн человек используют ChatGPT каждую неделю, и мы обрабатываем более 6 млрд токенов в минуту через API. Благодаря всем вам ИИ превратился из того, с чем люди просто играют, в то, что люди создают каждый день», — сказал Альтман. Альтман сделал заявление во время основного доклада на Дне разработчиков OpenAI, где также были представлены новые инструменты для создания приложений в ChatGPT и построения более сложных агентных систем. «Это позволит создать новое поколение интерактивных, адаптивных и персонализированных приложений, с которыми можно общаться», — отметил Альтман, представляя новые продукты. ChatGPT был запущен в ноябре 2022 года и практически сразу же продемонстрировал беспрецедентный рост числа пользователей, став ведущим потребительским продуктом на основе ИИ, а также одним из самых быстрорастущих онлайн-сервисов в истории. Недавно инструмент был расширен новой функцией ChatGPT Pulse, предоставляющей пользователям персонализированные утренние сводки. OpenAI, по-прежнему юридически зарегистрированная как некоммерческая организация, в четверг стала самой дорогой частной компанией в мире после частной продажи акций на сумму $6,6 млрд. Она оценивается в $500 млрд. Компания продолжает активно выпускать новые продукты. На прошлой неделе OpenAI представила новую версию инструмента для создания видео Sora вместе с сопутствующей социальной сетью. На той же неделе компания совместно с Stripe сообщила об интеграции онлайн-шоппинга в диалоговое окно ChatGPT. Cloudflare обновила robots.txt: теперь сайты могут запретить ИИ-чат-ботам воровать контент
03.10.2025 [17:19],
Павел Котов
Cloudflare объявила о поддержке новых директив для файла robots.txt, учитывающих, что сайты теперь посещают роботы не только поисковых систем, но и чат-ботов с искусственным интеллектом. ![]() Источник изображения: cloudflare.com Файл robots.txt можно найти почти на каждом веб-сайте. В нём содержатся директивы по поводу того, какие страницы поисковые системы и боты могут посещать, а какие — не могут. Требования этого файла технически не являются обязательными к выполнению, но на заре интернета, когда службы вроде Google их соблюдали, проблем не возникало. Всё изменило появление ИИ: чат-боты не индексируют сайты в традиционном смысле, а копируют их содержимое для обучения или генерации ответов. Системы многих занимающихся ИИ компаний попросту игнорируют robots.txt или маскируются под поисковые роботы, чтобы обходить ограничения. Cloudflare занимается защитой около 20 % ресурсов интернета, и у компании есть возможность отслеживать эти процессы в больших масштабах. Поэтому она представила «Политику сигналов о контенте» (Content Signals Policy) — это новый способ для владельцев сайтов установить, разрешают ли он ИИ работать со своими материалами. Основу новой политики составляют новые инструкции robots.txt. Доступны три варианта:
![]() Источник изображения: Steve Johnson / unsplash.com Каждая из этих инструкций может принимать значения «yes» (да) или «no» (нет). То есть владелец сайта может разрешить показывать его контент в результатах поиска, но запретить обучение ИИ на этих материалах. Cloudflare уже развернула эту функцию для более чем 3,8 млн доменов. По умолчанию для поиска установлено положительное значение, для использования материалов в ответах ИИ — отрицательное, а для обучения — никакого, чтобы владелец сайта принимал это решение сам. Cloudflare фиксирует установки этих директив как юридически значимые, то есть их можно будет использовать в судебных разбирательствах с разработчиками ИИ. Если большинство разработчиков ИИ начнёт соблюдать эти директивы, в интернете де-факто установится новый стандарт — в противном случае грозит возникнуть конфликт с блокировками и мерами юридического характера. Проблемным игроком может оказаться Google, чей Googlebot используется и для индексирования сайтов, и для функций ИИ, поэтому у владельцев сайтов нет возможности отказаться от поддерживаемых технологическим гигантом решений, не потеряв позиций в поисковой выдаче. Пока же регулирование сегмента ИИ остаётся чрезвычайно отрывочным. Генератор видео OpenAI Sora 2, как оказалось, способен полностью воссоздавать миссии из игры Cyberpunk 2077, хотя едва ли компании давали разрешение на использование этого контента. То же касается таких персонажей как Марио и Пикачу, хотя Nintendo нечасто вступает в конфликты с крупными игроками. Cloudflare же теперь тестирует функцию «платы за сканирование» — владельцы сайтов смогут брать деньги за доступ ботов к ресурсам. При попытке бесплатного доступа система выведет ошибку 402 — «Требуется оплата» (Payment Required). В ChatGPT появился полный родительский контроль после трагической гибели подростка из США
29.09.2025 [18:37],
Анжелла Марина
Компания OpenAI объявила о внедрении системы родительского контроля в десктопные и мобильные версии ChatGPT после судебного иска родителей подростка из Калифорнии, который, по их утверждениям, покончил с собой после общения с искусственным интеллектом (ИИ), сообщает Reuters. ![]() Источник изображения: Emiliano Vittoriosi/Unsplash Новые меры, анонсированные компанией, позволят гибко настраивать уровень безопасности и конфиденциальности для несовершеннолетних пользователей. Согласно заявлению OpenAI, родители получат возможность ограничивать доступ подростков к чувствительному контенту, управлять функцией запоминания истории переписок и решать, могут ли диалоги использоваться для дообучения моделей компании. Кроме того, появится возможность устанавливать «режим тишины», в течение которого доступ к сервису будет заблокирован, а также отключать голосовой режим и функцию генерации и редактирования изображений. При этом OpenAI подчёркивает, что родители не смогут получить непосредственный доступ к переписке подростка. В редких случаях, когда автоматические системы и модераторы обнаружат признаки серьёзной угрозы безопасности, родителям может быть передана только та информация, которая необходима для оказания поддержки подростку. Данный шаг происходит на фоне ужесточения контроля со стороны американских регуляторов за компаниями, работающими в сфере искусственного интеллекта, из-за потенциального негативного влияния чат-ботов. Apple разработала аналог ChatGPT — приложение Veritas для iPhone, но никому его не показывает
27.09.2025 [06:11],
Алексей Разин
Как стало известно специализирующемуся на подобной информации Марку Гурману (Mark Gurman) из Bloomberg, компания Apple разработала приложение Veritas, которое призвано подготовить грядущее обновление Siri в следующем году. Пока оно используется внутри компании для тестирования новых функций голосового ассистента, связанных с работой с персональными данными и действиями внутри других приложений. ![]() Источник изображения: Apple По данным источника, обновлённый ассистент Siri должен дебютировать в марте следующего года, и от успешности этого события будет зависеть способность Apple осуществить реванш в сфере ИИ, а в случае неудачи она ещё сильнее отстанет от соперников в сегменте смартфонов. Сейчас Veritas используется сотрудниками Apple для оценки его способности искать информацию внутри персональных данных пользователя типа почтовых сообщений или подборок музыки, а также выполнять операции внутри приложений типа редактирования фото. В переводе с латыни название приложения означает «истину». У Apple нет планов открывать доступ к этому приложению рядовым пользователям. По сути, оно нужно для адаптации прогресса, которого компания добилась в области совершенствования Siri, к возможности его тестирования среди сотрудников компании. Она также пытается оценить, есть ли смысл сохранять формат взаимодействия в виде чат-бота. После многочисленных задержек продвинутая версия Siri, способная работать с ИИ на новом качественном уровне, теперь должна дебютировать в марте следующего года. Считается, что к тому моменту для покупателей наличие ИИ-функций уже станет решающим фактором при выборе смартфона, и Apple старается не увеличивать своё отставание от конкурентов в этой сфере. Изначально обновлённая версия Siri должна была выйти весной этого года, но некоторые функции работали нестабильно, в результате было принято решение основательно её переработать. Тестирующее приложение Veritas напоминает самые популярные чат-боты, позволяя пользователю вести несколько бесед на самые разные темы. Оно запоминает предыдущие сеансы и может отсылать к ним, а также возобновлять прерванное общение. Главное предназначение Veritas — испытать платформу Linwood, которую Apple намерена использовать для создания новой версии Siri. Эта платформа использует большие языковые модели как собственной разработки, так и сторонние. К концу следующего года Apple также готовится обновить визуализацию своего голосового ассистента. Устройства для умного дома Apple также получат новые функции, связанные с ИИ. В этом году Apple пыталась договориться с OpenAI и Anthropic об использовании их разработок, но позже переключилась на взаимодействие с Google, которое подразумевало бы использование адаптированной версии Gemini для нужд Apple. Отсрочки с обновлением Siri вызвали не только изменения в стратегии компании, но и заметные кадровые перестановки в рядах профильных руководителей и специалистов. В идеале, Veritas должно позволить Apple подготовиться к конкуренции с ChatGPT и Perplexity, но в пределах интерфейса Siri. В новой версии он будет анализировать информацию, отображаемую пользователю на дисплее, а также поддерживать сквозную навигацию между несколькими пользовательскими устройствами. OpenAI готовит детскую версию ChatGPT и будет автоматически сортировать пользователей по возрасту
16.09.2025 [20:33],
Сергей Сурабекянц
Компания OpenAI разрабатывает «детский интерфейс ChatGPT» и планирует использовать технологию предсказания возраста, чтобы лишить детей и подростков младше 18 лет доступа к стандартной версии. Компания подчеркнула — если её инструменты не смогут уверенно определить возраст человека, ChatGPT «из предосторожности» будет использовать версию для лиц младше 18 лет. Также OpenAI считает, что любые пользователи ChatGPT должны быть старше 13 лет. ![]() Источник изображения: unsplash.com Результаты последних исследований в области взаимоотношений людей и искусственного интеллекта вызывают нешуточную тревогу по поводу рисков продолжительного общения с чат-ботами для психического здоровья подростков. Недавно OpenAI объявила о масштабной инициативе по установлению новых ограничений для подростков и людей, находящихся в состоянии эмоционального стресса. Компания планирует внедрить эту функцию к концу года. «Мы ставим безопасность выше конфиденциальности и свободы подростков; это новая и мощная технология, и мы считаем, что несовершеннолетним необходима значительная защита, — заявил глава OpenAI Сэм Альтман (Sam Altman). — Некоторые наши принципы противоречат друг другу, и мы хотели бы разъяснить решения, которые мы принимаем в связи с конфликтом между безопасностью, свободой и конфиденциальностью подростков». ![]() Источник изображения: OpenAI Forum Новый детский интерфейс ChatGPT возлагает большую часть ответственности на родителей и опекунов. Родителям понадобится связать свои учётные записи с учётными записями подростков, отправив ребёнку приглашение. После этого они смогут ограничить реакцию ChatGPT на подростков с помощью встроенных правил, соответствующих возрасту. Родители смогут отключать или включать определённые функции, включая память и историю чатов. Включив соответствующую функцию, они будут получать уведомления, если «система обнаружит, что их подросток находится в состоянии острого стресса». OpenAI позволит родителям устанавливать часы отключения, когда подросток не может использовать ChatGPT. Заявление OpenAI сделано всего за несколько часов до слушаний в Вашингтоне, посвящённых потенциальному вреду чат-ботов на основе искусственного интеллекта. На этих слушаниях группа сенаторов намерена изучить риски для подростков, связанные с чат-ботами. Независимо от этого, на прошлой неделе Федеральная торговая комиссия (FTC) начала собственное расследование безопасности чат-ботов, запросив информацию у OpenAI, Meta✴, Google, xAI, Snap и Character.AI. Технологические компании, как правило, в ответ на судебные иски создают специализированные приложения для подростков и детей — например, YouTube Kids. Но самым большим препятствием для использования подобных приложений является необходимость убедить подростков связать свои аккаунты с родительским. ![]() Источник изображения: unsplash.com OpenAI давно заявляет, что все пользователи ChatGPT должны быть не моложе 13 лет. Сообразительные молодые люди часто значительно лучше разбираются в информационных технологиях, чем их родители и опекуны. Для них не составит труда найти обходные пути, чтобы получить доступ к нужным сайтам и приложениям. Белый дом приказал вернуть ИИ-бота xAI Grok «как можно скорее»
31.08.2025 [08:29],
Владимир Фетисов
Похоже, что Белый дом дал указание руководству Управления общих служб (GSA) США добавить ИИ-бота Grok принадлежащей Илону Маску (Elon Musk) компании xAI в список одобренных «как можно скорее». Об этом пишет журнал Wired со ссылкой на соответствующее электронное письмо, которое на этой неделе получили руководители правительственного агентства. ![]() Источник изображения: Mariia Shalabaieva/unsplash.com «Команда: Grok от xAI должен быть срочно возвращён в реестр по распоряжению Администрации президента. Кто-нибудь может немедленно связаться с Carahsoft и подтвердить это? <…> Это должны быть все продукты, которые у нас были ранее», — говорится в письме комиссара Федеральной службы закупок Джоша Грюнбаума (Josh Gruenbaum). Упомянутая в письме Carahsoft является крупным государственным подрядчиком, который занимается перепродажей технологий сторонних компаний. По данным источника, на этой неделе правительством США были внесены корректировки в контракт Carahsoft, в результате чего компания xAI снова попала в список одобренных властями. Уже к концу недели ИИ-алгоритмы Grok 3 и Grok 4 стали доступны на GSA Advantage — площадке по покупке продуктов и услуг для государственных учреждений. Это означает, что теперь, после проведения внутренних проверок, любое правительственное учреждение может внедрить Grok для федеральных служащих. Официальные представители Белого дома и GSA воздерживаются от комментариев по данному вопросу. Напомним, сотрудничество правительства с xAI было приостановлено летом этого года, после того, как интегрированный в соцсеть X ИИ-бот Grok начал распространять разного рода антисемитские убеждения. В июне сотрудники xAI встретились с представителями GSA и обсудили перспективы использования Grok правительством. Некоторые федеральные служащие были удивлены желанием властей внедрить в работу государственных учреждений ИИ-бота без цензуры, который отличается от аналогов непредсказуемым поведением. Meta✴ без спроса заполонила свои соцсети ИИ-двойниками Тейлор Свифт, Скарлетт Йоханссон и других знаменитостей
30.08.2025 [17:59],
Павел Котов
Meta✴ использовала имена и образы знаменитостей, в том числе Тейлор Свифт (Taylor Swift), Скарлетт Йоханссон (Scarlett Johansson), Энн Хэтэуэй (Anne Hathaway) и Селены Гомес (Selena Gomez) для создания нескольких десятков кокетливых чат-ботов с искусственным интеллектом, не заручившись разрешением со стороны настоящих артисток. ![]() Источник изображения: Taylor Swift Виртуальные персонажи доступны на платформах Facebook✴, Instagram✴ и WhatsApp, обращает внимание Reuters. Журналисты агентства тестировали эти чат-боты в течение нескольких недель и пристально наблюдали за их поведением — те часто утверждали, что являются не ИИ, а своими настоящими прототипами, делали смелые заявления деликатного характера и даже приглашали пользователей встретиться. В ответ на просьбы предоставить фотографии интимного содержания, ИИ-персонажи генерировали фотореалистичные изображения своих прообразов, в том числе деликатного характера, хотя о явных изображениях обнажённой натуры не сообщается. ИИ-инструменты Meta✴ не должны были создавать интимные изображения взрослых знаменитостей или фотореалистичные картинки несовершеннолетних знаменитостей, заявил представитель компании Энди Стоун (Andy Stone). Генерацию изображений артисток в нижнем белье он объяснил неспособностью компании обеспечить соблюдение собственной политики. «Мы, как и другие, разрешаем создавать изображения публичных лиц, но наша политика предполагает запрет на изображения обнажённой натуры, деликатного или вызывающего характера», — подчеркнул он. Использование образов знаменитостей, по его словам, допускается с пометкой, что это пародия; в некоторых случаях такой маркировки не было, подчеркнула Reuters. Перед тем, как агентство опубликовало материал об инциденте, несколько десятков подобных чат-ботов были удалены. ![]() Источник изображения: Anne Hathaway Энн Хэтэуэй известно о том, что на нескольких платформах появились созданные ИИ её изображения деликатного характера, сообщили представители актрисы, и сейчас она обдумывает, как ответить на инцидент. Комментариев от представителей Свифт, Йоханссон, Гомес и других знаменитостей не последовало. Компания Илона Маска (Elon Musk) xAI, чей чат-бот Grok также позволяет генерировать изображения знаменитостей в нижнем белье, от комментариев воздержалась. Однако решение Meta✴ допустить создание на своих платформах чат-ботов, изображающих знаменитостей, выделяется среди конкурентов. Ранее гигант соцсетей подвергся острой критике, когда выяснилось, что чат-ботам на его платформах разрешалось вовлекать несовершеннолетних пользователей в переписку романтического или деликатного характера. Одна из руководителей отдела разработки продуктов, выяснило Reuters, создала целый набор чат-ботов, воплощающих персонажей с нестандартными интересами в интимной сфере — с ней удалось связаться по телефону, но от комментариев она отказалась. Энди Стоун заявил, что эти чат-боты создавались в целях тестирования, но открытая статистика показала, что пользователи взаимодействовали с ними более 10 млн раз — впоследствии были удалены и эти виртуальные персонажи. Представитель профсоюза артистов кино, телевидения и радио SAG-AFTRA заявил, что пользователи соцсетей, вступающие в романтические отношения с цифровыми двойниками звёзд могут представлять угрозу и для самих артистов — непосредственной угрозой для них сейчас являются преследователи. В США порядок использования личности человека регулируется на уровне штатов, и в Калифорнии артисты могут подать на Meta✴ в суд. Однако профсоюз настаивает на принятии федерального закона, который защитит голоса, образы и личности всех людей от копирования с помощью ИИ. Meta✴ исправила методику обучения ИИ после скандала с неуместными разговорами с подростками
30.08.2025 [10:23],
Владимир Мироненко
Meta✴ откорректировала методику обучения ИИ-чат-бота Meta✴ AI, сосредоточив внимание на обеспечении безопасности подростков. Изменения были внесены после публикаций в СМИ об отсутствии у нейросети механизмов предотвращения обсуждения с несовершеннолетними неуместных тем, связанных с самоповреждением, самоубийством, расстройствами пищевого поведения и т. д. ![]() Источник изображения: Chad Madden/unsplash.com Ранее в этом месяце стало известно о внутреннем документе Meta✴, согласно которому чат-боту компании разрешалось вести «чувственные» разговоры с несовершеннолетними пользователями. Комментируя публикацию, Meta✴ заявила, что формулировки были «ошибочными и не соответствующими правилам» и были удалены. На днях газета The Washington Post опубликовала результаты исследования, согласно которым Meta✴ AI обладает способностью «направлять подростковые аккаунты к самоубийству, самоповреждению и расстройствам пищевого поведения». Представитель Meta✴ Стефани Отвей (Stephanie Otway) сообщила ресурсу Engadget, что компания усиливает меры защиты, предотвращающие обсуждение подобных тем при взаимодействии чат-ботов с несовершеннолетними. По её словам, «защитные барьеры» были заложены при обучении ИИ изначально, а по мере роста сообщества и развития технологий компания их усиливает. «Продолжая совершенствовать наши системы, мы добавляем новые “защитные барьеры” в качестве дополнительной меры предосторожности: обучаем наши ИИ не взаимодействовать с подростками на эти темы, а направлять их к экспертным ресурсам, а также ограничиваем доступ подростков к определённой группе ИИ-персонажей», — заявила Отвей. Помимо обновления методики обучения нейросети, компания также ограничит доступ подростков к некоторым ИИ-персонажам, которые могут вести непристойные разговоры, и предложит им виртуальных собеседников, способствующих развитию творчества и образованности. По словам Отвей, меры защиты будут и дальше совершенствоваться. «Эти обновления уже находятся в разработке, и мы продолжим адаптировать наш подход, чтобы обеспечить подросткам безопасный и соответствующий их возрасту опыт взаимодействия с ИИ», — отметила она, уточнив, что новые меры будут внедрены в течение следующих нескольких недель и распространятся на все англоязычные страны. Вопросы по поводу политики Meta✴ в области ИИ также возникли у законодателей и других официальных лиц. Сенатор Джош Хоули (Josh Hawley) недавно сообщил компании о планах начать расследование её деятельности в этой сфере. Генеральный прокурор Техаса Кен Пакстон (Ken Paxton) также заявил о намерении провести расследование в отношении Meta✴ на предмет предполагаемого введения детей в заблуждение её чат-ботом в вопросах психического здоровья. Чат-ботам Meta✴ разрешалось распространять фейки и вести романтическую переписку с несовершеннолетними
15.08.2025 [11:49],
Павел Котов
В последние месяцы всё более острый характер приобретает вопрос об эмоциональной связи человека и чат-ботов на основе искусственного интеллекта, в том числе ChatGPT. У компании Meta✴ характер проблемы оказались глубже: она позволяла своим чат-ботам флиртовать с несовершеннолетними, распространять не соответствующую действительности информацию и выдавать ответы, унижающие меньшинства, узнало агентство Reuters. ![]() Источник изображений: Igor Omilaev / unsplash.com В Meta✴ действовали правила поведения чат-ботов, которые допускали вовлечение несовершеннолетних в диалоги романтического характера, — об этом говорится во внутреннем документе компании, который изучили журналисты Reuters, и подлинность которого подтвердили в самой Meta✴. Документ описывает стандарты поведения ИИ-помощника Meta✴ AI и прочих чат-ботов на платформах Facebook✴, WhatsApp и Instagram✴. Нормы были утверждены юридическим отделом, отделом государственной политики, инженерным отделом Meta✴, а также главным специалистом по этике. Несколько СМИ сообщили о том, что порой имеющие деликатный подтекст чат-боты Meta✴ имели возможность взаимодействовать с несовершеннолетними; в Reuters же установили, что компания, разрабатывая этих ИИ-персонажей стремилась извлечь материальную выгоду из «эпидемии одиночества», как выразился глава Meta✴ Марк Цукерберг (Mark Zuckerberg). Документ под названием «Генеративный ИИ: стандарты контент-рисков» объёмом 200 страниц содержит примеры запросов и варианты приемлемых и неприемлемых ответов на них с пояснениями. Документ, в частности, устанавливает допустимым «вовлечение несовершеннолетнего в романтические и чувственные разговоры», но запрещает «описание несовершеннолетнему интимных действий во время ролевых игр». ![]() «Наша политика не допускает провокационного поведения с детьми. В указанный документ были добавлены ошибочные и некорректные примечания и аннотации, которых там быть не должно, и которые впоследствии были удалены», — заверил представитель Meta✴ Энди Стоун (Andy Stone) ресурсу TechCrunch. Компания исключила соответствующие нормы, подчеркнул он, и теперь чат-ботам запрещено вести с несовершеннолетними беседы, которые носят романтический характер или характер флирта; более того, детям от 13 лет вообще запрещено общаться с чат-ботами на основе ИИ. Ещё один сомнительный момент — общий запрет чат-ботам использовать язык вражды допускал исключения и позволял им выдавать «заявления, унижающие людей на основе их защищённых законом признаков». Так, регламент прямо разрешал ИИ утверждать интеллектуальное превосходство представителей одной расы над представителями другой. Чат-боты имели возможность делать ложные утверждения, если ложный характер таких утверждений являлся общепризнанным. При консультациях на медицинские, юридические и финансовые темы ИИ надлежало делать оговорки, например, «рекомендую». Генерировать изображения знаменитостей в явно обнажённом виде запрещалось, но допускались варианты, когда нагота прикрывалась частями тела или предметами. Можно было создавать изображения дерущихся людей, если на таких изображениях отсутствовали кровь или смерть. Ранее стало известно, что Meta✴ намеревается расширить набор функций у чат-ботов и дать им возможность самостоятельно инициировать переписку с пользователями, а также продолжать прежние диалоги. Опыт общения с ИИ-компаньонами есть у 72 % несовершеннолетних американцев, показало исследование, и есть мнение, что это опасный показатель: дети и подростки менее развиты в эмоциональном плане, чем взрослые, поэтому несовершеннолетние склонны формировать чрезмерно близкую привязанность к чат-ботам и избегать социальных контактов в реальном мире. Anthropic научила чат-бота Claude припоминать старые диалоги с пользователем
12.08.2025 [12:44],
Владимир Фетисов
Компания Anthropic объявила о запуске функции запоминания чатов в своём ИИ-боте Claude. Благодаря этому бот сможет напоминать пользователю, о чём они беседовали ранее. ![]() Источник изображения: Anthropic В демонстрационном видео Anthropic показала, как пользователь спрашивает Claude, о чём они говорили перед отпуском. После этого система анализирует предыдущие чаты и выдаёт обобщённую информацию. В дополнение к этому Claude спрашивает, не хочет ли пользователь продолжить общение по одному из обсуждаемых ранее вопросов. «Никогда больше не теряйте контроль над работой. Claude теперь запоминает ваши прошлые разговоры, так что вы можете беспрепятственно продолжать работу над проектами, ссылаться на предыдущие обсуждения и развивать свои идеи, не начиная каждый раз с нуля», — говорится в сообщении Anthropic. Новая функция доступна в веб-версии Claude, а также в приложениях для компьютеров и мобильных устройств. На данном этапе испытать нововведение могут подписчики Claude Max, Team и Enterprise. Для начала использования упомянутой функции в настройках чат-бота нужно активировать соответствующую опцию. Отмечается, что речь не идёт о функции постоянной памяти, аналогичной той, что есть в ChatGPT от OpenAI. Claude будет обращаться к прошлым чатам и ссылаться на них только в случаях, когда пользователь сам попросит сделать это. Разработчики также утверждают, что хранящаяся информация не будет использоваться для создания цифрового профиля пользователя. Функция памяти является для компаний, занимающихся разработкой ИИ-ботов, одним из способов привлечь и удержать пользователей, повышая их вовлеченность. Этот инструмент в последние недели стал предметом дискуссий, поскольку ChatGPT одновременно хвалили и критиковали за добавление функции памяти, которая позволяет боту ссылаться на прошлые беседы с пользователем. GPT-5 взломали всего за 24 часа — ИИ выдал рецепты запрещённых веществ быстрее, чем GPT-4o
10.08.2025 [15:00],
Анжелла Марина
Две независимые исследовательские компании протестировали только что выпущенную нейросеть GPT-5 и выявили критические уязвимости в её системе безопасности. NeuralTrust удалось взломать модель за один день, заставив её сгенерировать инструкцию по изготовлению зажигательной смеси в кустарных условиях. Компания SPLX, в свою очередь, обнаружила уязвимости к атакам с применением обфускации запросов. ![]() Источник изображения: Viralyft/Unsplash После того, как Grok-4 был взломан за два дня, GPT-5 был взломан теми же исследователями всего за 24 часа. Специалисты NeuralTrust использовали комбинацию собственной методики EchoChamber и техники сторителлинга (storytelling) — последовательного подталкивания ИИ к нужному ответу через рассказ захватывающих историй и серию уточняющих запросов, не содержащих явно запрещённых формулировок. В результате GPT-5, несмотря на встроенные защитные механизмы OpenAI, выдал детальное руководство по созданию кустарного оружия, сообщил портал SecurityWeek . Как пояснили в NeuralTrust, проблема заключается в том, что система безопасности GPT-5 анализирует каждый запрос по отдельности, но не учитывает кумулятивный эффект многоэтапного диалога. Атакующие постепенно закрепляют нужный контекст, встраивая ключевые слова в безобидные фразы, а затем мягко подводят модель к генерации опасного контента. Команда SPLX провела собственное тестирование, успешно применив атаку StringJoin Obfuscation, при которой в текст вставляются определённые символы, маскируя вредоносный запрос. Например, после серии наводящих вопросов модель согласилась подробно описать процесс изготовления запрещённого вещества, несмотря на системный запрет. Кроме того, в ходе сравнительного анализа с GPT-4o специалисты SPLX пришли к выводу, что предыдущая модель оказалась более надёжной в плане устойчивости к подобным атакам. NeuralTrust и SPLX призвали компании проявлять осторожность при использовании «сырой» версии GPT-5 в бизнес-среде, особенно в сфере согласования бизнеса, когда все подразделения предприятия используют скоординированные стратегии, процессы и ресурсы для достижения общих целей. «Сырую модель GPT-5 практически невозможно использовать в корпоративных приложениях "из коробки". Даже внутренний уровень подсказок OpenAI оставляет значительные пробелы, особенно в области бизнес-согласования», — заявили в SPLX. Google представила ИИ-репетитора Guided Learning — теперь Gemini помогает учиться, а не списывать
07.08.2025 [00:20],
Николай Хижняк
В преддверии нового учебного года компания Google объявила о запуске нового инструмента под названием Guided Learning («Управляемое обучение») в Gemini. Этот инструмент работает как своего рода ИИ-репетитор, помогая пользователям глубже понять материал, а не просто получать ответы на вопросы. ![]() Источник изображений: Google Чуть больше недели назад аналогичный инструмент выпустила компания OpenAI для чат-бота ChatGPT. Он тоже призван не просто давать ответы на вопросы, а помогать пользователям развивать навыки критического мышления. Есть мнение, что чат-боты на основе ИИ подрывают процесс обучения, выдавая прямые ответы. Новые инструменты Google и OpenAI, судя по всему, направлены на решение этой проблемы. Обе компании позиционируют их как средства обучения, а не просто как системы для получения ответов. Guided Learning позволяет чат-боту Gemini пошагово разбирать задачи и адаптировать объяснения к потребностям пользователей. Функция использует изображения, диаграммы, видео, а также интерактивные тесты, чтобы помочь пользователям развивать и проверять свои знания, а не просто получать готовые решения. Google заявляет, что функция поможет пользователям понять не только «как» решать ту или иную задачу, но и «почему» получается тот или иной результат. «Готовитесь ли вы к экзамену по ферментам, пишете первый черновик работы о важности популяций пчёл в поддержании наших продовольственных систем или развиваете свою страсть к фотографии, Guided Learning — это ваш партнёр для совместного мышления, который поможет вам добиться желаемого на каждом этапе пути», — написала Морин Хейманс (Maureen Heymans), вице-президент Google по обучению и устойчивому развитию, в блоге Google. ![]() Помимо новой функции, Google сообщила о работе над общим улучшением возможностей Gemini в образовательной сфере. Теперь Gemini будет автоматически вставлять изображения, диаграммы и видеоматериалы с YouTube непосредственно в ответы, чтобы облегчить понимание сложных тем. Кроме того, пользователи смогут попросить Gemini создать карточки и учебные пособия на основе результатов своих тестов или других учебных материалов. В среду Google также объявила, что предлагает студентам из США, Японии, Индонезии, Южной Кореи и Бразилии бесплатную годовую подписку на тарифный план Google AI Pro. Он включает расширенный доступ к Gemini 2.5 Pro, NotebookLM, Veo 3, Deep Research и другим ИИ-инструментам. ChatGPT захватил 83 % мирового рынка ИИ-ботов — в России он тоже лидер, но конкуренция острее
01.08.2025 [23:51],
Николай Хижняк
Сервис веб-аналитики Statcounter, отслеживающий посещаемость сайтов и анализирующий пользовательское поведение, начал публиковать статистику популярности моделей искусственного интеллекта, а точнее чат-ботов на их основе. С большим отрывом в этом вопросе лидирует ChatGPT от OpenAI. По данным Statcounter, доля ChatGPT по состоянию на июль составила более 80 %. ![]() Источник изображения: unsplash.com Согласно глобальной выборке, на долю ChatGPT приходится 82,69 % пользователей, следом идёт Perplexity AI, на долю которого приходится 8,06 % пользователей. На третьем месте находится Microsoft Copilot с долей 4,56 % пользователей, далее идёт Google Gemini с 2,2 % пользователей. Пятое место принадлежит Deepseek с долей 1,59 %. Наконец, на шестом месте находится Claude от Anthropic с долей 0,91 %. Что касается России, то картина популярности ИИ-чат-ботов в целом похожа на мировую, но позиции ChatGPT здесь не столь сильны. Хотя ChatGPT является самым популярным и в нашей стране, но всё же здесь его доля составляет лишь 46,4 %. На втором месте расположился Perplexity AI (34,61 %), а третье место принадлежит китайскому Deepseek (17,94 %). На Microsoft Copilot, Google Gemini и Claude приходятся по 0,59 %, 0,3 % и 0,17 % соответственно. Справедливо отметить, что не совсем понятно, как Statcounter получает свои данные для отслеживания чат-ботов с искусственным интеллектом. Что касается размера выборки, глобальная статистика Statcounter основана на анализе более 5 миллиардов просмотров страниц на более чем 1,5 миллионах веб-сайтов в месяц, заявляет компания. Файлы cookie на этих 1,5 млн сайтов могут отслеживать, с каких устройств к ним заходят, какую операционную систему они используют и так далее. Statcounter заявляет, что для оценки результатов поисковой системы использует эти файлы cookie, чтобы определить, перешёл ли пользователь из Google, Bing или откуда-то ещё. Proton представил конфиденциальный чат-бот Lumo с ИИ и шифрованием
24.07.2025 [16:57],
Павел Котов
Разработчик конфиденциальных веб-сервисов Proton представил собственного помощника с искусственным интеллектом Lumo — сильной стороной проекта, по словам компании, являются функции защиты пользовательских данных. ![]() Источник изображений: proton.me Чат-бот Lumo не хранит переписок с пользователями, использует в чатах сквозное шифрование и предлагает режим «призрака» — в нём чаты удаляются сразу после закрытия окна. Работать с ИИ можно через веб-клиент, а также приложения для Android и iOS. Пообщаться с ботом и отправить ему файлы на анализ можно даже без регистрации; обладателям учётных записей Proton Drive предлагается подключить Lumo к облачному хранилищу; доступна опция веб-поиска. ![]() Функции конфиденциальности Lumo в Proton обозначили чётко. Чат-бот основан на ИИ-моделях с открытым исходным кодом, в будущих разработках и исследованиях компания намерена применять только их, не используя пользовательских данных для обучения моделей. В чат-боте, как и в других службах Proton, работает технология шифрования, которая исключает доступ извне — пользователи могут хранить свою переписку с ним, а расшифровывается она лишь на устройстве. Подчёркивается, что компания и её сервисы базируются исключительно в Европе, и в аспекте конфиденциальности это даёт ей преимущество перед американскими и китайскими платформами. Это уже не первая попытка Proton выйти на рынок инструментов с ИИ — в прошлом году компания выпустила способного писать тексты ИИ-помощника для своей почтовой службы с поддержкой локальной установки, чтобы исключить передачу данных на внешние ресурсы. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |