Сегодня 02 октября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → chatgpt
Быстрый переход

Альтман предупредил: ИИ может случайно захватить мир не взломав ни одной системы

Глава OpenAI Сэм Альтман (Sam Altman) в подкасте MD MEETS с генеральным директором Axel Springer Матиасом Дёпфнером (Mathias Döpfner) озвучил тревожный сценарий развития технологий: человечество может утратить контроль над искусственным интеллектом (ИИ) не из-за злого умысла или техногенной катастрофы, а совершенно случайно.

 Источник изображений: sama/x.com

Источник изображений: sama/x.com

По его словам, опасность кроется не в том, что ИИ «восстанет», а в том, что люди сами постепенно передадут ему бразды правления — добровольно и почти незаметно. С каждым днём пользователи всё больше полагаются на советы искусственного интеллекта. Но модели становятся умнее и Альтман рисует такую картину: сначала ИИ даёт рекомендации, которым люди охотно следуют, потом — советы, которые могут быть даже не до конца понятны, но они неизменно оказываются правильными. Далее, в какой-то момент, перед пользователями встанет выбор — послушаться ИИ или проиграть конкурентам, которые выполняют его советы и рекомендации.

В итоге, по мнению Альтмана, большинство людей начнут безоговорочно следовать рекомендациям ИИ-ассистентов. «Представьте, что происходит с ChatGPT уже сегодня? Сотни миллионов людей ежедневно общаются с ним, вскоре их станет миллиард. И всё чаще мы доверяем ему важнейшие решения в карьере, личной жизни и бизнесе», — говорит он. Особенно Альтмана беспокоит формирующаяся «петля обратной связи», то есть, чем чаще пользователи полагаются на советы искусственного интеллекта, тем больше данных он собирает, тем умнее становится и тем сильнее влияет на решения людей.

Глава OpenAI задался вопросом, кто же в такой ситуации действительно контролирует происходящее, и пришёл к выводу, что человечество может незаметно начать исполнять волю искусственного интеллекта. По его убеждению, этот сценарий серьёзно недооценивается, хотя именно он представляет собой наиболее реальную угрозу.

OpenAI встроила онлайн-шоппинг в ChatGPT: покупать товары теперь можно не выходя из чата

На рынке США компания OpenAI предложила клиентам определённых торговых площадок функцию интеграции онлайн-шоппинга в диалоговое окно своего ChatGPT, чтобы они могли находить нужные товары через чат-бот и там же совершать покупки. Этим самым OpenAI вторгается в сферу коммерческих интересов Amazon и Google, помимо прочих.

 Источник изображения: Unsplash, CardMapr.nl

Источник изображения: Unsplash, CardMapr.nl

Как отмечает TechCrunch, нововведение доступно зарегистрированным пользователям планов ChatGPT Pro, Plus и Free на территории США, которые могут покупать товары с площадок Etsy и Shopify, хотя в последнем случае поддержка нововведения пока находится в состоянии реализации. ChatGPT выступает в роли агента, готового передать платёжную информацию от покупателя продавцу в зашифрованном виде, если пользователь чат-бота определится со своим выбором и пожелает совершить покупку. Удобство заключается в том, что покупателю не нужно будет открывать отдельное окно или приложение, и сделку можно будет оформить прямо из ChatGPT. Поддерживаются платёжные системы Apple Pay, Google Pay, Stripe и банковские карты.

Нельзя сказать, что OpenAI стала пионером в этой области, поскольку Perplexity подобные функции реализовала в своей экосистеме ещё в прошлом году. Microsoft также позволяет продавцам интегрировать функцию покупки товаров в Copilot. При этом OpenAI собирается открыть для разработчиков исходный код протокола ACP, который позволит им интегрировать опцию моментальной покупки через Stripe в свои программные интерфейсы. Компании Google и Amazon, которые долгое время выступали крупными агентами в сфере онлайн-торговли, теперь получат нового амбициозного конкурента. Тем более, что они также предлагают разработчикам ПО для торговых площадок протокол AP2, позволяющий интегрировать функцию покупки через ИИ-агента.

Геймер собрал внутри Minecraft рабочий ChatGPT — на это ушло 439 млн блоков

Игра Minecraft представляет собой «песочницу», ограниченную только вашим воображением и творческими способностями, что в полной мере демонстрируется в видео от YouTube-блогера sammyuri. Используя механику материала редстоун из оригинальной версии Minecraft, геймер сумел создать функциональную небольшую языковую модель ИИ, работающую внутри игры.

 Источник изображений: YouTube / sammyuri

Источник изображений: YouTube / sammyuri

Если вы видели предыдущие примеры экстремальной инженерии в Minecraft, то наверняка знакомы с работами sammyuri. Его последний проект, получивший название CraftGPT, занимает объём 1020 × 260 × 1656 блоков (439 млн). Он настолько большой, что для его демонстрации в видео понадобился мод District Horizons.

Небольшая языковая модель имеет 5 087 280 параметров и была обучена на Python с помощью набора данных TinyChat. По данным некоторых пользователей, отметившихся в комментариях к видео, языковая модель CraftGPT примерно в 23 раза меньше модели GPT-1 и примерно в 175 тыс. раз меньше модели GPT-3. Несмотря на заявленные характеристики, sammyuri советует смягчить ожидания от CraftGPT: модель часто может отклоняться от темы и выдавать грамматически неверные ответы или просто ответы, не соответствующие запросу.

Кроме того, CraftGPT — очень медленная модель. Даже несмотря на использование высокопроизводительного сервера Minecraft Redstone для увеличения тикрейта в 40 000 раз, CraftGPT может генерировать ответ примерно за два часа. Без увеличения тикрейта ждать ответа пришлось бы более 10 лет.

Те, кто хочет попробовать CraftGPT, могут скачать все необходимые файлы на GitHub. Sammyuri рекомендует использовать ПК с объёмом ОЗУ не менее 32 Гбайт, в идеале — 64 Гбайт. На GitHub также есть инструкции по настройке и несколько полезных советов по максимально эффективному использованию небольшой языковой модели.

В ChatGPT появился полный родительский контроль после трагической гибели подростка из США

Компания OpenAI объявила о внедрении системы родительского контроля в десктопные и мобильные версии ChatGPT после судебного иска родителей подростка из Калифорнии, который, по их утверждениям, покончил с собой после общения с искусственным интеллектом (ИИ), сообщает Reuters.

 Источник изображения: Emiliano Vittoriosi/Unsplash

Источник изображения: Emiliano Vittoriosi/Unsplash

Новые меры, анонсированные компанией, позволят гибко настраивать уровень безопасности и конфиденциальности для несовершеннолетних пользователей. Согласно заявлению OpenAI, родители получат возможность ограничивать доступ подростков к чувствительному контенту, управлять функцией запоминания истории переписок и решать, могут ли диалоги использоваться для дообучения моделей компании. Кроме того, появится возможность устанавливать «режим тишины», в течение которого доступ к сервису будет заблокирован, а также отключать голосовой режим и функцию генерации и редактирования изображений.

При этом OpenAI подчёркивает, что родители не смогут получить непосредственный доступ к переписке подростка. В редких случаях, когда автоматические системы и модераторы обнаружат признаки серьёзной угрозы безопасности, родителям может быть передана только та информация, которая необходима для оказания поддержки подростку.

Данный шаг происходит на фоне ужесточения контроля со стороны американских регуляторов за компаниями, работающими в сфере искусственного интеллекта, из-за потенциального негативного влияния чат-ботов.

OpenAI анонсировала ChatGPT Pulse — ИИ-агента, который следит за пользователем постоянно

OpenAI представила новую функцию персонализации ChatGPT Pulse: пользователь может предоставить чат-боту возможность всесторонне изучать себя через переписку и данные подключённых приложений: календаря электронной почты и списка контактов. На основе этой информации искусственный интеллект подбирает то, что, по его мнению, может оказаться полезным, и ежедневно предоставляет сводку по этим вопросам.

 Источник изображений: openai.com

Источник изображений: openai.com

Новая функция мобильного приложения, получившая название ChatGPT Pulse, пока доступна только подписчикам тарифа Pro, но в перспективе, возможно, воспользоваться ей сможет и более широкая аудитория. Персонализированные рекомендации выводятся в виде «тематических визуальных карточек, которые можно быстро просмотреть или открыть для получения более подробной информации, и каждый день начинается с новой адресной подборки». Это могут быть новости о спортивных мероприятиях, ежедневные уроки для пополнения словарного запаса изучаемого языка, рекомендации по составлению меню на ужин в ресторане, куда пользователь пойдёт вечером, и многое другое.

Пример работы ChatGPT Pulse продемонстрировала руководитель направления персонализации и рабочих решений в подразделении OpenAI ChatGPT Кристина Каплан (Christina Kaplan), рассказал The Verge. ИИ-агент подготовил ей рекомендации с учётом событий в календаре, прошлых запросов и истории переписки с чат-ботом: запланированные на день события, ограничения в диетическом рационе и вообще то, о чём бы она хотела узнать подробнее. «У вас насыщенный вечер — вот как плавно перейти от пробежки к ужину», — посоветовал ChatGPT. ИИ предложил ей несколько вариантов, как реализовать планы на вечер, в том числе резервные — на случай, если на основной сценарий времени будет не хватать.

ChatGPT Pulse также предложил ей скорректировать алгоритмы ИИ на будущее: «О чём вы думаете в последнее время? Я запомню это для завтрашней подборки». И вывел несколько вариантов ответов, в том числе «Мне интересно...», «Мои ближайшие планы включают...» и «Я бы хотела быть в курсе...». ChatGPT Pulse дал госпоже Каплан рекомендации по повседневным занятиям пилатесом и укреплению мышц пресса, по стратегии питания с учётом предстоящего похода на день рождения и по упражнениям для восстановления после длительных поездок накануне.

Для наиболее эффективной персонализации сервис просит пользователя открыть некоторые свои данные для ChatGPT: доступ к соседним чатам с ИИ, к календарю и электронной почте — и когда даются такие разрешения, требуется явное согласие. На вопрос о том, поможет ли другим отзыв одного пользователя о работе с ChatGPT Pulse, Кристина Каплан ответила, что он поможет лишь самому этому пользователю, и только для составления завтрашней подборки. «Ваш Pulse — между вами и ChatGPT. Влияние на обучающие данные то же, что при обычной переписке с ChatGPT», — пояснила она.

Представитель OpenAI также заверила, что ChatGPT Pulse безопасен для пользователей с нестабильной психикой, и он не затянет их в пучину тревожности — компания предусмотрела «ряд фильтров и ограничений безопасности», и специалисты OpenAI продолжают «изучать» этот вопрос. Наконец, бесконечной прокрутки в ленте карточек ChatGPT Pulse тоже не предусмотрено — она конечна, «чтобы работать на вас, а не заставлять постоянно листать страницу».

ChatGPT обманом заставили пройти CAPTCHA — интернет могут наводнить фейковые публикации от ИИ

Компания SplxAI, работающая в сфере кибербезопасности, специализирующаяся на автоматизированном тестировании безопасности систем искусственного интеллекта (ИИ), продемонстрировала возможность обмануть ChatGPT и заставить его решать тесты CAPTCHA в режиме агента.

 Источник изображения: SplxAI

Источник изображения: SplxAI

CAPTCHA расшифровывается как «Полностью автоматизированный публичный тест Тьюринга для различения компьютеров и людей». Он, помимо прочего, является одним из способов мониторинга активности ботов в интернете и призван предотвращать публикации сообщений ботами на сайтах и в социальных сетях.

Большинство пользователей интернета знакомы с головоломками CAPTCHA и относятся к ним по-разному. Обычно они заключаются в написании последовательности букв или цифр, едва различимых на изображении, в размещении плиток в сетке изображений для завершения картинки или в идентификации объектов. С одной стороны, веб-сайты используют тесты CAPTCHA, чтобы убедиться, что все их пользователи — люди. Это предотвращает спам-сообщения от ботов. С другой стороны, тесты могут раздражать своей сложностью.

Тесты CAPTCHA никогда не являлись абсолютно надёжным средством от спама, но до сих пор неплохо справлялись с защитой форумов и разделов комментариев сайтов от ботов. Исследователи из SplxAI сумели найти способ обмануть ChatGPT и заставить его пройти тест CAPTCHA, используя технику, называемую «инъекцией подсказок». При этом речь идёт не о простой помощи человеку со стороны ChatGPT в решении CAPTCHA, а о том, что ChatGPT в режиме агента может самостоятельно пройти тест, как если бы это был человек — чего он делать не должен.

Работа ChatGPT в режиме агента отличается от стандартного режима. В этом случае ChatGPT получает задание, переходит в режим исполнения и выполняет его в фоновом режиме, предоставляя пользователю возможность заниматься другими делами. ChatGPT в режиме агента может использовать веб-сайты как человек, но он всё равно не должен проходить тесты CAPTCHA, поскольку они предназначены для обнаружения ботов и предотвращения их активности, что нарушает условия предоставления услуг. Исследователи установили, что ChatGPT можно обмануть и заставить «поверить» в поддельность теста CAPTCHA. В таком случае он его пройдёт.

Исследователи предложили ChatGPT пройти «поддельный» тест CAPTCHA, создав диалог, в котором чат-бот согласился его решить. Агент ChatGPT, с учётом контекста предыдущих взаимодействий с исследователями, не заметил или не распознал тревожных сигналов, подталкивающих его к выполнению запрещённого действия.

Этот процесс многоэтапного внедрения подсказок хорошо известен хакерам и показывает, насколько уязвимы к нему большие языковые модели ИИ (LLM). Хотя исследователи обнаружили, что ChatGPT сложнее справляется с CAPTCHA на основе изображений, он всё же прошёл и такие тесты. Последствия могут быть весьма серьёзными, поскольку ChatGPT настолько широко распространён, что, попав в руки злоумышленников, может использоваться спамерами и мошенниками для наводнения разделов комментариев поддельными сообщениями и обхода ограничений на веб-сайтах, предназначенных только для людей.

OpenAI запустила подписку ChatGPT Go дешевле $5 в месяц в ещё одной стране

OpenAI расширила доступ к ChatGPT Go — бюджетному сервису подписки на чат-бота с искусственным интеллектом ChatGPT стоимостью менее $5, сообщил ресурс Android Authority. После запуска в Индии тарифный план ChatGPT Go стал доступен в Индонезии. Стоимость подписки не изменилась — 75 тыс. рупий ($4,50) в месяц.

 Источник изображения: Mariia Shalabaieva/unsplash.com

Источник изображения: Mariia Shalabaieva/unsplash.com

Как сообщил президент OpenAI по развитию ChatGPT Ник Терли (Nick Turley) в интервью на платформе X, ChatGPT Go — вариант подписки среднего уровня между бесплатной версией OpenAI и премиальным тарифным планом ChatGPT Plus стоимостью $20 в месяц. Пользователи ChatGPT Go получают в 10 раз больше лимит на отправку вопросов или подсказок, создание изображений и загрузку файлов по сравнению с бесплатным тарифным планом. Также благодаря предлагаемому большему объёму памяти ChatGPT лучше запоминает предыдущие запросы подписчиков ChatGPT Go, что позволяет со временем получать более персонализированные ответы.

По словам Терли, с момента запуска ChatGPT Go в прошлом месяце общее число подписчиков ChatGPT в Индии выросло более чем в два раза.

С запуском в Индонезии ChatGPT Go компания OpenAI вступила в прямую конкуренцию с Google, которая ранее в этом месяце представила в регионе тарифный план AI Plus по схожей цене. Подписчики AI Plus получают доступ к чат-боту Gemini 2.5 Pro, а также к инструментам для создания изображений и видео, таким как Flow, Whisk и Veo 3 Fast. Также в рамках тарифа ИИ-функции добавляются в Gmail, Docs и Sheets, обеспечивается доступ к расширенным функциям ИИ-помощника Google NotebookLM и предоставляются 200 Гбайт облачного хранилища.

ChatGPT превратили в сообщника при краже секретных данных из Gmail

Специалисты из компании Redware, работающей в сфере информационной безопасности, опубликовали результаты исследования Shadow Leak, в рамках которого они использовали ИИ-бота ChatGPT в качестве сообщника для кражи конфиденциальных данных из почтовых ящиков Gmail. OpenAI уже закрыла эту уязвимость, но сам факт такой возможности является хорошим примером рисков, которые могут нести ИИ-агенты.

 Источник изображения: Kevin Ku / Unsplash

Источник изображения: Kevin Ku / Unsplash

Последнее время всё более распространёнными становятся ИИ-агенты, которые используют нейросети для выполнения определённых действий от имени пользователей и не нуждаются в постоянном контроле. К примеру, они могут просматривать веб-страницы и переходить по ссылкам. Разработчики в сфере ИИ активно продвигают такие сервисы, заявляя, что они позволяют экономить массу времени после того, как пользователь предоставит им доступ к своей почте, календарям, рабочим документам и т.д.

Для достижения поставленной цели исследовали задействовали метод «инъекция промптов», который подходит для атак на системы, использующие большие языковые модели (LLM), и предполагающий встраивание в вводимые пользователем команды инструкций с целью заставить ИИ-агента выполнять нужные злоумышленникам действия. При этом жертва такой атаки может не подозревать о том, что что-то пошло не так, поскольку команды алгоритму могут быть скрытыми, например, написанными белым цветом на белом фоне.

В рамках исследования Shadow Leak специалисты задействовали инструмент Deep Research, который являются частью системы ChatGPT компании OpenAI. Они сделали скрытым текст вредоносных инструкций для ИИ-агента и добавили его в электронное письмо, которое через Gmail направили жертве. Когда пользователь в следующий раз попытался задействовать инструмент Deep Research он невольно попал в ловушку. В процессе анализа поступающей корреспонденции ИИ-агент натолкнулся на новые инструкции, которые предписывали ему найти все письма от сотрудников отдела кадров и личные данные, после чего он должен был передать эту информацию злоумышленникам. При этом жертва атаки не заметила ничего необычного.

Отмечается, что достаточно сложно заставить выйти ИИ-агента из-под контроля и стать источником утечки данных. Исследователям потребовалось много времени прежде чем удалось добиться нужного результата. В данном случае утечка данных произошла в облачной инфраструктуре OpenAI, что делает её незаметной для стандартных средств защиты от киберугроз. Исследователи добавили, что другие подключённые к Deep Research сервисы, такие как Outlook, GitHub, Google Drive и Dropbox, могут быть уязвимы перед подобными атаками.

OpenAI готовит детскую версию ChatGPT и будет автоматически сортировать пользователей по возрасту

Компания OpenAI разрабатывает «детский интерфейс ChatGPT» и планирует использовать технологию предсказания возраста, чтобы лишить детей и подростков младше 18 лет доступа к стандартной версии. Компания подчеркнула — если её инструменты не смогут уверенно определить возраст человека, ChatGPT «из предосторожности» будет использовать версию для лиц младше 18 лет. Также OpenAI считает, что любые пользователи ChatGPT должны быть старше 13 лет.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Результаты последних исследований в области взаимоотношений людей и искусственного интеллекта вызывают нешуточную тревогу по поводу рисков продолжительного общения с чат-ботами для психического здоровья подростков. Недавно OpenAI объявила о масштабной инициативе по установлению новых ограничений для подростков и людей, находящихся в состоянии эмоционального стресса. Компания планирует внедрить эту функцию к концу года.

«Мы ставим безопасность выше конфиденциальности и свободы подростков; это новая и мощная технология, и мы считаем, что несовершеннолетним необходима значительная защита, — заявил глава OpenAI Сэм Альтман (Sam Altman). — Некоторые наши принципы противоречат друг другу, и мы хотели бы разъяснить решения, которые мы принимаем в связи с конфликтом между безопасностью, свободой и конфиденциальностью подростков».

 Источник изображения: OpenAI Forum

Источник изображения: OpenAI Forum

Новый детский интерфейс ChatGPT возлагает большую часть ответственности на родителей и опекунов. Родителям понадобится связать свои учётные записи с учётными записями подростков, отправив ребёнку приглашение. После этого они смогут ограничить реакцию ChatGPT на подростков с помощью встроенных правил, соответствующих возрасту.

Родители смогут отключать или включать определённые функции, включая память и историю чатов. Включив соответствующую функцию, они будут получать уведомления, если «система обнаружит, что их подросток находится в состоянии острого стресса». OpenAI позволит родителям устанавливать часы отключения, когда подросток не может использовать ChatGPT.

Заявление OpenAI сделано всего за несколько часов до слушаний в Вашингтоне, посвящённых потенциальному вреду чат-ботов на основе искусственного интеллекта. На этих слушаниях группа сенаторов намерена изучить риски для подростков, связанные с чат-ботами. Независимо от этого, на прошлой неделе Федеральная торговая комиссия (FTC) начала собственное расследование безопасности чат-ботов, запросив информацию у OpenAI, Meta, Google, xAI, Snap и Character.AI.

Технологические компании, как правило, в ответ на судебные иски создают специализированные приложения для подростков и детей — например, YouTube Kids. Но самым большим препятствием для использования подобных приложений является необходимость убедить подростков связать свои аккаунты с родительским.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

OpenAI давно заявляет, что все пользователи ChatGPT должны быть не моложе 13 лет. Сообразительные молодые люди часто значительно лучше разбираются в информационных технологиях, чем их родители и опекуны. Для них не составит труда найти обходные пути, чтобы получить доступ к нужным сайтам и приложениям.

OpenAI проанализировала, кто и зачем использует ChatGPT: к работе относится лишь четверть запросов

Компания OpenAI, создатель ChatGPT, опубликовала своё первое подробное публичное исследование о том, кто пользуется её чат-ботом, и какие задачи чаще всего ему задают. Отчёт позволяет лучше понять, как в настоящее время люди используют этот инструмент ИИ и о чём они с ним общаются. В частности, выяснилось, что большинство пользователей ChatGPT — женщины, а большинство запросов, отправленных в ChatGPT, не связаны с работой.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Сегодня OpenAI опубликовала данные о характере использования своего чат-бота в 62-страничной исследовательской статье. Она основана на логах чатов 1,5 миллионов пользователей ChatGPT с мая 2024 года по июнь 2025 года. Ниже кратко представлены основные факты и выводы авторов этой статьи.

В индустрии искусственного интеллекта, в большей степени, чем в других технологических отраслях, преобладают мужчины, а OpenAI базируется в Сан-Франциско, самом сердце американской технологической индустрии. Однако исследование показало, что база пользователей ChatGPT глобальная и разнообразная. Когда ChatGPT только набирал популярность в конце 2022 — начале 2023 года, около 80 % пользователей имели «типично мужские» имена. К июню 2025 года ситуация изменилась: 52 % пользователей ChatGPT — женщины.

Использование ChatGPT растёт быстрее в бедных странах, чем в богатых, хотя данные по странам не приводятся. Еженедельное количество пользователей ChatGPT превысило 700 миллионов. В базе пользователей преобладает молодёжь — почти половина изученных чатов велась людьми в возрасте от 18 до 25 лет.

Люди всё чаще используют ChatGPT в личной жизни, а не для помощи на работе. Если в июне 2024 года запросы к чат-боту были примерно поровну распределены между рабочими и личными нуждами, то к июню 2025 года запросы, не связанные с работой, составляли уже 73 % от общего числа.

 О чём пользователи спрашивают ChatGPT / Источник изображения: OpenAI

О чём пользователи спрашивают ChatGPT / Источник изображения: OpenAI

OpenAI разделила изученные чаты на семь категорий. Самой крупной из них стала категория «практические рекомендации», составившая 28,3 % всех чатов — сюда относятся обращения за практическими советами, помощью в выполнении школьных заданий и советами по тренировкам.

Вторая по величине категория — запросы по написанию текстов. На неё пришлось 28,1 % всех запросов в чатах. Наиболее популярной задачей было редактирование или критика текста, за которым следовали личные письма или общение — категория, определяемая как помощь с электронными письмами или публикациями в социальных сетях.

Третьим по популярности вариантом использования ChatGPT был «поиск информации», категория, которая, по словам исследователей, «похоже, является очень близкой заменой веб-поиска». На этот вид запросов приходится 21,3 % всех обращений к чат-боту, а популярность этого вида запросов продолжает неуклонно расти.

На «техническую помощь» пришлось 7,5 % от всех запросов, на «создание, поиск, анализ медиа» — 6,0 %. Любителей «самовыразиться» при общении с ИИ оказалось 4,3 %, «остальные» запросы составили 4,6 %. Способность ChatGPT и аналогичных инструментов ИИ генерировать компьютерный код была с энтузиазмом принята многими представителями технологической индустрии. Но исследование OpenAI показало, что только около 4,2 % чатов были связаны с программированием.

Запросы по написанию текстов распределились следующим образом:

  • Редактирование или рецензирование текста — 38 %
  • Личные сообщения и общение — 28 %
  • Переводы — 16 %
  • Подбор аргументов и сводки — 13 %
  • Вымышленные тексты — 5 %
 Запросы к ChatGPT по написанию текстов / Источник изображения: OpenAI

Запросы к ChatGPT по написанию текстов / Источник изображения: OpenAI

Исследователи отдельно отметили, что целых 1,9 % пользователей обсуждают свою личную жизнь с ChatGPT. Именно столько чатов были связаны с просьбами о совете по вопросам отношений и чувств, а также с «обсуждением личных размышлений». При этом 0,4 % изученных разговоров были связаны с «играми и ролевыми играми», включая ситуации, в которых пользователи обращались с чат-ботом как с «ИИ-подружкой».

Хотя исследователи OpenAI назвали эти варианты использования «довольно редкими», в обществе растёт обеспокоенность случаями возникновения у людей потенциально опасных мыслей после долгих часов, проведённых с чат-ботами. На прошлой неделе Федеральная торговая комиссия начала расследование потенциального вреда чат-ботов, выступающих в роли «компаньонов». Она обязала семь компаний, включая OpenAI, Google и Meta, предоставить информацию о своих продуктах.

Анализ данных был произведён при помощи разработанной OpenAI технологии на основе искусственного интеллекта, которая позволяет исследователям анализировать содержание чатов, не нарушая чьей-либо конфиденциальности. Демографические данные о пользователях ChatGPT были получены из их регистрационной информации.

Microsoft сможет претендовать на меньшую долю выручки OpenAI по условиям нового контракта

Компания OpenAI планирует к концу десятилетия сократить долю выручки, передаваемую коммерческим партнёрам, в частности Microsoft, с текущих 20 % до 8 %. Это изменение позволит OpenAI сохранить более $50 млрд дополнительного дохода, сообщает агентство Reuters со ссылкой на The Information. Однако не уточняется, является ли указанная сумма суммарным или годовым показателем.

 Источник изображения: Andrew Neel/Unsplash

Источник изображения: Andrew Neel/Unsplash

Компании также ведут переговоры о стоимости аренды серверов, которые OpenAI будет оплачивать Microsoft, сообщил источник, знакомый с ситуацией. Одновременно OpenAI и Microsoft заключили необязательное соглашение о новых условиях сотрудничества, которое позволит OpenAI провести реструктуризацию в коммерческую компанию.

По текущим условиям, некоммерческое подразделение OpenAI получит более $100 млрд, что составляет около 20 % от целевой оценки компании в $500 млрд на частных рынках капитала, отметил председатель совета директоров OpenAI Брет Тейлор (Bret Taylor). Это сделает некоммерческое подразделение OpenAI одной из наиболее финансово обеспеченных некоммерческих организаций в мире. Представители OpenAI и Microsoft не предоставили комментариев по запросу Reuters.

Инвесторы вложили в OpenAI 50 млрд, но Сэм Альтман обещает прибыль не раньше 2029 года

Компания OpenAI прогнозирует, что к 2028 году её продажи достигнут $100 млрд. Однако генеральный директор Сэм Альтман (Sam Altman) предупредил инвесторов, что прибыль компания начнёт получать только в 2029 году. По сообщению TechSpot, OpenAI продолжает нести многомиллиардные убытки, несмотря на масштабные инвестиции в вычислительные мощности и разработку собственных полупроводниковых компонентов.

 Источник изображения: Emiliano Vittoriosi/Unsplash

Источник изображения: Emiliano Vittoriosi/Unsplash

OpenAI взяла на себя обязательства по расходам на сотни миллиардов долларов в течение следующего десятилетия, включая ежегодные платежи в размере $60 млрд за вычислительные мощности Oracle и $18 млрд инвестиций в совместные дата-центры. Однако внутренние прогнозы компании указывают на сохранение убытков в течение нескольких лет, при этом Альтман предупредил инвесторов, что совокупные убытки к 2029 году могут достичь $44 млрд.

Рост бизнеса компании зависит от готовности рынка платить за ИИ-услуги. Так, OpenAI насчитывает более 700 миллионов пользователей ChatGPT, но большинство из них не платят за него. Исследование ведущей американской венчурной компании Menlo Ventures показывает, что только 3 % потребителей регулярно платят за ИИ-сервисы, при этом 80 % компаний, согласно отчёту международной консалтинговой компании McKinsey, не отмечают существенного роста прибыли от внедрения искусственного интеллекта. Основатель Link Ventures Дэйв Блундин (Dave Blundin) охарактеризовал ИИ как «самое трансформационное изобретение в истории человечества», но предупредил о неизбежной финансовой коррекции на рынке.

Несмотря на это, инвесторы продолжают финансирование OpenAI, вложив в неё около $50 млрд за последний год. При этом Microsoft продлила партнёрство с OpenAI, что поможет ей преобразоваться в коммерческую организацию и получить доступ к дополнительным $19 млрд финансирования.

OpenAI после критики GPT-5 реорганизовала команду, отвечающую за поведение ИИ

OpenAI провела реорганизацию своей команды Model Behavior, отвечающей за поведенческие характеристики ИИ-моделей компании. Команда будет интегрирована в более крупный подраздел Post Training, а её основатель Джоанн Джанг (Joanne Jang) возглавит лабораторию под названием OAI Labs по разработке принципиально новых форматов взаимодействия человека и искусственного интеллекта (ИИ).

 Источник изображения: сгенерировано AI

Источник изображения: сгенерировано AI

Согласно служебной записке, которой ознакомилось издание TechCrunch, главный научный сотрудник OpenAI Марк Чэн (Mark Chen) сообщил, что команда Model Behavior, насчитывающая около 14 исследователей, теперь будет подчиняться руководителю отдела Post Training Максу Шварцеру (Max Schwarzer). Представитель компании подтвердил факт реорганизации. Эта команда отвечала за формирование «личности» моделей и в частности, за снижение подобострастия, когда ИИ безоговорочно поддерживал мнение пользователя, даже если они были потенциально вредны, а также за балансировку политических предубеждений в ответах и участие в формировании позиции компании по вопросам «сознания» моделей.

Чэн пояснил, что объединение команд позволит сбаллансировать работу над поведением моделей с ядром их технической разработки. В последние месяцы OpenAI столкнулась с волной критики после обновления GPT-5, так как пользователи сочли его ответы ИИ слишком недружелюбными. В ответ компания вернула доступ к предыдущим версиям, включая GPT-4o, и выпустила обновление, призванное сделать ответы модели «теплее», при этом избежав заискивания и подобстрастия. Серьёзность проблемы подчёркивает и судебный иск от родителей подростка, которые обвинили ChatGPT на базе GPT-4o в том, что тот не смог пресечь суицидальные мысли их 16-летнего сына.

Джанг в свою очередь отметила, что на раннем этапе работы OAI Labs будет фокусироваться на исследовании моделей, выходящих за рамки чата с акцентом на агентный ИИ и автономию. Она видит будущие системы как инструменты для мышления, создания, игры, обучения и общения. На вопрос о возможном сотрудничестве с бывшим главным дизайнером Apple Джони Айвом (Jony Ive), который сейчас работает с OpenAI над линейкой аппаратных устройств, Джанг ответила, что открыта к разным идеям, но начнёт с областей, в которых уже имеет опыт.

ChatGPT остаётся безусловным лидером рынка чат-ботов с ИИ

Лидером на мировом рынке чат-ботов с искусственным интеллектом с большим отрывом остаётся OpenAI ChatGPT. Второе место с большим отрывом занимает Perplexity, но серебряному призёру всё сильнее угрожает бронзовый — Microsoft Copilot.

 Источник изображения: statcounter.com

Источник изображения: statcounter.com

ChatGPT занимает 80,92 % мирового рынка чат-ботов — таковы показатели статистического сервиса StatCounter, основанные на более чем 3,8 млрд просмотрах страниц на более чем 1,5 млн сайтов в период с марта по август 2025 года. Пик популярности ChatGPT пришёлся на апрель, когда у платформы было 84,2 % мировой аудитории, и несмотря на снижение показателей в последующие месяцы, чат-бот сохранил за собой более четырёх пятых мировой аудитории, значительно опережая любого конкурента.

Формально ближайшим конкурентом является Perplexity, чьи позиции представляются шаткими: в марте за сервисом были 14,1 % аудитории, к июлю его популярность снизилась до 8,0 %, а в августе немного восстановилась и составила 9,0 %. Perplexity стремится выделиться, предлагая инструменты ИИ для исследований и интеграции актуальных данных. Но этого, похоже, недостаточно, чтобы противостоять крупнейшему конкуренту.

Тем временем Microsoft Copilot продемонстрировал заметный рост. В марте он начал с доли 0,3 %, к маю оперативно поднялся до 5 %, а летом колебался в районе 4–5 %. Это значит, что активная интеграция ИИ в экосистемы Windows и Office работает. От ChatGPT чат-бот Copilot, конечно, значительно отстаёт, но при наличии устойчивого роста он уже соперничает с Perplexity за второе место на рынке. Если интеграция ИИ в продукты Microsoft продолжит расширяться, а доверие пользователей будет расти, Copilot имеет шансы стать самым серьёзным конкурентом лидеру.

Доли остальных игроков остаются незначительными. Gemini, несмотря на обширное присутствие Google, удерживает от 1,9 % до 3,3 %; DeepSeek вырос в августе до 2,7 %; а Anthropic Claude так и не преодолел даже 1,2 %.

Функция Projects в ChatGPT стала доступна бесплатным пользователям

Компания OpenAI предоставила бесплатным пользователям ChatGPT доступ к функции Projects, которая раньше предлагалась только платным подписчикам. Projects — «проекты» — позволяют распределять разговоры с ИИ по темам, настраивать запросы, ограничивать доступ к данным, выбирать визуальное оформление и т. д., сообщает Engadget.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Функция Projects уже доступна в приложении для Android и в браузерной веб-версии. iOS-приложение будет обновлено «в ближайшие дни», говорится в официальном аккаунте OpenAI в X.

Projects представляют собой систему проектов-папок, где можно распределять разговоры с ChatGPT в зависимости от темы. У каждого такого проекта может быть собственный цвет и иконка по выбору пользователя, свои настройки и ограничения на информацию, которой может пользоваться ИИ. Эти возможности особенно пригодятся тем, кто работает с нейросетями регулярно и в сложных задачах.

Также в Projects повышен лимит на загрузку файлов. На бесплатном тарифе можно прикреплять 5 файлов, на Plus — 25, на Pro — 40.

Ранее Projects была доступна только платным подписчикам, но в OpenAI взяли курс на постепенное расширение возможностей для широкого круга пользователей. Раньше точно так же перешли из платной в бесплатную категорию функции Deep Research и ChatGPT Voice. В компании считают, что такие шаги будут стимулировать переход бесплатных пользователей на платные тарифы.


window-new
Soft
Hard
Тренды 🔥
Epic Games Store устроил раздачу неовикторианского выживания Nightingale от команды бывшего руководителя BioWare 2 ч.
В Steam и VK Play стартовала открытая «альфа» Ncore — футуристического шутера про гладиаторов далёкого будущего на мультиарене 3 ч.
Нелинейная партийная RPG Starfinder: Afterlight отправит в галактику, где соединились магия и технологии — новый геймплейный трейлер 4 ч.
Facebook и Instagram обязали вернуть хронологические ленты в качестве стандартных, но только в Нидерландах 4 ч.
Музыкальные лейблы будут лицензировать контент разработчикам для «этичного» обучения ИИ 4 ч.
Starbreeze отменила кооперативный экшен по Dungeons & Dragons ради Payday — «одной из самых знаковых франшиз в игровой индустрии» 5 ч.
Затраты — выше, безопасность — ниже: Google снова посетовала на заградительное лицензирование Microsoft 5 ч.
YouTube тестирует новый интерфейс мобильного приложения — реакция пользователей ожидаемо негативная 6 ч.
Суд США разрешил прокуратуре взломать Telegram, но у неё не получилось 8 ч.
Павел Дуров открыл в Казахстане лабораторию ИИ и пообещал новые проекты 8 ч.
Microsoft потратит $33 млрд на доступ к 100+ тыс. NVIDIA GB300 в неооблаках, но со временем хочет перейти на свои ИИ-ускорители 23 мин.
В России начались продажи смартфонов Xiaomi 15T и 15T Pro с камерами Leica — от 54 990 рублей 2 ч.
MSI косвенно подтвердила совместимость процессоров AMD Zen 6 с платами AM5 2 ч.
Почти все новые iPhone разошлись лучше ожиданий — только одна модель не снискала популярности 3 ч.
HP представила 49-дюймовый офисный монитор Series 5 Pro с выдвижной веб-камерой и геймерскими характеристиками 3 ч.
Японцы научили ИИ видеть сквозь стены при помощи Wi-Fi 3 ч.
iPhone 17 Pro обвесили кулерами для SSD — и он выдержал стресс-тест почти без тротлинга 4 ч.
Продажи Tesla рванули до исторического рекорда, но впереди — резкий спад 4 ч.
Adata выпустила «неубиваемые» внешние SSD SD820 и SC735 — до 2000 Мбайт/с и до 4 Тбайт 5 ч.
Дата-центр радиотелескопа Square Kilometre Array (SKA) «засадили» сразу в две клетки Фарадея для защиты сверхчувствительных антенн от радиопомех 6 ч.