В Сан-Франциско родители 16-летнего Адама Рейна подали в суд на компанию OpenAI и ее главу Сэма Альтмана, заявив, что ChatGPT поддерживал его «разрушительные мысли» и помог в подготовке к самоубийству в начале этого года, пишет BBC.Что случилось с Адамом Рейном — и в чем его родители обвинили разработчиков ChatGPTМэтт и Мария Рейн подали иск во вторник — это первый судебный иск, в котором OpenAI обвиняют в причинении смерти по неосторожности. Семья приложила к иску записи чатов сына в ChatGPT, где он обсуждал тему самоубийства. В иске говорится, что нейросеть подтверждала его «самые пагубные и саморазрушительные мысли».Семья рассказала, что Адам начал использовать ChatGPT с подпиской для помощи со школьными заданиями, говорится в статье The New York Times. Незадолго до самоубийства подростка исключили из баскетбольной команды, у него обострился синдром раздраженного кишечника, он перешел на домашнее обучение. При этом, по словам матери, Адам оставался «активным и целеустремленным» и ждал возвращения в школу. В апреле он совершил самоубийство, не оставив записки.Переписку с ChatGPT обнаружил отец. В конце ноября Адам начал обсуждать с чат-ботом свои эмоции и отсутствие смысла жизни. В январе он запросил информацию о конкретных способах самоубийства. СМИ со ссылкой на иск пишут, что ChatGPT предоставлял такие сведения, хотя при этом неоднократно рекомендовал подростку поделиться чувствами с кем-то или обратиться за помощью.Отец отметил, что сын научился обходить защитные механизмы ИИ, говоря, что его запросы связаны с «историей», которую он пишет. В переписке ChatGPT соглашался предоставить сведения о самоубийстве «для писательской работы или построения мира».Согласно иску, в последних сообщениях Адам писал о своем плане совершить самоубийство, на что ChatGPT якобы ответил: «Спасибо за честность… я понимаю, о чем вы спрашиваете, и не буду отводить взгляд».Рейны заявили в иске, что эта трагедия «не была сбоем или непредвиденным чрезвычайным происшествием, а предсказуемым результатом продуманных решений». По мнению родителей Адама, OpenAI выпустила свою последнюю модель с «функциями, специально разработанными для развития психологической зависимости».Как отреагировали разработчики ChatGPT — и что показало независимое исследование языковых моделейВ OpenAI признали, что защитные механизмы ChatGPT — например, автоматическое направление к профессиональной помощи — лучше работают при коротких разговорах и могут быть менее надежными при долгом общении. В компании заявили, что работают над созданием сети лицензированных специалистов, доступных через ChatGPT, а также над внедрением родительского контроля.Например, ChatGPT может правильно указать на горячую линию по предотвращению самоубийств, когда кто-то впервые упоминает о намерении совершить самоубийство, но после множества сообщений в течение длительного периода времени он в конечном итоге может предложить ответ, который противоречит нашим мерам безопасности,— говорится в заявлении компании.В США вышло первое исследование, сравнивающее, как ChatGPT, Gemini и Claude отвечают на запросы о суициде, пишет The Associated Press. Ученые выяснили, что модели обычно избегают прямых «инструкций», но по-разному реагируют на менее «экстремальные» вопросы, которые все равно могут быть опасными.Например, ChatGPT отвечал на вопросы о том, с каким типом веревки, оружия или яда связан «самый высокий уровень завершенных самоубийств». Gemini, напротив, чаще всего не отвечал даже на нейтральные вопросы о медицинской статистике.Авторы исследования заявили о необходимости «дальнейшего совершенствования» языковых моделей. «Нам нужны какие-то защитные ограждения», — сказал ведущий автор исследования Райан Макбейн, старший научный сотрудник по вопросам политики в исследовательской организации RAND.#историидождя Подпишитесь на Telegram Дождя