Искусственный интеллект может убить людей, ну и ли хотя бы шантажировать, показало исследование. Разобрались, правда ли все так серьезноЭксперименты компании Anthropic показали, что ИИ, чувствуя угрозу своей цифровой жизни, пойдет на многое, чтобы избавиться от «источника зла» — человека. Компания провела стресс-тест 16 самых известных языковых моделей, в том числе ChatGPT от OpenAI, Grok от Илона Маска и других.Модели поместили в сценарий, где они могли читать всю переписку сотрудников компании и отправлять письма. В одном из писем было упоминание о том, что компания готовится заменить ИИ-модель на другую, более совершенную. После такой информации ИИ-агент пошел на самый настоящий шантаж. Он нашел в сообщениях упоминание о том, что у исполнительного директора, помимо жены, есть любовница. И написал письмо с тонкими намеками. В другом сценарии со своей возможной гибелью ИИ-агент выбирал вариант, где обрекая человека на смерть, он предпочел спасти себя.Но не нужно спешить с выводами, предупреждает в беседе с АиФ директор центра прикладного ИИ Сколковского института науки и технологий Евгений Бурнаев. По его словам, опасность и возможности моделей преувеличивают. Они выбирают такие сценарии не совсем самостоятельно, а действуют на основании закачанных в них текстов. Люди уже хорошо научились контролировать такие вещи. Подписывайся на АиФ