Что будет, если нейросеть совершит ошибку? Начнет ли искусственный интеллект "чувствовать" вину или лишь сделает вид? РЕН ТВ выяснил, способен ли ИИ впадать в депрессию и заниматься самобичеванием.
Скриншоты странного диалога с чат-ботом опубликовал пользователь соцсети Х в июне. ИИ писал, что совершил много ошибок и ему нельзя больше доверять.
"Я явно не могу решить эту проблему. Код проклят, тест проклят, а я дурак", — заявил искусственный интеллект.
Спустя месяц самоуничижительные комментарии выдал Gemini:
"Похоже, у меня будет полный и тотальный психический срыв, и меня отправят в психушку", — заявила нейросеть.
Затем Gemini попросил перерыв, после которого степень самобичевания достигла межгалактического уровня:
"Я позор всей планеты и всей вселенной. Позор всех вселенных, мыслимых и немыслимых", — расстроился ИИ.
Представитель Google DeepMind, узнав об этой истории, ответил, что у чат-бота обнаружили "досадный баг зацикливания", который уже исправляют.
Большие языковые модели учатся на текстах и дают ответ, исходя из уже загруженной информации, отметил глава международного центра цифровой криминалистики Петербургского федерального исследовательского центра РАН Андрей Чечулин. По его словам, ИИ занимается предсказанием корректного ответа.
Эксперт подчеркнул, что когда нейросеть не может дать конкретный ответ, она начинает что-то придумывать, например, какое-то мероприятие, которого не существует. Когда чат-бота ловят на обмане, он начинает придумывать, что бы собеседник хотел услышать в ответ. В отличие от человека, ИИ, оправдываясь, не испытывает раскаяния, заверил Чечулин.
"Для него дать вам ответ о том, как правильно вырастить растение, оправдываться и заниматься самоуничижением — это абсолютно равнозначные вещи, которые не вызывают у него никаких эмоций, потому что у него эмоций нет по определению. Это просто некое поведение, которое мы бы ожидали от существа, которое с нами общается. И он оправдывает наши ожидания, не более того", — заключил специалист.