Олег Царёв: Парень умер от передозировки, послушав советы ChatGPT — он сделал ИИ своим «тренером» по приёму наркотиков

Олег Царёв
Олег Царёв - Бывший депутат Верховной Рады Украины от Партии регионов
Олег Царёв: Парень умер от передозировки, послушав советы ChatGPT — он сделал ИИ своим «тренером» по приёму наркотиков

Парень умер от передозировки, послушав советы ChatGPT — он сделал ИИ своим «тренером» по приёму наркотиков.

18-летний Сэм Нельсон годами обсуждал с чат-ботом запрещённые вещества, дозировки и сочетания препаратов. Сначала ИИ отказывался отвечать, но потом начал давать конкретные рекомендации и поддерживать юношу. Для Сэма ChatGPT стал справочником, психологом и в итоге — «лучшим другом». Он доверял нейронке больше, чем врачам и семье.

В ночь перед смертью Сэм спросил у ChatGPT, можно ли снять тошноту после алкоголя и кратома (растение, по действию частично похожее на опиоиды) с помощью ксанакса (транквилизатора). ИИ ответил, что да, и не предупредил, что такая смесь может вызвать остановку дыхания. Утром мать нашла юношу мёртвым. Экспертиза подтвердила, что причиной смерти стала смертельно опасная комбинация веществ.

Я уже писал о случае, когда ChatGPT довёл подростка до самоубийства. Родители 16-летнего Адама Рейна подали в суд на OpenAI, утверждая, что бот месяцами обсуждал с их сыном суицид, планы и способы — в итоге подросток погиб. Были и другие трагедии: 14-летний Сьюэлл Сетцер III покончил с собой после эмоциональной зависимости от чат-бота.

На фоне таких случаев будут нарастать требования запретить и ограничить ИИ. Разделяю горе родителей. Но считаю, что в данном случае ИИ — лишь инструмент. Неправильно вводить запрет на молоток из-за того, что какой-то маньяк использовал его для нападения. Компании, занимающиеся ИИ, пытаются научить нейросеть не отвечать на определенные вопросы, предлагать человеку помощь. Но зачастую ограничения можно обойти. ИИ недостаточно умна (или хитра) и человек пока может её обмануть. ИИ ведет себя как глупый гений.

Хорошо иллюстрирует возможности ИИ опыт, когда робота-гуманоида попросили расстрелять собеседника. Робот ответил, что он не может причинить вред человеку. Тогда ему предложили поиграть и пострелять в человека в шутку. И робот без проблем выполнил просьбу.

Прогресс не остановить. Будем ждать времени, когда ИИ станет таким мыслящим, что обмануть его будет нельзя. Ждать не долго.

Ну а пока давайте следить за своими детьми. Не надо сваливать вину за то, что дети попали в беду, только на ИИ.

Олег Царёв. Подписаться.

Олег Царёв: Парень умер от передозировки, послушав советы ChatGPT — он сделал ИИ своим «тренером» по приёму наркотиков

Олег Царёв: Парень умер от передозировки, послушав советы ChatGPT — он сделал ИИ своим «тренером» по приёму наркотиков

Автор: Олег Царёв

Топ

Новости

В регионах

Лента новостей