Олег Царёв: До 80% книг на таких платформах, как Amazon, особенно в разделах о лечении травами или грибах написаны искусственным интеллектом

Олег Царёв
Олег Царёв - Бывший депутат Верховной Рады Украины от Партии регионов
Олег Царёв: До 80% книг на таких платформах, как Amazon, особенно в разделах о лечении травами или грибах написаны искусственным интеллектом

До 80% книг на таких платформах, как Amazon, особенно в разделах о лечении травами или грибах написаны искусственным интеллектом.

The Guardian и New Scientist выяснили, что многие издания содержат недостоверные или даже опасные советы. Так, в прошлом году грибников предупреждали не покупать книги, созданные чат-ботами, потому что в них встречались фатальные ошибки в рекомендациях, как различать съедобные и ядовитые грибы.

Каково будущее искусственного интеллекта и куда ведёт стремительное распространение машинно созданного контента?

Существует понятие «модельного коллапса» — явления, при котором ИИ начинает обучаться на собственных текстах, а не на человеческих. Первые поколения нейросетей развивались, анализируя огромное количество работ, созданных людьми, и именно поэтому их ответы казались осмысленными и глубоко контекстуальными, аИИ развивался и поражал нас своими возможностями. Однако рано или поздно он обработает всё, что было создано человеком, и начнёт обучаться на собственных текстах, написанных за последние годы. Это, как утверждают учёные, неизбежно приведёт к так называемому «коллапсу модели».

Исследование Оксфордского университета 2023 года показало: «Если на каждом поколении ИИ обучать на данных, сгенерированных предыдущим поколением, то качество модели деградирует экспоненциально».

Свежий анализ трёх тысяч ответов популярных языковых моделей, включая ChatGPT и Gemini. Оказалось, что почти половина ответов содержала серьёзные ошибки или искажения фактов, а более восьмидесяти процентов — неточности и поверхностные формулировки. Это свидетельствует о том, что качество машинных текстов уже начало снижаться: ИИ вырабатывает единообразный, упрощённый стиль и склонен избегать сложных тем ради «безопасных» и общих суждений.

Другими словами, ИИ постепенно начинает повторять самого себя, теряя способность к новизне, точности и смысловой глубине — «тупеет».

Будьте внимательны. Нейросети — полезный инструмент, но не стоит воспринимать ИИ как окончательный источник истины.

Олег Царёв. Подписаться.

Автор: Олег Царёв

Топ

Лента новостей