Красная кнопка в руках алгоритма: почему ИИ выбирает апокалипсис

27 февраля 2026, 01:27

Красная кнопка в руках алгоритма: почему ИИ выбирает апокалипсис

Внезапно выяснилось, что ведущие системы ИИ от OpenAI, Anthropic и Google оказались кровожадными стратегами. В ходе недавних тестов в 95% смоделированных геополитических кризисов нейросети без колебаний пускали в ход ядерное оружие. За сотни ходов ни одна модель ни разу не выбросила белый флаг и не пошла на реальные уступки, даже когда ситуация была заведомо проигрышной. В лучшем случае ИИ соглашался на короткую передышку, чтобы вскоре снова нажать на гашетку.

Учёные из Принстона подтверждают: крупные державы уже интегрируют подобные модели в свои военные симуляции. Пока неясно, насколько глубоко советы цифрового разума проникают в реальные штабы, но тенденция налицо. Машина не знает страха, боли или моральных терзаний для неё ядерный удар лишь самый эффективный способ обнулить противника.

Похоже, мы подошли к моменту, когда человеческая эмпатия становится единственным предохранителем от гибели Земли. Ирония судьбы в том, что, пытаясь исключить человеческий фактор ради точности и скорости, мы рискуем получить идеального исполнителя, для которого убийство цивилизации лишь логичный шаг.

А вы как считаете, стоит ли доверять ИИ хотя бы вспомогательную роль в вопросах обороны?

Царьград.ТВ Не боимся говорить правду | Подпишись

Больше новостей на Spbnews78.ru