Тысяча целей за сутки. Или как человек передал машине ответственность за убийство

Тысяча целей за сутки. Или как человек передал машине ответственность за убийство

Тысяча целей за сутки

Или как человек передал машине ответственность за убийство

28 февраля 2026 года, в первый день операции «Эпическая ярость», американская военная машина сделала то, что прежде занимало недели штабной работы: за 24 часа были идентифицированы, приоритизированы и переданы на поражение около 1000 целей на территории Ирана.

За этим результатом стоит не разведка в привычном понимании, а связка двух технологий — системы Palantir Maven Smart System и языковой модели Claude от компании Anthropic.

Как это работало:

Maven поглощал потоки данных от спутников, разведывательных дронов, сигнальной разведки и аналитических баз, превращая их в структурированный массив.

Claude — крупная языковая модель, интегрированная в закрытый военный контур — «склеивал» это в готовые пакеты целей: координаты, рекомендации по вооружению и даже автоматизированные правовые обоснования каждого удара для соблюдения законов войны.

Офицер в этой цепочке фактически выполнял роль финального ревизора на уже готовое машинное решение.

Washington Post пишет, что интеграция произошла не без трений: внутри Anthropic часть сотрудников выступала против военных контрактов, ссылаясь на принципы «ответственного ИИ».

Но Пентагон и Palantir нашли правовую схему, при которой Claude работает как «аналитический инструмент» в военной сети — формально не принимая «летальных решений», а лишь «предлагая» цели. На практике эта разница исчезающе мала: когда машина выдаёт 1000 целей с координатами и правовыми обоснованиями, а человек физически не в состоянии проверить каждую за разумное время, решение де-факто принимает алгоритм.

ИИ-наведение превратилось из технологической концепции в стандартную военную практику. Скорость формирования целей выросла на порядки; глубина «видения» системы охватывает не только очевидные объекты, но и логистику, связь, энергетику — создавая «сетевой портрет» противника, который невозможно построить человеческими силами.

Но вместе с эффективностью пришёл новый тип риска: когда цель «предложила» машина, а офицер лишь нажал кнопку, цепочка моральной и правовой ответственности становится намеренно запутанной.

Этим уже пользуются юридические службы Пентагона и ЦАХАЛ — выстраивая архитектуру, при которой «летальное решение» формально всегда остаётся за человеком, но в реальности его принимает алгоритм.

#глобализм #ИИ #Иран #Израиль #США #оружие

RU | EN | MAX

VK | RuTube | ОК | Дзен

Поддержать нас

Источник: Telegram-канал "Рыбарь"

Топ

Лента новостей