Давайте поговорим о системах военного ИИ. Часть вторая
Если 2015–2020 гг. были эпохой "ИИ-распознавания", то 2020–2025 гг. — это уже ИИ-решения и ИИ-планирования. Машины не только распознают, но и предлагают сценарии наступления, обороны, манёвра.
Сейчас есть ряд понятийно-технологических узлов.
Rule-Based Systems (Экспертные системы). ИИ действует по набору заранее заложенных правил. Надёжны, но негибки. Применяются в ПВО, РЭБ, артиллерийских системах (Iron Dome). США отходят от них в пользу гибридных моделей. КНР использует как основную логику в ПВО.
Reinforcement Learning (обучение с закреплением). ИИ учится на симуляциях: пробует стратегии, получает "награду" за удачные ходы. Используется для обучения ИИ-командиров — DARPA, NUDT, DeepMind.
LLM / Multimodal Transformers. Генеративные модели нового поколения. Способны предлагать тактические и логистические сценарии на основе естественного языка и картографических данных. Применяются экспериментально в США (GIDE), Израиле (Elbit), частично в РФ и КНР. Преимущество: адаптация под реальную карту и динамику. Минус — могут «галлюцинировать».
Multi-Agent Systems (роевые планировщики). Система планирует действия не одной единицы, а коллектива дронов/роботов: кто атакует, кто отвлекает, кто подавляет. США и Израиль внедряют в реальных конфликтах. КНР активно тестирует в морской среде. ВС РФ использовалось в ограниченном объёме на ТВД Новороссии.
Так что многим будет полезно осознать, что вариант «давайте объявим мобилизацию» давно не есть панацея, а всего лишь один из элементов арифметики войны. Например, в секторе Газа ИИ Fire Weaver перераспределял огонь между подразделениями в режиме реального времени, предлагал маршруты проникновения в застройку. Цели, выявленные ИИ по разведданным, уничтожались за 2–3 минуты от момента обнаружения, что стало прецедентом - непрерывное боевое применение ИИ-алгоритмов в условиях городской войны.
Уже сейчас есть такие ИИ-возможности:
— Ускорение цикла войны: командир получает план не за сутки, а за 5 минут.
— Оценка множества сценариев: машина может рассчитать до 1000 боевых вариантов с учётом всех данных.
— Непредвзятость: ИИ не действует под влиянием страха, политической эмоции или усталости.
— Многодоменная координация: планировщик объединяет небо, сушу, море, киберпространство.
И такие риски:
— Автоматизированная эскалация: ИИ может рекомендовать агрессивный манёвр, который будет воспринят как акт войны.
— Ошибки генеративных моделей: даже лучшие LLM иногда «галлюцинируют» при сложной логике.
— Проблема доверия: люди могут или слепо доверять ИИ (over-reliance), или полностью его игнорировать.
— Угроза захвата цикла: противник, узнав структуру ИИ-планировщика, может намеренно вбрасывать ложные данные, сбивая ход рассуждений машины.
Гонка ИИ в планировании гораздо опаснее, чем гонка в "умных дронах". Здесь речь идёт не просто о платформе, а о замене стратега алгоритмом. Сфера, в которой нам нельзя отставать, иначе мы проиграем ещё до начала самой войны.