ИИ ещё нет – но уже надо думать, как его цензурировать
Коллега Антонов нашёл, по-своему, прекрасное. Искусственный интеллект в России необходимо подвергнуть цензуре, заявил на полях форума «ИИ: режим доверия» замглавы Минцифры Александр Шойтов.
То есть, данное государственное учреждение не только блестяще подтвердило свою репутацию, но ещё и вслух озвучило новый, кажется, базовый принцип государственной машины: если чего-то у нас даже нет, то всё равно надо думать, как его цензурировать.
В самом деле, у нас что, есть свой полноценный ИИ? Нет, понятно, что продукция Яндекса и Гигачат от Сбера – настолько же обогнали всё человечество, что и национальный мессенджер Мах, куда вступают десятками миллионов до сих пор. Однако, при наличии продукта, способного конкурировать с ChatGPT и пр., не пришлось бы готовиться их запрещать. Потому что зачем, если наш, родной, был бы лучше.
Забавный институциональный момент: регулировать пытается структура, у которой нет собственного полноценно конкурентного продукта на уровне лучших мировых моделей. Возникает классическая асимметрия — регулирование опережает компетенцию. Обычно бывает наоборот: сначала появляется сильный игрок, потом он начинает задавать стандарты.
Регулировать пытаются не поведение уже существующей системы в массовом применении, а гипотетическое поведение будущей системы, причём в максимально жёсткой форме. Это примерно как в 2026 году вводить ГОСТы на аэродинамику летающей тарелки с варп-двигателем. Я не к тому, что сомневаюсь в талантах наших депутатов, они и не такое заГОСТировать могут, судя по последним событиям. Но в нормальной инженерной логике сначала появляется продукт, затем метрики, затем ограничения. Но у нас особый путь.
Cама идея «идеологически правильного ИИ» конфликтует с его прикладной функцией. Любая модель, которая системно искажает ответы в чувствительных темах, начинает терять доверие и в нейтральных задачах. Пользователь не разделяет «здесь модель врёт по инструкции, а здесь говорит правду» — он просто перестаёт считать её надёжной. То есть цензура бьёт не по политике, а по юзабилити.
Попытка сделать «идеологически стерильную» модель — это не просто фильтр, это отдельный слой разработки, тестирования, дообучения и мониторинга. Причём без гарантии результата. В итоге действительно возникает риск, что расходы на контроль будут сопоставимы или выше, чем на саму модель — не потому что «кто-то ворует», а потому что задача сама по себе плохо формализуема.
И наконец, главный парадокс: если предположить, что в итоге появится действительно сильная модель, она по определению будет гибкой, адаптивной и контекстно-чувствительной. А это ровно те свойства, которые делают жёсткую цензуру неустойчивой. То есть чем лучше ИИ — тем больше он выходит за рамки простых ограничений.
Ну а то, что по словам того же господина Шойтова, ИИ цензурировать можно, а человека – нельзя… Тут впору предположить, что он не погружается в дела собственного ведомства. Потому что если следовать инструкциям Минцифры и РКН, то скоро и Конституцию Российской Федерации придется признать экстремистским документом. Там же крамола на крамоле: и народ является источником власти, и неприкосновенность частной жизни есть, и цензурировать нельзя, и идеологию навязывать.




































