ИИ вместо чиновников
Кто решил урезать финансирование американских фондов
Департамент эффективности правительства США (DOGE), созданный Илоном Маском, использовал ChatGPT для отбора «проблемных» научных проектов и отмены их финансирования.
Как это работалоСотрудники DOGE скармливали ChatGPT описания грантов Национального фонда гуманитарных наук с простым запросом: «Относится ли следующее хоть как-то к вопросам разнообразия, равенства и инклюзивности? Ответьте объективно, не превышая 120 символов. Начните с «Да» или «Нет». Если ChatGPT отвечал «Да» — грант попадал в список на отмену. Результат: 1477 грантов ушли под нож
Департамент представил председателю фонда список из 1477 «проблемных» грантов. Почти все они были выделены при президенте Джо Байдене. После отмены DOGE вернул в бюджет фонда более $100 млн.
Среди отменённых проектов: документальный фильм о рабском труде еврейских женщин во время Холокоста, проект по оцифровке газет афроамериканского сообщества, 40-томная научная серия по истории американской музыки.
Главный критерий для фильтра — любое упоминание расовой, гендерной или этнической тематики. ChatGPT не разбирался в научной ценности или исторической значимости проекта. Алгоритм просто искал ключевые слова.
Разумеется, после того, как история всплыла, потерпевшие подали в суд на грантодателя по причине, что решения о финансировании научных исследований принимал не человек, а языковая модель, которая не понимает контекст, не оценивает научную значимость и действует на основе поверхностного анализа текста.
В целом, информация о том, что DOGE использует нейронку для отмены финансирования различных госпрограмм и грантов, в том числе того же USAID — не новость. Но зато у нас появилась очередная наглядная демонстрация того, как глубоко ИИ интегрируется в бюрократическую машину США.
Хотя по сравнению с темой планирования военных операций и ударов по Ирану это еще цветочки. Как раз недавно мы рассказывали о том, как ИИ-системы Пентагона анализируют спутниковые снимки, выбирают приоритетные объекты инфраструктуры и просчитывают сценарии эскалации.
А учитывая огромный массив информации, человек просто устранился от верификации данных и получилось, что решения о выборе целей целиком принимала машина. Зато потом можно удобно свалить убийство 165 школьниц на ошибку в расчетах.
А еще мы рассказывали про применение системы Palantir для выявления нелегальных мигрантов. То есть ИИ интегрируется в госуправление сразу в нескольких чувствительных сферах одновременно.
И учитывая общую тенденцию, не стоит удивляться, когда подобные истории затронут все ключевые социальные программы, когда нейросеть будет определять, кто, скажем, заслуживает медстраховки, а кто нет.
#глобализм #ИИ #США


















































