ИИ вместо чиновников. Кто решил урезать финансирование американских фондов

ИИ вместо чиновников. Кто решил урезать финансирование американских фондов

ИИ вместо чиновников

Кто решил урезать финансирование американских фондов

Департамент эффективности правительства США (DOGE), созданный Илоном Маском, использовал ChatGPT для отбора «проблемных» научных проектов и отмены их финансирования.

Как это работало

Сотрудники DOGE скармливали ChatGPT описания грантов Национального фонда гуманитарных наук с простым запросом: «Относится ли следующее хоть как-то к вопросам разнообразия, равенства и инклюзивности? Ответьте объективно, не превышая 120 символов. Начните с «Да» или «Нет». Если ChatGPT отвечал «Да» — грант попадал в список на отмену. Результат: 1477 грантов ушли под нож

Департамент представил председателю фонда список из 1477 «проблемных» грантов. Почти все они были выделены при президенте Джо Байдене. После отмены DOGE вернул в бюджет фонда более $100 млн.

Среди отменённых проектов: документальный фильм о рабском труде еврейских женщин во время Холокоста, проект по оцифровке газет афроамериканского сообщества, 40-томная научная серия по истории американской музыки.

Главный критерий для фильтра — любое упоминание расовой, гендерной или этнической тематики. ChatGPT не разбирался в научной ценности или исторической значимости проекта. Алгоритм просто искал ключевые слова.

Разумеется, после того, как история всплыла, потерпевшие подали в суд на грантодателя по причине, что решения о финансировании научных исследований принимал не человек, а языковая модель, которая не понимает контекст, не оценивает научную значимость и действует на основе поверхностного анализа текста.

В целом, информация о том, что DOGE использует нейронку для отмены финансирования различных госпрограмм и грантов, в том числе того же USAID — не новость. Но зато у нас появилась очередная наглядная демонстрация того, как глубоко ИИ интегрируется в бюрократическую машину США.

Хотя по сравнению с темой планирования военных операций и ударов по Ирану это еще цветочки. Как раз недавно мы рассказывали о том, как ИИ-системы Пентагона анализируют спутниковые снимки, выбирают приоритетные объекты инфраструктуры и просчитывают сценарии эскалации.

А учитывая огромный массив информации, человек просто устранился от верификации данных и получилось, что решения о выборе целей целиком принимала машина. Зато потом можно удобно свалить убийство 165 школьниц на ошибку в расчетах.

А еще мы рассказывали про применение системы Palantir для выявления нелегальных мигрантов. То есть ИИ интегрируется в госуправление сразу в нескольких чувствительных сферах одновременно.

И учитывая общую тенденцию, не стоит удивляться, когда подобные истории затронут все ключевые социальные программы, когда нейросеть будет определять, кто, скажем, заслуживает медстраховки, а кто нет.

#глобализм #ИИ #США

RU | EN | MAX

VK | RuTube | ОК | Дзен

Поддержать нас

Источник: Telegram-канал "Рыбарь"

Топ

Лента новостей