Помните все эти разговоры о том, что искусственный интеллект на войне, в политике и в руках государства — это не просто «технологический прогресс», а довольно опасная игрушка? Так вот, реальность снова подмигнула нам с той стороны, где обычно стоят юристы, чиновники и очень плохие оправдания.
В США разгорелась история с DOGE — структурой, связанной с сокращением госрасходов, где заметную роль играл Илон Маск с разрешения и одобрения Трампа. Американские чиновники урезали гуманитарные гранты и, как выяснилось в суде, использовали ChatGPT, чтобы решать, какие проекты «не подходят» под новую идеологическую линию.
Звучит как сатирический сериал. Но нет.
Под раздачу попали гранты для учёных, писателей, исследователей, университетов и гуманитарных организаций. Причём, по решению суда, проекты отбирали не по качеству научной работы и не по нарушению условий гранта, а по темам, связанным с расой, этничностью, религией, полом, сексуальной ориентацией, иммиграцией и прочими признаками, которые государству внезапно показались «нежелательными».
Самое комическое — если в этой истории вообще можно смеяться — началось в суде. Защита фактически пыталась представить использование ИИ как плюс: мол, решения принимал не человек с предубеждениями, а модель. Почти идеальная бюрократическая мечта: спрятать дискриминацию за интерфейсом чат-бота.
Но судья этот фокус не приняла.
По данным судебных материалов, сотрудники DOGE использовали ChatGPT для генерации обоснований прекращения грантов, причём без нормального определения того, что именно они считают DEI, и без осмысленной проверки результата. То есть машине дали мутную задачу, получили удобные ярлыки — и начали рубить финансирование.
Федеральная судья Колин Макмэхон назвала происходящее примером неконституционной дискриминации по взглядам и указала на нарушение Первой поправки и компонента равной защиты Пятой поправки. Проще говоря: государство не может отбирать деньги у проектов только потому, что ему не нравится их тема, взгляд или группа людей, о которых идёт речь.
И вот здесь история становится больше, чем очередной американский скандал.
Потому что это ровно тот вопрос, который мы всё чаще будем задавать в эпоху больших данных и ИИ: где заканчивается «мы просто использовали технологию» — и начинается ответственность конкретных людей?
Алгоритм не приходит утром на работу сам.
Он не открывает таблицу.
Не выбирает политическую цель.
Не подписывает решение.
Это делают люди. А потом, когда запахло судом, они говорят: «Ну, вообще-то, это ChatGPT».
Удобно, конечно. Почти как свалить разбитую вазу на кота. Только кот хотя бы живой, а не языковая модель.
И главный вывод здесь очень простой: искусственный интеллект не снимает ответственность. Он может ускорить решение. Упаковать его в аккуратные формулировки. Сделать дискриминацию похожей на административную процедуру. Но если за этим стоит власть, идеология и желание зачистить «неправильные» темы — это уже не технологическая ошибка.
Это политика.
С кнопкой Enter.
Теперь вы знаете больше