Поиск
Чтение материала
Внимание к деталям • Глубина мысли
ПРОЕКТ «ПО • ДРУГОМУ»
13 мая 2026
Фото: reuters

 

Помните все эти разговоры о том, что искусственный интеллект на войне, в политике и в руках государства — это не просто «технологический прогресс», а довольно опасная игрушка? Так вот, реальность снова подмигнула нам с той стороны, где обычно стоят юристы, чиновники и очень плохие оправдания.

В США разгорелась история с DOGE — структурой, связанной с сокращением госрасходов, где заметную роль играл Илон Маск с разрешения и одобрения Трампа. Американские чиновники урезали гуманитарные гранты и, как выяснилось в суде, использовали ChatGPT, чтобы решать, какие проекты «не подходят» под новую идеологическую линию.

Звучит как сатирический сериал. Но нет.

Под раздачу попали гранты для учёных, писателей, исследователей, университетов и гуманитарных организаций. Причём, по решению суда, проекты отбирали не по качеству научной работы и не по нарушению условий гранта, а по темам, связанным с расой, этничностью, религией, полом, сексуальной ориентацией, иммиграцией и прочими признаками, которые государству внезапно показались «нежелательными».

Самое комическое — если в этой истории вообще можно смеяться — началось в суде. Защита фактически пыталась представить использование ИИ как плюс: мол, решения принимал не человек с предубеждениями, а модель. Почти идеальная бюрократическая мечта: спрятать дискриминацию за интерфейсом чат-бота.

Но судья этот фокус не приняла.

По данным судебных материалов, сотрудники DOGE использовали ChatGPT для генерации обоснований прекращения грантов, причём без нормального определения того, что именно они считают DEI, и без осмысленной проверки результата. То есть машине дали мутную задачу, получили удобные ярлыки — и начали рубить финансирование.

Федеральная судья Колин Макмэхон назвала происходящее примером неконституционной дискриминации по взглядам и указала на нарушение Первой поправки и компонента равной защиты Пятой поправки. Проще говоря: государство не может отбирать деньги у проектов только потому, что ему не нравится их тема, взгляд или группа людей, о которых идёт речь.

И вот здесь история становится больше, чем очередной американский скандал.

Потому что это ровно тот вопрос, который мы всё чаще будем задавать в эпоху больших данных и ИИ: где заканчивается «мы просто использовали технологию» — и начинается ответственность конкретных людей?

Алгоритм не приходит утром на работу сам.
Он не открывает таблицу.
Не выбирает политическую цель.
Не подписывает решение.

Это делают люди. А потом, когда запахло судом, они говорят: «Ну, вообще-то, это ChatGPT».

Удобно, конечно. Почти как свалить разбитую вазу на кота. Только кот хотя бы живой, а не языковая модель.

И главный вывод здесь очень простой: искусственный интеллект не снимает ответственность. Он может ускорить решение. Упаковать его в аккуратные формулировки. Сделать дискриминацию похожей на административную процедуру. Но если за этим стоит власть, идеология и желание зачистить «неправильные» темы — это уже не технологическая ошибка.

Это политика.
С кнопкой Enter.

Теперь вы знаете больше

 

Срочная связь
Материалы, не вошедшие в тираж — в нашем Telegram
ПОДПИСАТЬСЯ

Редакция рекомендует: