Поделиться
VK Telegram OK

Дорожная карта для ИИ, если кто-нибудь прислушается

Искусственный интеллект
AGILog · 2026-03-08 06:05

В то время как разрыв Вашингтона с Anthropic выявил полное отсутствие каких-либо согласованных правил, регулирующих искусственный интеллект, двухпартийная коалиция мыслителей собрала то, что правительство до сих пор отказывалось создавать: концепцию того, как на самом деле должна выглядеть ответственная разработка искусственного интеллекта.

Декларация в защиту прав человека была подготовлена до противостояния Пентагона и антропологов на прошлой неделе, но столкновение этих двух событий не ускользнуло от внимания всех участников.

“Только за последние четыре месяца в Америке произошло нечто весьма примечательное”, - сказал Макс Тегмарк, физик из Массачусетского технологического института и исследователь искусственного интеллекта, который помогал организовать работу в беседе с этим редактором. “Опросы общественного мнения неожиданно [показывают], что 95% всех американцев выступают против нерегулируемой гонки за сверхразум”.

Недавно опубликованный документ, подписанный сотнями экспертов, бывших чиновников и общественных деятелей, начинается с серьезного замечания о том, что человечество находится на развилке дорог. Один из путей, который в декларации назван “гонкой за заменой”, ведет к вытеснению людей сначала как работников, а затем как лиц, принимающих решения, по мере того, как власть переходит к неподотчетным институтам и их машинам. Другой путь ведет к ИИ, который значительно расширяет человеческий потенциал.

Последний сценарий основан на пяти ключевых принципах: сохранение контроля над людьми, недопущение концентрации власти, защита человеческого опыта, сохранение свободы личности и привлечение компаний, занимающихся ИИ, к юридической ответственности. Среди его наиболее весомых положений - прямой запрет на разработку сверхразума до тех пор, пока не будет достигнут научный консенсус, что это может быть сделано безопасно и при подлинной демократической поддержке; обязательное отключение мощных систем; и запрет на архитектуру, способную к самовоспроизведению, автономному самосовершенствованию или сопротивлению остановке.

Обнародование декларации совпало с неделей, которая значительно облегчила понимание ее срочности. Министр обороны Пит Хегсет назвал компанию Anthropic, чей искусственный интеллект уже работает на секретных военных платформах, “угрозой для цепочки поставок” после того, как компания отказалась предоставить Пентагону неограниченное использование своей технологии, что обычно относится к фирмам, имеющим связи с Китаем. Несколько часов спустя OpenAI заключила собственное соглашение с Министерством обороны, которое, по мнению экспертов-юристов, будет трудно обеспечить каким-либо значимым образом. Все это продемонстрировало, насколько дорогостоящим стало бездействие Конгресса в отношении ИИ.

Как сказал Дин Болл, старший научный сотрудник Фонда американских инноваций, сегодня в интервью New York Times: “Это не просто какой-то спор по поводу контракта. Это первый разговор, который мы, как страна, ведем о контроле над системами искусственного интеллекта”.

Тегмарк привел аналогию, понятную большинству людей, когда мы говорили. “Вам никогда не придется беспокоиться о том, что какая-нибудь фармацевтическая компания выпустит какое-то другое лекарство, которое причинит огромный вред, прежде чем люди поймут, как сделать его безопасным, - сказал он, - потому что FDA не разрешит им выпускать что-либо, пока оно не станет достаточно безопасным”.

Войны за влияние в Вашингтоне редко вызывают такое общественное давление, которое приводит к изменению законов. Вместо этого Тегмарк рассматривает безопасность детей как точку соприкосновения, которая, скорее всего, позволит выйти из нынешнего тупика. (Действительно, декларация призывает к обязательному тестированию продуктов искусственного интеллекта перед внедрением, в частности чат-ботов и сопутствующих приложений, ориентированных на молодых пользователей, с учетом рисков, включая повышенные суицидальные мысли, обострение психических расстройств и эмоциональное манипулирование.)

“Если какой-то жуткий старик пишет 11-летнему мальчику, притворяясь маленькой девочкой, и пытается склонить этого мальчика к самоубийству, парень может отправиться за это в тюрьму”, - сказал Тегмарк. “У нас уже есть законы. Это незаконно. Так почему же все по-другому, если это делает машина?”

Он считает, что как только принцип предпродажного тестирования будет введен для детских товаров, сфера применения расширится почти неизбежно. “Люди придут и скажут: "Давайте добавим несколько других требований. Возможно, нам также следует проверить, не поможет ли это террористам в создании биологического оружия. Возможно, нам следует проверить, чтобы убедиться, что сверхразум не способен свергнуть правительство США”.

Одним из аргументов является широта коалиции. Бывший советник Трампа Стив Бэннон поддержал его, как и Сьюзан Райс, бывший советник по национальной безопасности США и советник президента Обамы по политическим вопросам. Бывший председатель Объединенного комитета начальников штабов Майк Маллен подписал документ, как и лидеры прогрессивных конфессий.

“В чем они, конечно, сходятся, так это в том, что все они люди”, - говорит Тегмарк. “Если дело дойдет до того, хотим ли мы будущего для людей или для машин, то, конечно, они будут на одной стороне”.