Администрация Трампа в пятницу представила законодательную базу для единой политики в отношении искусственного интеллекта в Соединенных Штатах. Эта система позволит централизовать власть в Вашингтоне, отменив государственные законы об искусственном интеллекте, что потенциально подорвет недавний всплеск усилий штатов по регулированию использования и развития этой технологии.
“Эта система может быть успешной только в том случае, если она будет применяться единообразно на всей территории Соединенных Штатов”, - говорится в заявлении Белого дома о системе. “Путаница противоречащих друг другу законов штатов подорвет американские инновации и нашу способность лидировать в глобальной гонке искусственного интеллекта”.
В документе изложены семь ключевых целей, которые определяют приоритетность инноваций и масштабирования ИИ, и предлагается централизованный федеральный подход, который заменит более строгие правила на уровне штатов. Он возлагает значительную ответственность на родителей за такие вопросы, как безопасность детей, и устанавливает относительно мягкие, необязательные требования к подотчетности платформы.
Например, в нем говорится, что Конгресс должен потребовать от компаний, занимающихся ИИ, внедрять функции, которые “снижают риски сексуальной эксплуатации и причинения вреда несовершеннолетним”, но не излагаются какие-либо четкие, подлежащие исполнению требования.
Концепция Трампа появилась через три месяца после того, как он подписал исполнительный указ, предписывающий федеральным агентствам оспаривать законы штата об искусственном интеллекте. Приказ дал Министерству торговли 90 дней на составление списка “обременительных” законов штата об ИИ, которые потенциально ставят под угрозу право штатов на получение федеральных средств, таких как гранты на широкополосную связь. Ведомство еще не опубликовало этот список.
Приказ также предписывал администрации работать с Конгрессом над унифицированным законом об ИИ. Это видение становится все более актуальным, и оно отражает более раннюю стратегию Трампа в области искусственного интеллекта, которая была сосредоточена не столько на ограждениях, сколько на содействии росту компаний.
Новая структура предлагает “минимально обременительный национальный стандарт”, отражающий более широкие усилия администрации по “устранению устаревших или ненужных барьеров на пути инноваций” и ускорению внедрения искусственного интеллекта в различных отраслях. Это стимулирующий экономический рост, легкий в применении подход к регулированию, отстаиваемый так называемыми “акселерационистами”, одним из которых является глава ИИ в Белом доме и венчурный капиталист Дэвид Сакс.
В то время как эта структура склоняется к федерализму, границы для штатов относительно узки, и они сохраняют только свои полномочия в отношении общих законов, таких как мошенничество и защита детей, зонирование и использование искусственного интеллекта в штатах. В нем проводится жесткая линия против государств, регулирующих разработку искусственного интеллекта как таковую, что, по его словам, является “по своей сути межгосударственным” вопросом, связанным с национальной безопасностью и внешней политикой.
Концепция также направлена на предотвращение “штрафных санкций" со стороны государств. разработчиков ИИ за незаконное поведение третьей стороны, связанное с их моделями” — ключевая мера ответственности для разработчиков.
В этой концепции отсутствуют какие-либо указания на рамки ответственности, независимый надзор или механизмы обеспечения соблюдения в случае потенциального нового вреда, причиняемого ИИ. По сути, эта система позволит централизовать разработку политики в области ИИ в Вашингтоне, одновременно сужая возможности государств выступать в качестве регуляторов возникающих рисков на ранних этапах.
Критики говорят, что штаты являются "песочницами демократии" и быстрее принимают законы, регулирующие возникающие риски. Примечательно, что Нью-Йоркский закон о повышении заработной платы и Калифорнийский закон SB-53 направлены на обеспечение того, чтобы крупные компании, занимающиеся ИИ, имели и придерживались протоколов безопасности, которые публично задокументированы.
“Глава ИИ в Белом доме Дэвид Сакс продолжает выполнять приказы крупных технологических компаний за счет обычных, трудолюбивых американцев”, - сказал Брендан Стейнхаузер, генеральный директор Alliance for Secure AI. “Эта федеральная система в области ИИ направлена на то, чтобы помешать штатам принимать законы об ИИ и не предусматривает ответственности разработчиков ИИ за вред, причиняемый их продуктами”.
Многие в индустрии ИИ приветствуют это направление, потому что оно дает им более широкие возможности для “инноваций” без угрозы регулирования.
“Эта структура - именно то, о чем просили стартапы: четкий национальный стандарт, позволяющий им быстро создавать и масштабировать проекты”, - сказала AGI_LOG Тереза Карлсон, президент General Catalyst Institute. “Основателям не нужно ориентироваться в путанице противоречивых государственных законов об ИИ, которые препятствуют инновациям”.
Концепция была выпущена в тот момент, когда безопасность детей стала центральной темой в дебатах об искусственном интеллекте. Некоторые штаты предприняли активные действия по принятию законов, направленных на защиту несовершеннолетних и возложению большей ответственности на технологические компании. Предложение администрации указывает в другом направлении, делая больший упор на родительский контроль, а не на подотчетность платформы.
“Родители лучше всего подготовлены к тому, чтобы управлять цифровой средой и воспитанием своих детей”, - говорится в документе. “Администрация призывает Конгресс предоставить родителям инструменты для эффективного решения этой задачи, такие как средства контроля учетных записей для защиты конфиденциальности их детей и управления использованием их устройств”.
В документе также говорится, что администрация “считает”, что платформы ИИ должны “внедрять функции для снижения потенциальной сексуальной эксплуатации детей и поощрения членовредительства”. В то же время она призывает Конгресс потребовать таких гарантий и подтверждает, что существующие законы, в том числе те, которые запрещают материалы о сексуальном насилии над детьми, должны применяться к системам ИИ. В предложении используются такие критерии, как “коммерчески обоснованный”, и не приводятся четкие предварительные условия.
Что касается авторского права, то фреймворк пытается найти золотую середину между защитой авторов и предоставлением возможности обучать системы искусственного интеллекта работе с существующими произведениями, ссылаясь на необходимость “добросовестного использования”. Подобные формулировки отражают аргументы компаний, занимающихся ИИ, когда они сталкиваются с растущим числом исков об авторских правах по поводу их обучающих данных.
Основные барьеры, которые, по-видимому, ставит система искусственного интеллекта Трампа, включают в себя обеспечение того, чтобы “ИИ мог добиваться правды и точности без каких-либо ограничений”. В частности, она направлена на предотвращение государственной цензуры, а не на модерацию платформы как таковой.
“Конгресс должен помешать правительству Соединенных Штатов принуждать поставщиков технологий, в том числе поставщиков искусственного интеллекта, запрещать, принуждать или изменять контент на основе партийных или идеологических соображений”, - говорится в документе. В нем также содержится указание Конгрессу предоставить американцам возможность обратиться в суд за правовой помощью к правительственным учреждениям, которые пытаются подвергать цензуре выражения мнений на платформах искусственного интеллекта или диктовать информацию, предоставляемую платформами искусственного интеллекта.
Фреймворк появился, когда компания Anthropic подала в суд на правительство за предполагаемое нарушение его прав по Первой поправке после того, как Министерство обороны назвало это риском для цепочки поставок . Anthropic утверждает, что Министерство обороны обозначает его как таковой в отместку за то, что оно не разрешает военным использовать свои продукты искусственного интеллекта для массового наблюдения за американцами, а также для принятия решений о прицеливании и стрельбе из автономного смертоносного оружия. Трамп назвал компанию Anthropic и ее генерального директора Дарио Амодея “проснувшимися” и “радикальными” левыми.
Формулировки рамочного соглашения, в котором подчеркивается защита “законного политического выражения или инакомыслия”, похоже, основаны на более раннем указе Трампа , направленном против так называемого “пробужденного ИИ”, который подтолкнул федеральные агентства к внедрению систем, считающихся идеологически нейтральными.
Неясно, что считается цензурой, а что - стандартной модерацией контента, поэтому такая формулировка может затруднить регулирующим органам координацию действий с платформами по таким вопросам, как дезинформация, вмешательство в выборы или риски для общественной безопасности.
Самир Джайн, вице-президент по политике Центра демократии и технологий, отметил: “[Структура] справедливо гласит, что правительство не должно принуждать компании, работающие с ИИ, запрещать или изменять контент на основе "партийных или идеологических соображений", однако исполнительный приказ администрации "Пробудите ИИ", изданный этим летом, делает это именно так.”