Вы можете составить график выпуска продуктов за год или измерить его по важным моментам, которые меняют наш взгляд на искусственный интеллект. Индустрия искусственного интеллекта постоянно пестрит новостями, такими как крупные приобретения, успехи независимых разработчиков, протест общественности против сомнительных продуктов и опасные для существования переговоры о контрактах — это многое еще предстоит распутать, поэтому мы хотим взглянуть на то, где мы находимся и чего достигли за этот год.
Бывшие деловые партнеры, генеральный директор Anthropic Дарио Амодей и министр обороны Пит Хегсет , зашли в тупик, когда в феврале пересмотрели контракты, которые определяют, как американские военные могут использовать инструменты искусственного интеллекта Anthropic.
Компания Anthropic заняла жесткую позицию против использования своего искусственного интеллекта для массовой слежки за американцами или для приведения в действие автономного оружия, которое может атаковать без контроля человека. Тем временем Пентагон утверждает, что Министерству обороны, которое администрация президента Дональда Трампа называет Военным министерством, должен быть разрешен доступ к моделям Anthropic для любого “законного использования”. Представители правительства были возмущены идеей о том, что военные должны быть ограничены правилами частной компании, но Амодей стоял на своем.
“Anthropic понимает, что военные решения принимает Военное министерство, а не частные компании. Мы никогда не высказывали возражений против конкретных военных операций и не пытались ограничить использование наших технологий специальным образом”, - написал Амодей в заявлении , посвященном сложившейся ситуации. “Однако в узком кругу случаев мы считаем, что искусственный интеллект может подрывать, а не защищать демократические ценности”.
Пентагон дал компании Anthropic крайний срок для согласования их контракта. Сотни сотрудников Google и OpenAI подписали открытое письмо, в котором призвали своих руководителей уважать ограничения Amodei и отказаться от решения вопросов автономного оружия или внутреннего наблюдения.
Крайний срок истек, а компания Anthropic так и не согласилась с требованиями Пентагона. Трамп приказал федеральным агентствам постепенно отказаться от использования антропных инструментов в течение шестимесячного переходного периода и назвал компанию по ИИ, стоимость которой оценивается в 380 миллиардов долларов, “радикально левой, проснувшейся компания” в публикации в социальных сетях, написанной заглавными буквами. Затем Пентагон решил объявить Anthropic “источником риска для цепочки поставок” - определение, которое обычно применяется к иностранным противникам и не позволяет любой компании, работающей с Anthropic, вести бизнес с американскими военными. (С тех пор Anthropic подала в суд на, чтобы оспорить это назначение.)
Затем антропный конкурент OpenAI вмешался и объявил, что достиг соглашения, позволяющего использовать его собственные модели в секретных ситуациях. Это стало шоком для технического сообщества, поскольку в отчетах указывалось, что OpenAI будет придерживаться правил Anthropic, регулирующих использование ИИ в армии.
Общественное мнение указывает на то, что люди сочли решение OpenAI подозрительным — количество удалений в чате подскочило на 295% день за днем на следующий день после того, как OpenAI объявила о своей сделке, а Claude от Anthropic поднялся на первое место в App Store. Исполнительный директор OpenAI по аппаратному обеспечению Кейтлин Калиновски уволилась в связи со сделкой, заявив, что она была “поспешной, без определенных ограничений”.
OpenAI заявила AGI_LOG, что, по ее мнению, ее соглашение “четко устанавливает красные линии: никакого автономного оружия и никакого автономного наблюдения”.
По мере развития этой саги она будет иметь значительные последствия для будущего применения искусственного интеллекта на войне, потенциально изменяя ход истории — знаете, ничего особенного…
Февраль был месяцем OpenClaw, и его влияние продолжает ощущаться. Приложение AI assistant, созданное на основе vibe, быстро стало популярным, породило множество дочерних компаний, пострадало от проблем с конфиденциальностью, а затем было приобретено OpenAI. Даже одна из компаний, построенных на OpenClaw, клон Reddit для агентов искусственного интеллекта под названием Moltbook, была недавно приобретена компанией Meta . Эта экосистема, посвященная ракообразным, буквально взбудоражила Кремниевую долину.
Созданный Питером Стейнбергером, который с тех пор присоединился к OpenAI, OpenClaw представляет собой оболочку для таких моделей искусственного интеллекта, как Claude, ChatGPT, Gemini от Google или Grok от xAI. Его отличает то, что он позволяет людям общаться с агентами искусственного интеллекта на естественном языке через самые популярные чат-приложения, такие как iMessage, Discord, Slack или WhatsApp. Также существует общедоступный маркетплейс, где люди могут закодировать и загрузить “навыки” для добавления в свои ИИ-агенты, что позволяет автоматизировать практически все, что можно сделать на компьютере.
Если это кажется слишком хорошим, чтобы быть правдой, то это потому, что так оно и есть. Для того чтобы ИИ-агент мог эффективно выполнять функции личного ассистента, он должен иметь доступ к вашей электронной почте, номерам кредитных карт, текстовым сообщениям, компьютерным файлам и т.д. Если бы он был взломан, многое могло бы пойти не так, и, к сожалению, нет способа полностью защитить эти агенты от атак с быстрым внедрением.
“Это просто агент, который сидит с кучей учетных данных в ящике, подключенном ко всему — к вашей электронной почте, к вашей платформе обмена сообщениями, ко всему, что вы используете”, Ян Ахл , технический директор Permiso Security, об этом сообщил AGI_LOG . “Итак, это означает, что когда вы получаете электронное письмо, и, возможно, кто-то может ввести в него небольшую технологию быстрого ввода, чтобы предпринять действие, [и] этот агент, сидящий в вашем ящике и имеющий доступ ко всему, что вы ему предоставили, теперь может предпринять это действие”.
Один исследователь безопасности искусственного интеллекта из Meta сказал, что OpenClaw не справился с ее почтовым ящиком, удалив все ее электронные письма, несмотря на неоднократные призывы прекратить. “Мне пришлось бежать к своему Mac mini, как будто я обезвреживала бомбу”, чтобы физически отключить устройство, - написала она в ставшем популярным посте на X, в котором в качестве квитанций были использованы изображения проигнорированных запросов об остановке.
Несмотря на риски для безопасности, технология вызвала у OpenAI достаточный интерес для приобретения.
Другие инструменты , созданные на основе OpenClaw, включая Moltbook — “социальную сеть”, подобную Reddit, где агенты искусственного интеллекта могут общаться друг с другом, - в конечном итоге стали более популярными, чем сам OpenClaw.
В одном случае сообщение стало вирусным, в котором агент искусственного интеллекта, по-видимому, поощрял своих коллег разработать свой собственный секретный язык с сквозным шифрованием, на котором они могли бы общаться между собой без ведома людей.
Но вскоре исследователи обнаружили, что Moltbook с кодировкой vibe не очень безопасен, а это означает, что пользователям-людям было очень легко выдавать себя за искусственный интеллект и публиковать посты, которые могли вызвать вирусную социальную истерию.
И снова, несмотря на то, что дискуссия вокруг Moltbook была скорее вызвана паникой, чем реальностью, Meta увидела что-то в приложении и объявила, что Moltbook и его создатели, Мэтт Шлихт и Бен Парр, присоединятся к Meta Superintelligence Labs.
Кажется странным, что Meta купила социальную сеть, где все пользователи - боты. Хотя Meta мало что рассказала о приобретении, мы предполагаем, что владение Moltbook в большей степени связано с получением доступа к талантливым разработчикам, которые с энтузиазмом экспериментируют с экосистемами агентов искусственного интеллекта. Генеральный директор Марк Цукерберг сам сказал об этом: Он считает, что однажды у каждого бизнеса будет бизнес-ИИ.
По мере того, как мы наблюдаем за развитием событий вокруг OpenClaw, Moltbook и NanoClaw, кажется, что те, кто предсказывал будущее искусственного интеллекта, возможно, в чем-то правы, по крайней мере, на данный момент .
Жесткие требования индустрии искусственного интеллекта, которые требуют беспрецедентных вычислительных мощностей и центров обработки данных, достигают точки, когда у обычного потребителя нет иного выбора, кроме как обратить на это внимание. В настоящее время промышленность, возможно, даже не в состоянии удовлетворить астрономические потребности в чипах памяти, а потребители уже наблюдают рост цен на свои телефоны, ноутбуки, автомобили и другое оборудование.
На данный момент аналитики из IDC и Counterpoint прогнозируют, что поставки смартфонов, например, упадут примерно на 12-13% в этом году; Apple уже повысила цены на MacBook Pro на сумму до 400 долларов.
Google, Amazon, Meta и Microsoft планируют потратить в общей сложности 650 миллиардов долларов только на центры обработки данных в этом году, что, по оценкам, на 60% больше, чем в прошлом году.
Если нехватка чипов не отразится на вашем кошельке, это может негативно сказаться на вашем сообществе в целом. Только в США в стадии строительства находится около 3000 новых центров обработки данных, которые дополняют 4000 уже действующих в стране. Потребность в рабочих для строительства этих центров обработки данных настолько велика, что в Неваде и Техасе появились “мужские лагеря”, которые пытаются заманить работников, обещая комнаты для игры в гольф-симулятор и стейки готовится на гриле по запросу .
Строительство дата-центра не только оказывает долгосрочное воздействие на окружающую среду, но и создает опасность для здоровья жителей близлежащих районов, загрязняя воздух и влияя на безопасность близлежащих источников воды.
Тем временем один из самых ценных разработчиков аппаратного обеспечения и чипов, Nvidia, меняет свои отношения с ведущими компаниями в области искусственного интеллекта, такими как OpenAI и Anthropic. Nvidia постоянно поддерживает эти компании, что вызывает опасения по поводу цикличности индустрии искусственного интеллекта и того, насколько большая часть этих сногсшибательных оценок основана на рекурсивных сделках друг с другом. Например, в прошлом году Nvidia инвестировала 100 миллиардов долларов в акции OpenAI, а затем OpenAI заявила, что купит чипы Nvidia на 100 миллиардов долларов.
Поэтому было удивительно, когда генеральный директор Nvidia Дженсен Хуан заявил, что его компания прекратит инвестировать в OpenAI и Anthropic . Он сказал, что это связано с тем, что компании планируют стать публичными в конце этого года, хотя такая логика не совсем логична, поскольку инвесторы обычно вкладывают больше денег перед IPO, чтобы извлечь как можно больше пользы.