В новом вирусном видеоролике Сенатор Берни Сандерс попытался показать, что индустрия искусственного интеллекта представляет угрозу для конфиденциальности американцев, но в итоге продемонстрировал, как склонность чат-ботов соглашаться со своими пользователями и льстить им может привести к тому, что сами чат-боты окажутся в невыгодном положении. станьте зеркалом собственных убеждений пользователей’ а не инструментом для поиска информации.
Мы уже сталкивались с этой проблемой раньше на фоне растущего числа людей , страдающих “психозом искусственного интеллекта,”, когда чат-бот с искусственным интеллектом усиливает иррациональные мысли и убеждения психически неуравновешенного человека. В некоторых случаях этот темный шаблон даже приводил пользователей к самоубийству, как утверждается в нескольких судебных исках.
В случае Сандерса подхалимство ИИ проявилось в виде чат-бота с искусственным интеллектом, который формировал свои ответы в соответствии с требованиями политика.
Стоит отметить, что интервью начинается с того, что Сандерс представляется Клоду (которого он ошибочно называет “агентом” искусственного интеллекта) — шаг, который может помочь сформировать ответы чат-бота.
Затем, когда Сандерс задает вопросы о методах сбора данных компаниями, работающими с искусственным интеллектом, и других проблемах конфиденциальности, Клод любезно отвечает то, что политик хочет услышать. Отчасти это объясняется тем, как Сандерс формулирует свои вопросы, задавая такие вопросы, как “Что удивило бы американцев, узнав, как собирается эта информация?” или “Как мы можем быть уверены, что компании, работающие с ИИ, защитят нашу частную жизнь, когда они используют личную информацию людей для зарабатывания денег?”. Эти наводящие вопросы заставляют чат-бота принять суть вопроса и придумать подходящий ответ. Именно так все это и работает.
И когда в ответе Клода говорилось, что тема была более сложной или содержательной, чем ее сформулировал Сандерс, Сандерс не соглашался, заставляя чат-бота признать, с оттенком самоуничижения искусственного интеллекта, что сенатор был “абсолютно прав”.
Подхалимаж ИИ - это то, что может сбить людей с опасного пути, когда они считают чат-бота источником универсальной правды, а не инструментом, на который может повлиять его пользователь.
Неясно, то ли Сандерс знает, что это так, и ему просто все равно (ведь, в конце концов, это всего лишь реклама!), то ли он действительно думает, что обманом заставил Клода стать разоблачителем индустрии искусственного интеллекта.
И, конечно же, возникает также вопрос о том, настроила ли команда Сандерса чат-бота на определенный ответ, учитывая, что это было инсценированное “интервью”.
Несмотря на то, что сбор данных и защита частной жизни вызывают серьезные опасения, все не так однозначно, как можно предположить из ответов ИИ в этом видео.
Мы уже живем в мире, где компании собирают и продают данные онлайн—пользователей в больших масштабах - и это происходит уже много лет. Мы знаем, что гиганты социальных сетей, такие как Meta, превратили персонализированную рекламу в многомиллиардную печатную машину. А благодаря регулярным отчетам технологических гигантов о прозрачности мы знаем, что правительства по всему миру регулярно запрашивают доступ к пользовательским данным для своих собственных целей.
Искусственный интеллект может стать новым средством регулирования для законодателей, но персональные данные уже давно подпитывают цифровую экономику. (По иронии судьбы, Anthropic - это компания, занимающаяся искусственным интеллектом, которая пообещала не использовать персонализированную рекламу для зарабатывания денег, несмотря на то, что, возможно, предполагали ее ответы Сандерсу.)
Хотя общий разговор между Сандерсом и Клодом не произвел впечатления на любого, кто понимает, как работают чат-боты с искусственным интеллектом, мы можем, по крайней мере, отдать должное тому, что он подарил нам несколько замечательных новых мемов.
буквально pic.twitter.com/NsfpIcX0J0
я еще раз прошу вас прекратить эксперименты. pic.twitter.com/EqaYI5krIy
По крайней мере, используйте Opus, сенатор pic.twitter.com/GbMLdKH6M2
Меня, когда я закончу работу pic.twitter.com/Mu8TWbu8gc