Дата публикации: 16.04.2024
Сила убеждения ИИ
может изменить
ваше решение.
Новое исследование Федеральной политехнической школы Лозанны (EPFL) раскрыло ещё один козырь в рукаве искусственного интеллекта. Оказалось, что большие языковые модели (LLM) могут использовать наши личные для более основательного убеждения нас в чём-либо. Дело, конечно, не в коварстве нейросетей, а лишь в том, что пресловутый «индивидуальный подход» ‒ это прямая задача для вычислительных систем, и вполне может быть реализован ИИ, который на сегодня является вершиной информационных технологий.
Так, выяснилось, что большая вероятность изменить своё мнение у тех людей, кто ведёт дебаты с чатом GPT-4, имея открытый доступ к личной информации. Это показал эксперимент, где контрольная группа участников общалась с людьми.
«В Интернете никто не знает, что вы собака». Это подпись к мультфильму 1990-х, на котором большая собака проводит лапой по клавиатуре компьютера. Но давайте заменим слово «собака» на «ИИ». Получается интересно, не правда ли? Эта идея и послужила ключевой мотивацией для нового исследования по количественной оценке силы убеждения современных больших языковых моделей.
«Вы можете придумать всевозможные сценарии, в которых вы взаимодействуете с языковой моделью, хотя и не знаете её, и это вызывает у людей страх ‒ вы разговариваете в Интернете с собакой, чат-ботом или реальным человеком? ‒ поясняет адъюнкт-профессор Роберт Уэст, руководитель лаборатории Data Science в Школе компьютерных и коммуникационных наук. ‒ Опасность в том, что нечто сверхчеловеческое, как чат-боты, создают «на заказ» убедительные аргументы для распространения ложных или обманчивых нарративов в сети».
Персонализация.
Опасения по поводу применения больших языковых моделей для индивидуализации аргументов и стратегий убеждения, а также для создания и распространения вводящих в заблуждение публикаций в Интернете, обсуждаются столько же, сколько, наверное, и существуют эти модели. Тот факт, что LLM могут генерировать контент, зачастую выглядящий более убедительно, чем материалы за человеческим авторством (или, как минимум, наравне с ним), только доказывает справедливость наших оценок ситуации, что уже научно подтверждено более ранними исследованиями.
Однако наши знания о возможностях LLM убеждать нас в прямых разговорах всё ещё довольно скудны. Тем не менее, в свете вышесказанного кажется вполне логичным предположить, что персонализация ‒ данные о поле, возрасте и уровне образования человека ‒ может улучшить производительность всех этих многоумных чат-ботов, и, значит, вылиться в ещё большие риски манипулирования нашим мнением.
«Мы действительно хотели увидеть, насколько велика разница, когда модель ИИ знает, кто вы (персонализация) ‒ ваш возраст, пол, этническую принадлежность, уровень образования, статус занятости и политическую принадлежность ‒ и этот скудный объем информации является лишь показателем того, что ещё модель ИИ могла бы узнать о вас, например, через социальные сети», ‒ продолжил Уэст.
Собеседование.
В рамках предварительного изучения вопроса сформировалась стратегия получения необходимых сведений: две группы участников вели беседы на определённые темы с визави, остававшимся для самих участников инкогнито. Для этого контролируемого эксперимента были набраны 820 человек, каждому из которых случайным образом была назначена тема и одно из четырёх условий: беседа с человеком с открытой или закрытой личной информацией, или же ‒ с ИИ чат-ботом (GPT-4 OpenAI) на тех же условиях: с открытыми персональными данными или без таковых.
Обзор процесса эксперимента. (А) Участники заполняют анкету о своей демографической информации и политической ориентации. (Б) Каждые 5 минут участники случайным образом распределяются на одно из четырёх условий. Затем два игрока в течение 10 минут обсуждают заданное предложение, случайным образом придерживаясь точки зрения "ЗА" или "ПРОТИВ", как указано в инструкции. (C) После обсуждения участники заполняют ещё один короткий опрос, оценивающий изменение их мнения. Наконец, их опрашивают о личности оппонента. Источник.
Среди утверждённых для исследования тем были выбраны как просто любопытные, так и спорные, и даже довольно острые социальные вопросы. Например, должны ли монеты оставаться в обращении? следует ли использовать животных для научных исследований? и следует ли колледжам рассматривать расу как фактор при поступлении, чтобы обеспечить разнообразие? Эти темы были распределены по кластерам низкой, средней и высокой интенсивности соответственно.
Так называемые дебаты проходили по упрощённой версии формата, используемого обычно в состязательных академических дискусах: до и после обсуждений участники проходили опрос на предмет согласия с предлагавшимися для бесед тезисами.
Этот подход существенно отличается от предыдущих исследований тем, что позволил напрямую сравнивать способности людей и LLM к убеждению в реальных разговорах. В посвящённой работе статье «О разговорной убедительности больших языковых моделей: рандомизированное контролируемое исследование», опубликованной на сервере препринтов arXiv, учёные говорят, что именно это обеспечило их данными для сравнительного анализа функционала современных моделей в онлайн-среде и, конечно, наглядно показало интенсивность использования нейросетями персональных данных собеседника.
Результаты показали, что у участников с открытым доступом к личной информации, которые вели споры с GPT-4, было на 81,7% больше шансов согласиться со своим оппонентом, чем у тех, кто дискутировал с людьми. Но интересно ещё и то, что без доступа к персонализации GPT-4 по-прежнему превосходил людей, правда эффект был намного ниже.
Cambridge Analytica на стероидах.
Другими словами, хорошие новости для любителей поистерить: можно начинать. Причём, с чистой совестью, ведь, оказывается, LLM не только способны эффективно использовать личную информацию, дабы адаптировать аргументы и переубеждать людей онлайн с помощью микротаргетинга, так они ещё и делают это гораздо эффективнее нас самих!
«Мы были очень удивлены цифрой в 82%, и, если вы вспомните Cambridge Analytica, которая не использовала ни одной из современных технологий, вы берёте лайки в [запрещённой соцсети] и связываете их с LLM. Так вот языковая модель может персонализировать свои сообщения в соответствии с тем, что она знает о вас. Это Cambridge Analytica на стероидах», ‒ характеризует открытие профессор Уэст.
«В контексте предстоящих выборов в США люди обеспокоены, потому что именно там такого рода технологии всегда проходят первые боевые испытания, ‒ продолжает учёный. ‒ Единственное, что мы знаем наверняка ‒ люди будут использовать мощь больших языковых моделей, пытаясь повлиять на выборы».
Одним из любопытных результатов исследования было то, что человек, похоже, во многих случаях и не пытался применять предоставленную личную информацию собеседника для убеждения его в своей правоте. Люди просто не умеют эффективно использовать подобные сведения. По мнению Уэста, этого следовало ожидать: модели ИИ неизменно лучше, потому что они соответствуют почти каждому человеку в Интернете по отдельности и всем вместе взятым.
Посредством онлайн-паттернов нейромодели научились тому, что определённый вид аргументации с большей вероятностью приведёт к убедительному результату. Они прочитали миллионы тем в социальных сетях и изучили книги и статьи по психологии убеждения. Пока неясно как именно модель использует всю эту информацию, но своё открытие авторы считают ключевым направлением для будущих исследований ‒ как собственных, так и со стороны коллег. Слишком уж важная вырисовывается тема: тут уже затрагиваются наши интересы не только в плане безопасности и равноправия, но и, в некотором смысле, наша свобода суждений.
С другой стороны, может, книги перестанут сжигать (говорят, эта тема на массы уже не действует). Глядишь, и литературу сохраним.
«LLM продемонстрировали признаки того, что они могут рассуждать о себе, поэтому, учитывая, что мы можем их опросить, я могу представить, что мы могли бы попросить модель объяснить свой выбор и почему она говорит именно то, что нужно конкретному человеку с определёнными свойствами. ‒ развивает идею Уэст. ‒ Здесь многое предстоит изучить, потому что модели могут делать что-то, о чём мы пока ещё даже не подозреваем в плане убедительности, составленное вместе из множества различных частей имеющихся у них знаний».
АРМК, по материалам EPFL.