×

В 2019 году было распространено дипфейковое видео генерального директора Facebook Марка Цукерберга, привлекшее внимание к потенциалу этой технологии. Источник.

Манипулятивная реклама становится всё более преобладающим явлением в маркетинге. Не так давно (по крайней мере ‒ по меркам истории индустрии «двигателя торговли») в обиход вошла так называемая вирусная реклама. Она завоевала неплохие позиции в доле рынка соответствующих услуг, пользовалась популярностью у заказчиков и вызывала интерес целевой аудитории ‒ то есть потребителей.

Но теперь нас ожидает куда более пробивная техника: если вирусные ролики могли заставить вас только заинтересоваться товаром, чтобы побольше о нём узнать, то, создав близкие лично вам образы ‒ столь убедительные, реалистичные и практически нераспознаваемые как подделки, ‒ новые методы куда с большей вероятностью сделают-таки вас клиентом рекламодателя.

Да вы угадали, речь о так называемых дипфейках. Это явление в качестве рекламного инструмента пока что не в ходу, но технически у нас есть всё, чтобы его запустить: искусственные нейросети получили широкое распространение и продолжают расти, наши персональные данные нередко доступны вопреки всем ‒ к тому же, увы, почти никогда не читаемым нами ‒ политикам конфиденциальности и вполне могут быть использованы для машинного обучения на их основе.

Так что да, наступает мир дипфейковой рекламы.

Новое исследование Технологического университета Суинберна показывает, как компании и маркетологи могут использовать дипфейки. В опубликованной в Журнале рекламы статье «Подготовка к эре дипфейков и рекламы, созданной искусственным интеллектом: основа для понимания реакции на манипулируемую рекламу», учёные исследуют тему, уделяя основное внимание трём основным её областям: это сама ложная реклама, реакция на неё потребителей и оригинальность. Поскольку довольно трудно предвосхитить всё разнообразие влияний такого вида манипуляций человеческим поведением, это исследование можно считать отправной точкой для гораздо более широкого круга сфер и дисциплин.

Дипфейки уже здесь ‒ просто не распространены.

Сегодня большая часть такого синтетического контента создаётся либо обычными пользователями, либо технологами, демонстрирующими мастерство своих моделей ИИ, обучая нейросети менять лица или голоса самых разных актёров или политиков. И несмотря на то, что большая часть этих публикаций явно фальшивая, намерения их создателей скорее не в том, чтобы одурачить, ввести в заблуждение или обмануть аудиторию, а в том, чтобы пошутить и показать потенциальные возможности этой новой технологии.

Строго говоря, технологии могут нас завести в такие дебри правонарушений, что уже пора бы озаботиться их профилактикой. Например, недобросовестные рекламодатели могут создавать дипфейки, неотличимые от настоящих. Только представьте каково вам будет узнать себя в какой-то рекламе. Это само по себе может стать шоком, но ведь ещё нужно учесть, что именно преподносится в материалах с якобы вашим участием.  Хотя уже сейчас эксперты считают, что более выгодным будет всё-таки избегать слишком правдоподобного или точного изображения; но и не стоит забывать, что в рекламе ‒ как на войне ‒ все средства хороши, и выбор их зависит лишь от целесообразности.

«Представьте себе рекламу, которая полностью пропускает модель и показывает вас в одежде – что-то похожее на футуристическую рекламу в фильме 2002 года «Особое мнение», ‒ говорит доцент Колин Кэмпбелл, исследователь цифровых инноваций в маркетинге и рекламе. ‒ Эта концепция может показаться слишком пугающей для многих потребителей. Существует множество исследований, которые показывают больший положительный эффект, когда потребители видят людей, похожих на них, в рекламе. Бренды могут адаптировать рекламу, показывая дипфейковую модель, точно соответствующую вашей этнической принадлежности, росту, в одежде, похожей на ту, что вы покупали ранее или которая вам понравилась в Интернете, стоя на улице рядом с вашим домом или рабочим местом, используя данные, извлечённые из социальных сетей, датчиков розничной торговли или программы лояльности».

Да, этот персонализированный подход вполне способен вызвать увеличению продаж и укреплению репутации брендов, но следует помнить, что оправдана такая стратегия только если она не переходят в гиперслежку за клиентами. Несоблюдение прав на частную жизнь повлечёт недоверие со стороны потребителей, их чувство уязвимости и даже угрозы со стороны рекламодателя.

Да здравствует игра.

В этой связи, появляется вероятность некоторой игры в поддавки между брендами, производителями и потребителями рекламы. Вот скажите, вы доверитесь мнению продавца, который на все ваши вопросы о товаре отвечает дифирамбами в адрес оного, или же тому его коллеге, который вам раскроет все интересующие вас плюсы и минусы потенциальной покупки?

В нашем случае может приключиться то же самое.

«Маркетологи будут стремиться создавать «подлинно человеческие» дипфейки, чтобы казаться «настоящими», ‒ говорит исследователь инноваций в розничной торговле и социальных сетях, профессор Шон Сэндс. ‒ Но у нас также есть исследование, которое предполагает, что потребители могут быть более снисходительны к явно виртуальным влиятельным лицам. Некоторые компании могут стремиться сделать так, чтобы дипфейк был подделкой, поэтому их потребители могут быть более снисходительны к их проступкам».

Такая политика выглядит вполне реалистично: куда лучше завоевать доверие клиента, чем проводить манипуляции за его спиной, рискуя быть пойманным с поличным, не так ли? Однако сама эта парадигма не избавит нас от вероятности попасть в эту ловушку ‒ этакую «дипфейкову яму», ‒ поскольку не только пресловутые рекламщики будут ею пользоваться и, возможно, злоупотреблять ею. Так, тот же профессор Сэндс считает «вполне вероятным, что дипфейки будут широко использоваться в основных СМИ в течение десятилетия».

 


АРМК, по материалам Технологического университета Суинберна.