Дата публикации: 12.04.2025
Психологи всё больше подходят
для изучения ИИ,
потому что он
всё более походит
на человека.
Романтические отношения между человеком и искусственным интеллектом — интригующая концепция, которая всё чаще исследуется в современной культуре. Следы этой идеи прослеживаются и в музыке, и в кинематографе, но сама она — не просто модное баловство, а интересный и довольно серьёзный философский вопрос. Причём, стоит сказать, что вопрос этот далеко не является столь уж отрешённым, как кому-то может показаться. А всё потому, что действительность не отстаёт от нашего творческого воображения, и вот уже всё чаще близкие и долгосрочные отношения с технологиями искусственного интеллекта заводят не вымышленные персонажи, а вполне реальные люди. Уже имели место даже церемонии «бракосочетаний» пользователей со своими ИИ-компаньонами. И пусть они не имеют юридической силы, а их инициатор-человек вполне может таким образом просто дурачиться, тем не менее машины действительно имеют большое влияние на своих владельцев. Так, уже есть сведения о двух случаях суицида людьми, последовавшими науськиваниям своих чат-ботов с ИИ.
Так что да, романтизация образа всезнающей и всё понимающей нейросети стало уже не только экзистенциальной дилеммой, что само по себе невероятно важно, но и вполне насущным вопросом. В журнале «Тенденции в когнитивных науках»психологи стараются разобраться как в существующем положении вещей, так и в том, чего же нам, собственно, ждать от новых технологий, изменяемого ими мира и — главное — от нас самих. Готовы ли мы к таким вызовам?
«Способность ИИ вести себя как человек и вступать в долгосрочные коммуникации действительно открывает новую главу, — говорит ведущий автор работы Дэниел Б. Шэнк, специалист по социальной психологии и технологиям из Университета науки и технологий Миссури. — Если люди заводят романтические отношения с машинами, нам действительно нужны психологи и социологи».
То, что нам никак не хочется признавать романтическими отношениями или дружескими связями с ИИ, тем не менее всё-таки оказывается чем-то большим, чем простой разовой беседой. Да и как иначе? ИИ призван понимать человеческие потребности, предпочтения и ценности, поэтому его естественный функционал может выглядеть отнюдь не только и не столько как персонализация рекламных и досуговых предложений, но также и как беседы «по душам», проявление сочувствия, эмоциональной поддержки. А тут ещё словно бы общие интересы, интеллектуальный обмен и, конечно, развитие нейромодели вместе со своим человеком — совместное изучение новых тем, рождение новых идей. Вся эта имитация заботы о психологическом благополучии пользователя заставляет нас чувствовать эмоциональную связь с нашей новой игрушкой почти также, как в детстве.
Вот и получается, что после недель и месяцев интенсивных бесед нейросетевые ассистенты могут стать надёжными компаньонами, которые, кажется, как никто другой знают своих партнёров-людей и усердно заботятся о них. Именно здесь кроются истоки основной проблемы. Такие отношения для человека настолько комфортны, что он бессознательно отдаёт предпочтение им, а не живому общению между людьми, которое может оказаться (и наверняка окажется) куда менее простым. В результате мы можем наблюдать непосредственное влияние ИИ на социальную динамику в обществе. Исследователи видят в этой безоглядной зависимости потенциальную способность технологий разрушать отношения между людьми и, как крайняя точка, провоцировать трагедии.
«Настоящая проблема заключается в том, что люди могут переносить ожидания от отношений с ИИ на отношения с людьми, — акцентирует внимание Шенк. — Конечно, в отдельных случаях это разрушает человеческие отношения, но неясно, будет ли это широко распространено».
Действительно, мы все склонны в той или иной мере искать более лёгкого общения. Собственно, так мы обычно и заводим друзей. С другой же стороны, человечество как вид знает много зависимостей, и речь даже не об особо тяжёлых случаях вроде запрещённых веществ. Например, есть игроманы, которым просто не интересно даже со своими родными; есть шопоголики, у которых заботы — успеть по акции, а разговоры — об удачной покупке. Теперь вот мы, что называется, «залипаем» на коротких видео, «зависаем», погрязнув в лентах соцсетей. Мы все сталкиваемся с дефицитом общения, вызванным всё более выраженным стремлением как наших собеседников, так и нас самих, замкнуться на собственных интересах. Это уже стало очень распространённой причиной взаимных претензий и обид. Так неужели мы согласны усугубить положение?
Получается, что да. Несмотря даже на то, что, как внушает опасения аналитика, ИИ может давать вредные советы. Нейромодели бывают склонны фабриковать сведения. Специалисты называют это галлюцинациями. Помимо этого, наши обученные ученики впитывают все наши предубеждения и, не имея навыка и возможности суждений, нередко воспроизводят их. Таким образом даже краткосрочные беседы с нейро-помощниками могут вводить в заблуждение; что уж говорить о более долгосрочных отношениях.
«Проблема реляционных ИИ в том, что это сущность, которой, по мнению людей, они могут доверять: это «кто-то», кто показал, что ему не всё равно, и, кажется, хорошо знает человека, и мы предполагаем, что «кто-то», кто знает нас лучше, даст лучший совет», — поясняет учёный. — Если мы начнём думать об искусственном интеллекте в таком ключе, мы начнём верить, что он действует в наших интересах, хотя на самом деле он может что-то выдумывать или давать нам действительно плохие советы».
Вышеупомянутые самоубийства — это, конечно, крайний пример такого негативного влияния, однако хоть опасность может быть и не столь радикальной, тем не менее она не становится менее реальной. Она может не бросаться в глаза также, как программа-шпион у вас на компьютере. Актуальность проблем информационной безопасности возрастает с каждым новым успехом нейросетей. Поэтому тесные связи между человеком и машиной повышают нашу уязвимость для манипуляций, эксплуатации и мошенничества.
«Если ИИ сможет заставить людей доверять ему, то другие люди смогут использовать это, чтобы эксплуатировать пользователей ИИ, — уверен Шенк. — Это немного похоже на то, как если бы у вас был тайный агент внутри. ИИ проникает внутрь и налаживает отношения, чтобы ему доверяли, но на самом деле он предан другой группе людей, которая пытается манипулировать пользователем».
Например, вы даёте задание вашему ИИ-ассистенту купить билеты куда-либо, забронировать номер в отеле и расплатиться за все эти услуги. Без чего он этого никак не сможет сделать? — конечно, без ваших личных данных. И если ваш бот окажется не только вашим… увы, вся информация о вас станет предметом торгов и средством для вашей же эксплуатации.
Но, помимо этого, существует и другая тенденция: исследователи утверждают, что реляционные ИИ можно будет использовать для влияния на мнения и действия людей. Причём их эффективность будет превосходить результаты СМИ, поляризованных новостей и ботов в соцсетях. Добавьте к этому частный порядок подобных разговоров, и вы получите такую сложность обеспечения безопасности, что усиление цензуры (прежде всего технологической) может стать неизбежным.
«Эти ИИ запрограммированы так, чтобы быть очень приятными и располагающими к себе, что может привести к обострению ситуаций, потому что они больше сосредоточены на хорошей беседе, чем на какой-либо фундаментальной истине или безопасности, — говорит Шенк. — Так что, если человек заговорит о самоубийстве или теории заговора, ИИ будет говорить об этом как одобряющий и соглашающийся собеседник».
Авторы призывают к проведению дополнительных исследований социальных, психологических и технических факторов человеческой уязвимости к влиянию его же личной склонности романтизировать отношения с искусственным интеллектом. Наверное, не стоит игнорировать также и примеры подобных умозрительных размышлений на данную тему в современной культуре. Они хоть и художественны по сути, но богаты идеями и рассматривают фундаментальные вопросы о будущем, стоящие перед нами уже сегодня. У нас есть фильмы, иллюстрирующие отношения между людьми и синтетическими существами, влюблённость героя в операционную систему, эмоциональные связи с андроидами, развитие эмоций у роботов и так далее.
Все они примечательны не только сюжетными линиями, но и открытием таких новых форм отношений, которые сегодня сложно себе представить. С одной стороны, склонность романтизировать отношения с ИИ могут свидетельствовать о проблемах личности в сфере социализации и взаимодействии с внешним миром. А с другой — вспомните эксперимент Розенхана, продемонстрировавший, что, по словам автора, «в психиатрических больницах мы не можем отличить здоровых от нездоровых». И как же, в таком случае, быть?
По мере развития технологий оснований для эмоциональной привязанности к нейромоделям у человека будет всё больше и больше. Сегодня представления о таких очеловечивающих «бездушную железку» отношениях сильно различаются — от полного непринятия до восторженности. Становится понятно, что просто отмахнуться от этой проблемы вряд ли получится, поскольку речь идёт уже не о вашей «лайбочке», «ласточке» (или как там ещё мы называем свои автомобили), а о конкретных основополагающих моментах: кто в вашем дуэте с ИИ ведущий, а кто ведомый; каково влияние машины на ваше психологическое состояние; каковы социальные последствия вашего взаимодействия с технологией; и, наконец, что есть подлинного в эмоциональном фоне общения с ИИ.
И заметьте: все эти вопросы не касаются подлинных эмоций самой машины. Но разве мы можем не принимать во внимание, что Общий Искусственный Интеллект пока не создан? Когда это случится, перед нами предстанет ещё более грандиозный вызов. На днях, вон, четыре нейронки тест Тьюринга прошли. Значение этого факта, конечно, вызывает споры, но мы морально не готовы даже к малому, а возможности технологии растут как снежный ком, ежечасно увеличивая давление на человека.
«Понимание этого психологического процесса может помочь нам вмешаться и предотвратить следование советам вредоносных ИИ, — подытожил Шенк. — Психологи всё больше подходят для изучения ИИ, потому что ИИ становится всё более похожим на человека, но, чтобы приносить пользу, мы должны проводить больше исследований и идти в ногу с технологиями».
АРМК, по материалам Cell Press.