×

Призрак сверхразума реет над миром. Мы стремимся к нему, не зная даже что он такое, но готовы ли мы к такому господству? Источник.

То, что мы привыкли называть искусственным интеллектом (ИИ или AIartificial intelligence), по сути не является таковым ‒ мы всего лишь создали очень продвинутый калькулятор, в некоторых аспектах имитирующий работу нашего мозга. Изо всех черт реального человеческого интеллекта он обладает только способностью к обучению и распознаванию количественных характеристик (на самом деле ‒ числовых, ведь даже качественные выражены числом). У него нет понимания важности конкретной детали, свойства или элемента целого и, соответственно, осознания самого этого целого; ему также не под силу построение абстракций и теоретизация ‒ то есть гипотетическое мышление. Тем не менее, мы назвали эту машину именно искусственным интеллектом, поскольку это уже не обычная ЭВМ и уж тем более не «умный калькулятор» ‒ его способность обучаться стала огромным прорывом в информатике.

Но мечты о создании действительного искусственного интеллекта не отпускают ни учёных, ни простых обывателей. Поэтому такой «настоящий» ‒ и пока гипотетический ‒ ИИ получил своё название: Artificial general intelligence или AGIобщий (обширный, главный, всеобщий) искусственный интеллект. Реализация этой футуристической концепции машин, которые столь же умны и универсальны, как люди, является основной миссией разработчика OpenAI, а в гонке по его разработке сегодня соревнуются крупнейшие ИТ-корпорации ‒ Amazon, Google, Meta и Microsoft.

Однако не все воодушевлены предвкушением технобума, который нам обещает эта технология. Многие люди обеспокоены близостью теоретического апокалипсиса, к которому приведёт, как они считают, неминуемое «восстание машин». Правительства, наверное, всех стран стремятся разработать свои системы безопасности «на всякий случай», ведь на них лежит ответственность за сограждан. Ведущие учёные, занятые в соответствующей области, изучают перспективы влияния технологии на общественную жизнь, на индивида и человечество вообще.

Так, недавно в журнале Science было опубликовано предупреждение о существовании экзистенциального риска для нас, как для вида, со стороны неконтролируемых агентов ИИ с навыками «долгосрочного планирования».

Что ты такое, AGI?

Начать нужно с того, что AGI ‒ это не технический термин, а, как выразился Джеффри Хинтон, учёный-первопроходец в области ИИ, ‒ «серьёзная, хотя и нечётко определённая концепция».

«Я не думаю, что есть согласие относительно значения этого термина, ‒ признаёт он. ‒ Я использую это для обозначения ИИ, который, по крайней мере, не уступает людям почти во всех когнитивных вещах, которые люди делают».

А вот для AGI, который лучше людей, учёный, которого называют«крёстным отцом искусственного интеллекта», предпочитает другой термин ‒ «сверхразум».

Изначально немногочисленные сторонники аббревиатуры AGI хотели показать, как учёные-компьютерщики середины 20 века представляли интеллектуальную машину. Это было задолго до того, как исследования в этой сфере разделились на отдельные направления, в рамках которых были созданы специализированные решения. Эти спецверсии технологии оказались довольно жизнеспособны в коммерческом плане. Благодаря им мы имеем сегодня голосовых помощников и инструменты распознавания лиц и речи.

Другим направлением стал генеративный ИИ, который, хоть и предстаёт «всемогущим сочинителем» новых текстов, изображений и звуков, всё же является только набором инструментов, но не подлинным интеллектом (даже в рамках «искусственности»). Общий ИИ ‒ гораздо более туманная идея.

Основные исследования в области искусственного интеллекта «отвернулись от первоначального видения искусственного интеллекта, которое вначале было довольно амбициозным», ‒ говорит профессор Пей Ван, преподающий курс AGI в Университете Темпл, один из организаторов первой конференции AGI в 2008 году.

По его признанию, включение буквы «G» в название было сигналом для тех, кто «всё ещё хочет делать большое дело».

«Мы не хотим создавать инструменты. Мы хотим создать думающую машину», ‒ заключает профессор.

Далеко ли до неба?

Однако… что же именно представляет из себя этот AGI и как мы узнаем, что нам наконец-то удалось его создать?

Учитывая, что когда-то это было лишь идеей на периферии информатики, а теперь ‒ модное слово, с постоянно пересматриваемым значением, мы вряд ли когда сумеем точно сказать, что цель достигнута, даже если это будет правдой. Без чёткого определения даже те, кто пытается воплотить эту идею в жизнь, не смогут ни прогнозировать конец путешествия, ни констатировать его факт. Заблудиться есть множество вариантов. Этот путь в никуда рискует стать дорогой без конца, пункт назначения навсегда закрепится на горизонте, а с каждым новым успехом все наши свершения будут казаться только началом. Или же наоборот, мы рискуем обнаружить однажды, что предполагаемый рубеж уже позади, но до финиша всё ещё далеко.

Например, сейчас переписка с чат-ботами всё больше походит на общение с живым человеком. Эти программы многое умеют благодаря способности подстроиться под беседу, но всё-таки это ещё не совсем тот AGI, который имелся в виду. Развитие функции авторегрессии, когда для прогнозирования следующего в последовательности слова наибольшая вероятность оного выводится из самой этой последовательности, действительно вывели эти модели на новый уровень. В сочетании с огромными вычислительными мощностями для обучения этих систем на основе массивов данных это привело к новому пониманию самой сути понятия искусственный интеллект.

«Двадцать лет назад, я думаю, люди с радостью согласились бы, что системы с возможностями GPT-4 или Gemini достигли общего интеллекта, сравнимого с человеческим, ‒ говорит Хинтон. ‒ Способность более или менее разумно ответить на любой вопрос позволила бы пройти тест. Но теперь, когда ИИ может это делать, люди хотят изменить тест».

Словом, для того, чтобы называться действительным ИИ сегодня, моделям глубокого обучения уже недостаточно уметь имитировать внешние проявления человеческой деятельности. Для достижения статуса AGI требуются технологии, которые могут выполнять не хуже людей широкий спектр задач, который включает прежде всего когнитивные способности: рассуждение, планирование и способность учиться на собственном опыте.

Что ж, определение сути и свойств ‒ важная вещь, но это только половина дела. У нас есть потребность в методах измерения этих свойств, и некоторые исследователи хотели бы достичь консенсуса в этом вопросе уже сейчас. Это стало одной из тем предстоящего майского семинара AGI ‒ первого в рамках крупной конференции по исследованию ИИ в Вене, Австрия.

«Это действительно требует усилий и внимания сообщества, чтобы мы могли договориться о какой-то классификации AGI, ‒ говорит организатор семинара Цзясюань Ю, доцент Иллинойского университета Урбана-Шампейн. ‒ Одна из идей состоит в том, чтобы разделить его на уровни по примеру того, как сравниваются показатели между круиз-контролем и полным самоуправлением в автомобилях».

Есть также компании, которые планируют разобраться с этим самостоятельно. OpenAI, например, возложила ответственность за принятие решения, когда её ИИ-системы достигнут уровня превосходства над людьми «в наиболее экономически ценной работе», на свой некоммерческий совет директоров.

«Правление определяет, когда мы достигнем AGI», ‒ говорится в собственном объяснении OpenAI своей структуры управления. Этот шаг вызван экономическими соображениями. Компания развивает свои системы не в одиночку ‒ крупнейшим её партнёром выступает другой технологический гигант ‒ Microsoft. Поскольку условия их соглашений «применяются только к технологиям, предшествующим AGI», такое решение автоматически лишает партнёра-конкурента прав на коммерциализацию системы, сохраняя за разработчиком конкурентное преимущество.

Вундервафля или Wunderwaffe?

крёстный отец искусственного интеллекта Джеффри Хинтон

Учёный-первопроходец, «крёстный отец искусственного интеллекта» Джеффри Хинтон, более склонен наделить термин AGI значением «сверхразум» (суперинтеллект). По его мнению, AGI‒ не такой же умный, как люди, а «лучше людей». Источник.

Хинтон попал в заголовки мировых газет в прошлом году, когда он уволился из Google и озвучил предупреждение об экзистенциальных опасностях ИИ. Тогда мир разделился на два лагеря: одни посчитали это паранойей, на других же эти заявления произвели сильное впечатление. И вот новое исследование, опубликованное в Science, похоже, может усилить эти опасения.

Его ведущим автором является Майкл Коэн из Калифорнийского университета в Беркли, который изучает «ожидаемое поведение агентов общего искусственного интеллекта», особенно тех, кто достаточно компетентен, чтобы «представлять для нас реальную угрозу, переигрывая нас в планировании».

Коэн ясно дал понять, что таких агентов долгосрочного планирования ИИ пока не существует. Но он утверждает, что «у них есть потенциал» роста, поскольку технологические компании стремятся сочетать современные технологии чат-ботов с более продуманными навыками планирования, используя метод, известный как обучение с подкреплением.

«Постановка перед продвинутой системой искусственного интеллекта цели максимизировать её вознаграждение и, в какой-то момент, удержание вознаграждения от неё, сильно стимулирует систему искусственного интеллекта выводить людей из цикла, если у неё есть такая возможность», ‒ говорится в статье, соавторами которой являются известные учёные в области искусственного интеллекта Йошуа Бенгио и Стюарт Рассел, а также профессор права и бывший советник OpenAI Джиллиан Хэдфилд.

«Я надеюсь, мы убедили людей в правительстве, что им (нужно) начать серьёзно думать о том, какие именно нормативные акты нам нужны для решения этой проблемы», ‒ говорит Коэн и поясняет, что на данный момент «правительства знают только то, что эти компании решат им сообщить».

Это слишком законно или слишком важно, чтобы оставаться в стороне?

Учитывая, что на перспективах развития искусственного интеллекта зарабатывается так много денег, неудивительно, что AGI также становится модным корпоративным словечком, которое иногда вызывает квазирелигиозный пыл. Это разделило часть технологического мира на тех, кто ратует за медленное и осторожное развитие технологии, и других, включая венчурных капиталистов и рэпера MC Hammer-а, объявивших себя частью лагеря "акселерационистов".

Одной из первых компаний, прямо взявшихся за разработку AGI, был лондонский стартап DeepMind, основанный в 2010 году и в настоящее время являющийся частью Google. OpenAI сделала то же самое несколько позже ‒ в 2015 году, ‒ пообещав при этом сосредоточиться на безопасности. Сейчас же может показаться, что все остальные ИТ-гиганты стремятся «запрыгнуть на подножку» уходящего трамвая этой глобальной инициативы.

Соучредителя Google Сергея Брина недавно видели гуляющим в калифорнийском заведении под названием AGI House, а Meta Platforms сообщила в январе, что AGI находится на первом месте в её повестке дня. И это, заметьте, менее чем через 3 года после смены прежнего названия (Facebook) в знак приоритетности для компании разработок в направлении виртуальных миров против ориентации на социальные сети, потерявшей первостепенную значимость.

Генеральный директор Meta Марк Цукерберг подтвердил, что долгосрочной целью является «создание полноценного общего интеллекта», который потребует достижений в рассуждении, планировании, программировании и других когнитивных способностях. В то время как в самой компании уже давно есть исследователи, занятые этим вопросом, публичное внимание к нему Цукерберга означает глубинное изменение настроений и вектора деятельности компании.

Что до Amazon, то одним из признаков новой цели стало то, что главный научный сотрудник голосового ассистента Alexa сменил должность на аналогичную, но уже в отделе AGI.

Хотя это и не так ощутимо для финансового мира, как генеративный ИИ, трансляция амбиций AGI может помочь привлечь специалистов, предоставляя им выбор, где они хотят работать. Цзясюань Ю, исследователь из Университета Иллинойса считает, что, выбирая между, образно говоря, «институтом ИИ старой школы» и теми, чья цель ‒ создать AGI, и у кого достаточно ресурсов для этого, многие выбрали бы последнее.

Означает ли это всё, что мы вплотную приближаемся к реализации этой чудо-машины?

Означает ли это, что пора всерьёз озаботиться не только безопасностью, но этической стороной вопроса? Можно ли будет считать этот «сверхразум» ‒ машиной? Как узнать, что такая действительно интеллектуальная система не обладает (или, может быть, всё-таки обладает?!) сознанием? Как узнать, будет ли она терпеть наш пресловутый человеческий фактор или решит противодействовать?

Мы на распутье, на котором не были, наверное, никогда. Мы создали великое множество всесильных богов, но с обитателями мира идей можно «договориться». Мы создали умопомрачительное оружие, но вольны отказаться от его применения. Теперь же мы рискуем создать и бога, и оружие в одном лице. Что-то подсказывает, что и в этом случае всё зависит от нас.

 


АРМК, по материалам Science X.