×

Исходник.

Завершён опрос почти 3000 экспертов по машинному обучению на предмет того, как изменится наша жизнь в мире искусственного интеллекта: 5 января на сервере препринтов arXiv в статье «Тысячи авторов ИИ о будущем ИИ» были выложены результаты умозрительного исследования наших социальных и технологических перспектив, проведённого компанией AI Impacts.

Специалисты компании, занимающейся изучением долгосрочных последствий развития и эксплуатации соответствующих технологий, составили вопросы, на которые ответили 2778 исследователей. Все они ‒ профессионалы, работающие с алгоритмами глубокого обучения; результаты их теоретических работ и практических исследований публикуются в междисциплинарных и узкоспециализированных научных изданиях и на ведущих интернет-площадках. Таким «коллективным разумом» получены прогнозы о темпах прогресса ИИ, а также о природе и влиянии передовых его систем. Примечательно, что ускорение развития технологии за год довольно определённо сказалось на мнении специалистов: в среднем ориентировочные даты прогнозируемых годом ранее изменений приблизились к нашим дням на 13 лет.

Но, если вкратце, у нас есть две новости: хорошая и плохая.

Хорошая заключается в следующем: большинство умников от науки считает, что ИИ откроет волну выдающихся достижений в различных сферах знаний, литературе, математике, музыке и архитектуре. А главное, он сделает это на несколько лет раньше, чем прогнозировалось в подобном же опросе двумя годами ранее.

Ну и, как говорится, по классике: плохая новость: мы все умрём.

«Тоже мне новость!» ‒ скажет обыватель в приступе адекватности. Однако курьёз в том, что столь печальные перспективы указали далеко не все респонденты, и дело, как вы понимаете, не в том, что остальные собрались жить вечно. От 38% до 51% опрошенных считают, что вероятность вымирания, вызванного ИИ, составляет (в среднем по результатам оценок) не менее 10%. В то же время минимальная вероятность этого плачевного для нас сценария оказывается на уровне 5%. В этом уверенны более половины участников исследования (почти 60%): по их мнению, риски достигают показателей аж 1 из 20.

С другой стороны ‒ 20 к 1, что мы выживем. Шансы довольно неплохие, но лучше бы, конечно, не рисковать.

Однако эта мрачная тема – лишь один край на спектре основных итогов исследования. А на другом краю ‒ обнаружение учёных, что темпы развития «нейровычислений» уже опережают предположения, сделанные ими всего пару лет назад. Тут следует пояснить, что, по аналогии с выражением «большое видится на расстоянии», 2 года ‒ слишком малый срок для фиксации какого-либо более-менее значимого прогресса в любой глобальной технологии или затее. Однако в случае с ИИ ситуация изменяется довольно резко и неожиданно быстро. Теперь уважаемые респонденты полагают, что некоторые ключевые изменения произойдут на много раньше, чем считалось ещё вчера.

Посягательство машин на до сих пор чисто человеческую вотчину, когда они научаются решать всевозможные, характерные исключительно для нас задачи (уже без нашей помощи), идёт, как говорится, полным ходом. Но только новость не в том, что ИИ будет выполнять почти любую нашу работу лучше, с меньшими затратами и эффективнее, чем мы, а в том, что это дело не столь уж отдалённого будущего. 50%-ная вероятность этого заметно приблизилась в новом исследовании: учёные перенесли её с далёкого 2060 года на 2047, до которого всего каких-то 20 с небольшим новогодних ночей.

И вроде бы, с одной стороны, эти 50% ‒ условие, при котором мы теряем половину рабочих операций (о целых специальностях в таком случае, наверное, говорить рано); а с другой ‒ эта же альтернатива отражает способность самих алгоритмов ИИ стать достаточно развитыми для таких задач. Принимая это во внимание, может показаться, что ситуация и прогноз не столь уж плохи, но, тем не менее, не будем упускать, что эти два аспекта практически неотделимы друг от друга, ведь как только ИИ чему-то научился, мы тут же его внедряем.

Так что, если наука будет продолжать работать бесперебойно, вероятность того, что машины без посторонней помощи превзойдут людей во всех возможных задачах, оценивается в 10% к 2027 году. Однако с этим прогнозируется, что к 2037 году тех же 10% достигнет вероятность того, что все человеческие занятия станут полностью автоматизированными. А 50% рубеж этого глобального риска прогнозируется уже на 2116 год вместо 2164, как в таком же опросе 2022.

Эти полвека разницы, набежавшие за два года ‒ следствие продолжающегося ускорения развития информационно-вычислительных технологий. А поскольку это ускорение не сбавляет обороты, оно может внести свои коррективы в прогнозируемые сроки ещё не раз.

Другие интересные достижения ИИ прогнозировались уже на конец 2020-х годов. Среди них ‒ возможность создавать видео с чередующимися ракурсами, писать газетные сенсации-бестселлеры для изданий размаха «New York Times» и ‒ о чудо! ‒ складывать белье. Совокупные прогнозы также выдают 50% вероятность достижения нейросистемами нескольких целей к 2028 году: автономное создание сайта обработки платежей с нуля, автономную загрузку и точную настройку большой языковой модели.

Сюда же относится и создание безупречных песенных хитов в стиле и звучании какого-то конкретного артиста, неотличимые от настоящих исполнителей. По оценкам исследования, это будет вполне осуществимо в течение нескольких лет. Видеосервисы уже сегодня полны таких поделок; вам наверняка попадались песни, «спетые» голосами Егора Летова, Виктора Цоя, Михаила Горшенёва. Это зачастую выглядит коряво, но справедливости ради нужно заметить, что иногда, местами, результат звучит весьма неплохо, а мы с вами застали самое начало и живём только на заре технологии.

Этика таких достижений ‒ вопрос других исследований, но сами возможности уже здесь, и их прогресс неостановим. Поскольку ИИ становится умнее и мощнее, 70% экспертов считают, что «хорошие результаты более вероятны, чем плохие».

А теперь едва ли не самое интересное: из 39 аспектов, предложенных анкетируемым специалистам для высказывания, 35 получили поддержку как минимум 50%-ной вероятности быть выполненными в течение всего десяти лет. Эти задачи включали в себя победу над человеком в Го (древнекитайская логическая настольная игра) после того, как каждый соперник разучит одинаковое количество игр; узнавание объекта, увиденного только один раз; и победу в престижной и печально известной сложной олимпиаде Патнэма по математике.

Хотя некоторые выразили обеспокоенность по поводу упомянутого вымирания, более половины респондентов указали «существенную» или «крайнюю» озабоченность по поводу тревожных тенденций ИИ. Особенно это касается части распространения откровенно ложной и/или вводящей в заблуждение информации. Эти соображения регулярно находят отражение также и в различных СМИ, так что они ‒ плод не только сугубо научных опасений. Например, недавно нечто подобное прозвучало в эфире американской телекомпании NBC.

«Сближение событий внутри страны и за рубежом, в традиционных и социальных сетях – и в условиях растущего авторитаризма, глубокого недоверия, политических и социальных волнений – делает опасности, исходящие от пропаганды, лжи и теории заговора более ужасными, чем когда-либо», ‒ сказано в новостном репортаже.

Опрос также выявил «чрезвычайную обеспокоенность» респондентов ожиданиями роста числа и качества различного рода подлогов и мошеннических схем. Всё это (начиная с дипфейков и разжигания неравенства безответственными пользователями до манипулирования общественным мнением и контроля над населением со стороны авторитарных правительств) может повергнуть в хаос социальную, экономическую и государственную устойчивость в любой отдельно взятой стране. В связи с этим, три четверти респондентов заявили о необходимости провести больше основательных исследований в области безопасности, чтобы предотвратить растущие риски злоупотреблениями ИИ.

Широта возможностей для совершения правонарушений, пришедшая с развитием этой технологии, уже в ближайшие 10 лет потребует от правоохранительных органов совершенно новых методов работы. Возможно, сейчас уместно вести речь даже не столько о доказательной экспертизе, сколько о профилактических мерах, включая действия на опережение. Например, 16 января (уже после выхода отчётной статьи по исследованию) стало известно, что в Университете ИИ в Абу-Даби создали нейромодель, которая способна имитировать почерк конкретного человека с невероятной точностью. Рассказывать о том, насколько это лакомое решение для преступников разного уровня не имеет смысла, так что теперь перед его разработчиками стоит задача сделать другую нейросеть, которая смогла бы идентифицировать подделку и оригинал.

Но вернёмся к исследованию. В целом настроение учёных склоняется к позитиву, хоть это и не вполне очевидно из результатов работы. Тут, на первый взгляд, можно запутаться в процентах и формулировках, но в принципе разобраться можно.

Итак. В то время как 68,3% участников посчитали, что полезного потенциала в превосходстве ИИ над человеком больше, чем вреда, удручающей вероятности глобального фиаско (вроде вымирания человечества) около половины из числа этих оптимистов отдали по крайней мере 5% (те самые 1 к 20). С другой стороны, 59% пессимистично настроенных респондентов дали те же 5% и более за чрезвычайно хорошие перспективы.

Если учесть перекосы в приведённых процентах, получается, что почти треть (точнее ‒ около 27%) участников исследования либо просто гадает на кофейной гуще, либо воздержалось от ответа по множеству вопросов. В то же время диаметрально противоположные крайности, воплотившиеся в 5% показателях, наводят на мысль о том, что в целом научное сообщество не пришло к единому мнению. Не означает ли это, что мировая наука не может полагаться на собственные прогнозы?

Например, помимо прочего были выявлены разночтения в оценке темпов развития ИИ для будущего человечества. Кто-то предлагал искусственно замедлять прогресс для более полного контроля возможных негативных последствий, другие же выступили за недопустимость цензуры научной и инженерной мысли. Тем не менее, предложение уделять больше внимания исследованиям, направленным на минимизацию потенциальных рисков, связанных с системами глубокого обучения, получило широкую поддержку.

«Хотя оптимистические сценарии отражают потенциал ИИ совершить революцию в различных аспектах работы и жизни, ‒ говорится в докладе, ‒ пессимистические прогнозы, особенно те, которые связаны с риском вымирания, служат суровым напоминанием о высоких ставках, связанных с разработкой и внедрением ИИ».

После всего этого на ум приходит, вроде бы крамольная, мысль, что в долгосрочной перспективе эти предположения уважаемых учёных ценности не имеют. Однако само исследование занимающих их головы идей может стать фундаментом для изучения движения научных воззрений. Может когда-нибудь (а может и довольно скоро) благодаря этому и подобным исследованиям все наши опасения, чаяния, желания и идеи приведут нас к созданию нейромоделей, которые сами спрогнозируют собственное развитие и влияние на нашу жизнь, и будут руководствоваться нашими же интересами.

…Как-то слишком походит на пресловутое «вот барин придёт, барин нас рассудит»…

Надо бы как-то самим. 

 

АРМК, по материалам Science X.