Дата публикации: 08.12.2023
Открытость призвана избежать
концентрации власти
в одних руках.
В мире идут споры о том, стоит ли технологии искусственного интеллекта делать общедоступными. Главный упор делается на безопасность, но в действительности мы не можем знать наверняка что принесёт нам «ИИ Шрёдингера», пока не откроем коробку.
Помните, как в детстве мы спорили на что-то ‒ то на жвачки, то на вкладыши от них? Сегодня в мире информационных технологий тоже идут споры, только вот ставка в них несколько посерьёзнее ‒ будущее. Вы можете сказать, что наука вообще и технологии в частности ‒ сферы, сами по себе имеющие определяющее влияние на дальнейшие события. Это, конечно, правда, однако сегодня мы стоим на распутье, важностью своей подобном тому, на котором когда-то оказался один из главных создателей атомной бомбы Роберт Опенгеймер: он заранее знал, что его творение изменит мир ‒ либо укрепит его, либо изуродует.
Конечно, человеку свойственно надеяться на лучшее, а учёным и вовсе бывает крайне трудно поверить в то, что системная коллективная зашоренность может одержать сокрушительную победу над коллективным же здравомыслием. Около 80 лет назад на эту ошибку напоролся сам Опенгеймер; на неё же сегодня можем попасться и мы.
Итак, вопрос в следующем: стоит ли нам выпустить искусственный интеллект «на вольные хлеба» или же более разумным будет заточить его в научных лабораториях, сделав своего рода заложником нашей безопасности?
Технокорпорации, лидирующие в этой сфере, активно поддерживают необходимость политического регулирования ИИ-технологий, но тут есть важный нюанс: не все они хотят одного и того же. Точнее так: подчиняясь законам бизнеса, каждая из них каждая из них ищет прежде всего собственной выгоды, и идут они к этому разными путями. Потому столь же активно, как и регулирование нейросетевых решений, участники споров лоббируют принятие таких новых правил и норм, которые бы защитили их бизнес и обеспечили привилегированное положение по отношению к другим участникам рынка.
Эти гиганты базируются в других странах, но, учитывая технологическую глобальность цивилизации, нас с вами эти споры не могут не коснуться, в особенности что касается результатов этих противостояний.
Как пишет издание The Associated Press, IBM и Meta (материнская компания Facebook, запрещённой в России соцсети) во вторник создали новую группу AI Alliance. Она, в противовес своим конкурентам ‒ Google, Microsoft и OpenAI, создавшей ChatGPT, ‒ которые нацелены на сокрытие технологий, выступает за «открытый научный» подход к разработке ИИ-решений.
Эти два полярных лагеря (условно их можно назвать «открытый» и «закрытый») расходятся во мнениях относительно того, следует ли раскрывать и делать технологии, лежащие в основе ИИ, широкодоступными. Номинально центральной темой дебатов выступает безопасность (причём ‒ не только и не столько информационная), но не стоит забывать, что обоими полюсами движут соображения «большого бизнеса», и каждый сторонник той или иной точки зрения стремится построить задел на будущее получение прибылей от своих достижений в этой области.
Те, кто призывает «открыть карты» выступают за подход, отвергающий патенты и какую-либо секретность вроде коммерческой тайны о сути изобретений. Опять же: главный упор делается на безопасность, поскольку возможности обсуждаемых технологий настолько велики, что их сравнение с оружием действительно можно считать оправданным. Будучи вещью в себе и сравнимый в этом разве что с котом Шрёдингера, ИИ не явит нам никаких подробностей о своей роли в жизни нашей цивилизации пока мы, условно говоря, не откроем «коробку». Ждут нас сокровища на его дне или же он обернётся ящиком Пандоры ‒ наверняка ответит только история. Пока же нам стоит основательно подготовиться, чтобы сделать разумным выбор, от которого столь многое зависит.
Но и тут у нас есть некоторый козырь в рукаве. Как утверждает Дарио Гил, старший вице-президент IBM, руководящий подразделением исследований, искусственный интеллект ‒ «это не вещь, которую заперли в бочке, и никто не знает, что это такое». Другими словами, научный мир довольно хорошо представляет себе все риски и достоинства технологии, а значит неприятностей в случае открытия публичного доступа к ней быть не должно.
Дарио Гил, старший вице-президент и директор по исследованиям IBM, выступает в Политехническом институте Ренсселера 13 октября 2023 года в Трое, США. Источник.
Что такое ИИ с открытым источником?
Термин «открытый исходный код» возник из многолетней практики создания программного обеспечения, в которой код является бесплатным или широкодоступным для изучения, изменения и развития. ИИ с открытым исходным кодом в этом смысле аналогичен софтверным решениям, однако включает в себя больше, чем просто код.
Сегодня, кстати, учёные-компьютерщики расходятся во мнениях о том, как именно его стоит трактовать. Тут на арену выходят два соображения: с одной стороны, нужно определить какие компоненты технологии стоит сделать общедоступными или уже таковыми являются, а с другой ‒ существуют ли ограничения, сдерживающие его, кода, использование. Ведь с научной точки зрения открытая, доступная для изучения база сведений о прогрессе в этой сфере ‒ это материалы для более широкой философии, технических, социальных и даже политических исследований.
Новоиспечённый альянс включает в себя не только IBM и Meta. Сюда вошли такие техногиганты, как Dell, Sony; популярные производители центральных процессоров для персональных компьютеров AMD и Intel; несколько стартапов в области ИИ и некоторые исследовательские университеты. Они, как акцентировал вице-президент Гил в интервью Associated Press перед открытием AI Alliance, «собираются вместе, чтобы заявить, что <…> будущее ИИ будет строиться на основе открытого научного обмена идеями и открытых инноваций, включая открытый исходный код и открытые технологии».
Дабы избежать некоторой путаницы, нужно уточнить, что, несмотря на своё название, OpenAI ‒ компания-разработчик, стоящая за ChatGPT и генератором изображений DALL-E, ‒ сегодня не вполне оправдывает своё название, создавая явно закрытые системы ИИ. Это случилось, когда её новое руководство отошло от курса, заданного основателями компании, ставившими перед ней цели работать, как пишется в Википедии, «на благо общества, а не государства или корпораций».
«Чтобы констатировать очевидное, существуют краткосрочные и коммерческие стимулы против открытого исходного кода», ‒ заявил в апрельском видеоинтервью Стэнфордскому университету Илья Суцкевер, сегодня ‒ главный научный сотрудник и соучредитель OpenAI. Однако он упоминает также и о «более долгосрочных опасениях» относительно «невероятно мощных возможностей» искусственного интеллекта, «которые было бы слишком опасно делать общедоступными».
Чтобы обосновать опасность открытого исходного кода, Суцкевер привёл в пример гипотетическую идею об ИИ-системе, которая научилась открывать собственную биологическую лабораторию.
Насколько же это в действительности опасно?
Даже нынешние модели искусственного интеллекта создают риски использования их в преступных целях, так что сомневаться в возможностях их будущих инкарнаций совсем не приходится. В качестве примера учёный из Калифорнийского университета в Беркли, Дэвид Эван Харрис, упоминает уже набившую оскомину мирового уровня дезинформацию. Допустим, с целью срыва или фальсификации выборов.
«Открытый исходный код действительно великолепен во многих аспектах технологий, ‒ соглашается он, ‒ но ИИ ‒ это другое».
«Любой, кто смотрел фильм «Оппенгеймер», знает, что, когда делаются большие научные открытия, есть много причин дважды подумать о том, насколько щедро стоит делиться деталями всей этой информации», ‒ напоминает исследователь.
Центр Гуманных Технологий, давний критик практики Meta в социальных сетях, входит в число исследовательских групп, привлекающих внимание к рискам, связанным с открытым исходным кодом или утечкой моделей искусственного интеллекта в чужие руки. Его представитель, Камилла Карлтон, вторит учёному из Беркли, заявляя об определяющей важности сдерживающих норм и правил: «до тех пор, пока нет ограничений здесь и сейчас, совершенно безответственно предлагать эти модели публике».
Это наращивание страха?
Дебаты о судьбе венца ИТ вышли далеко за пределы сферы науки, бизнеса и политики. В обществе интерес к обсуждениям преимуществ открытой разработки технологии и возможных угроз от этого нарастает всё больше.
Ян ЛеКун, главный научный сотрудник Meta в области искусственного интеллекта, раскритиковал представителей противоположного лагеря в лице OpenAI, Google и стартапа Anthropic. Его осенняя заметка в социальных сетях, по сути, представляет собой уличение оппонентов в «массовом корпоративном лоббировании» с целью написания будущих правил под свои нужды, дабы их высокопроизводительные модели искусственного интеллекта могли приносить им больше выгоды. Однако учёный видит в этом опасность концентрации власти над развитием этой и вытекающих из неё технологий в одних корпоративных руках. И на то есть основания, ведь эти компании вместе с Microsoft, ключевым партнёром OpenAI, уже сформировали собственную отраслевую группу под названием Frontier Model Forum.
Вице-президент и главный научный сотрудник Meta в области искусственного интеллекта Ян ЛеКун выступает на выставке Vivatech в Париже, Франция, 14 июня 2023 года. Источник.
ЛеКун заявил в X (ранее ‒ Twitter) о своей обеспокоенности тем, что нагнетание паники со стороны коллег-учёных по поводу «сценариев конца света под предводительством ИИ» вредит не просто искажением фактов. Самое страшное ‒ оно даёт возможность играть на нервах наивной общественности пустыми аргументами тем, кто хочет получить безграничную власть над научным и техническим прогрессом, просто запретив исследования и разработки с открытым исходным кодом.
«В будущем, когда системы искусственного интеллекта станут хранилищем всех человеческих знаний и культуры, нам нужно, чтобы платформы были с открытым исходным кодом и были свободно доступны, чтобы каждый мог внести в них свой вклад, ‒ написал ЛеКун. ‒ Открытость ‒ это единственный способ заставить платформы ИИ отражать всю совокупность человеческих знаний и культуры».
Для IBM этот спор имеет гораздо более длительную историю, которая началась задолго до бума искусственного интеллекта ‒ ещё с 90-х годов, когда компания стала одним из первых сторонников Linux ‒ операционной системы с открытым исходным кодом.
«Это своего рода классический подход к захвату регулирующих органов, направленный на то, чтобы вызвать опасения по поводу инноваций с открытым исходным кодом, ‒ рассказывает Крис Падилья, возглавляющий глобальную команду IBM по связям с правительством. ‒ Я имею в виду, что это была модель Microsoft на протяжении десятилетий, так? Они всегда выступали против программ с открытым исходным кодом, которые могли бы конкурировать с Windows или Office. Они применяют аналогичный подход и здесь».
Что же делают правительства?
Для начала нужно понять, почему дебаты об «открытом исходном коде» затерялись среди дискуссий вокруг радикального указа президента США Джо Байдена об ИИ.
Это может быть связано с двумя вещами. Во-первых, в упомянутом документе открытые модели были охарактеризованы высокотехнологичным описанием «фундаментные модели двойного назначения с широкодоступными весами», где «веса» ‒ просто общее наименование числовых параметров, которые влияют на работу нейромодели. А во-вторых ‒ и это, пожалуй, куда более интересно, ‒ говорилось, что они нуждаются в дальнейшем изучении.
Публикация этих сведений в сети«может принести существенные выгоды, но также и существенные риски для безопасности, такие как устранение внутренних защитных мер модели» ‒ явствует из указа. На разбор ситуации министру торговли Джине Раймондо было дано время до июля. При помощи Национального института стандартов и технологий, министерств энергетики, внутренней безопасности и прочими ведомствами, она должна провести аудит проблемы с экспертами в данной сфере и дать рекомендации по управлению потенциальными выгодами и рисками. Как следует из документа, на это всё правительство США выделило министру всего 270 дней. Учитывая грандиозность задачи, это довольно не много.
Но почему нам есть дело до того, как решают этот вопрос в Америке? Да потому, что, видимо, результаты этой работы будут приниматься во внимание во всём мире, поскольку корпорации США являются основными разработчиками технологии.
В Европейском Союзе дела обстоят несколько иначе. На выработку стратегии использования и регулирования технологий искусственного интеллекта в госструктурах ушло всего 10 часов. Конечно, это нельзя сравнивать с разработкой полноценных нормативных систем управления рисками, на что замахнулись заокеанские соседи по планете, однако это же ещё и не точка. Так, обсуждавшийся в ходе переговоров ряд положений, в том числе об освобождении определённых «свободных компонентов ИИ с открытым исходным кодом» от правил для коммерческих моделей, вполне может быть пересмотрен в будущем, и не раз. Видимо, то же касается и уступок вроде отказа от использования ИИ в биометрике, принятого, как сообщает Reuters, «ради поддержки законодателей».
Вообще же, соображений в формате «за и против» свободного или закрытого ИИ у каждого, наверное, найдётся немало. С одной стороны, действительно, у преступного мира немало ресурсов, и, в случае публичной доступности исходников, создание на их базе собственных ИИ-решений и нейромоделей для таких сил ‒ задача далеко не запредельная. Скажем, те же наркокартели могут использовать это технологическое могущество для наращивания рынков сбыта своих ядов. О финансовых же махинациях и говорить не стоит ‒ это первое, что приходит в голову.
Однако не стоит забывать и о том, что, скорее всего, даже при полном запрете публичности, правонарушители всё равно добудут нужные данные. Если учесть, что в коррупции погряз уже, наверное, весь мир, это становится более, чем вероятно. Так что в случае закрытия технологии, нам просто нечем будет им ответить, и властям придётся идти на поклон к корпорациям, «владеющим магией», чтобы хоть как-то бороться с угрозой и защитить своих граждан.
С другой стороны,.. Что будет, если отдать контроль над прогрессом корпорациям или государству? Не будет ли угрожать такое положение вещей элементарной тиранией? Мир это проходил уже неоднократно, и опыт показывает: худшее, что может быть ‒ это безнаказанность власть имущих. Причём не важно, что это за власть ‒ политиков или денег. Вспомните: Византию ‒ империю-долгожительницу, просуществовавшую без малого тысячу лет, ‒ низвергли в небытие венецианские торговцы, подкупами подорвавшие государственные устои.
Ситуация с метаморфозой OpenAI ‒ лучшая иллюстрация оправданности этих опасений. В Википедии о принципах, стоявших у истоков компании, написано следующее: «Открытость призвана избежать концентрации власти, которую даёт ИИ, в одних руках». Может быть только благодаря этому мы сегодня можем обсуждать саму тему открытости нейросетевых технологий.
Что ж, может быть, вышеизложеное слишком походит на сюжеты околофантастических антиутопий, но, как бы ни казались кому-то эти версии забавными или «притянутыми за уши» домыслами, они говорят не о чём-то невероятном и вовсе не означают что-то несбыточное. Очевидно, что споры идут не за участь технологии или авторских прав, а за судьбы мира. Необходимо решать, каким мы хотим видеть «облик грядущего», ведь, как говорится в одноимённой книге Герберта Уэллса, «будущее зависит от нашего выбора».
АРМК, по материалам AP.