Авторы: Елена Ларина , Владимир Овчинский
Источник информации : ссылка
Учёных, которые занимаются проблемами Искусственного Интеллекта, условно можно разделить на следующие категории:
ИИ – оптимисты, убежденные в том, что ИИ – это будущее человечества, а возможности его безграничны;
ИИ – скептики, считающие, что значение ИИ слишком завышено, и предстоит стагнация ИИ;
ИИ – «апокалиптики», полагающие, что неконтролируемое развитие ИИ может привести к «восстанию машин» – роботов, которое способно вызвать последствия, близкие к апокалипсису;
ИИ – рационалисты, пытающиеся найти «золотую середину» во всех дискуссиях.
Большинство публикаций на тему ИИ подготовлены ИИ – оптимистами и ИИ – «апокалиптиками».
Тем более, интересно узнать мнение ИИ – скептиков (на деле, скептики – это и есть ядро рационалистов).
1. Скептический рационализм
3 сентября 2023 года в The National Interest опубликована статья Винсента Дж. Карчиди «Нас ждёт зима искусственного интеллекта?».
Автор пишет, что более года назад он задал простой вопрос: «что, если машинное обучение — самая известная сегодня исследовательская парадигма в области искусственного интеллекта (ИИ) — более ограничено, чем кажется?».
Готовы ли мы к замедлению или стагнации развития ИИ («зима» ИИ)?.
За прошедший период кардинально изменились современные возможности в областях ИИ, наиболее заметной из которых является обработка естественного языка. Развитие генеративного искусственного интеллекта, используемого в таких приложениях, как ChatGPT от OpenAI, Claude от Anthropic и Stable Diffusion от Stability AI, привело к бесконечному потоку освещения этой технологии в СМИ. Генеративный ИИ создает, казалось бы, бесконечное количество приложений. Его развитие вызвало поток воодушевляющих исследований и геополитическую «схватку» огромных масштабов.
Если бы кто-то вел счет, то опасения автора по поводу того, что зима ИИ притупит инновации, в ретроспективе могли бы показаться совершенно необоснованными. Но точна ли эта картина? Насколько серьезно следует относиться к угрозе замедления или стагнации искусственного интеллекта? Этим возможностям, считает Карчиди, за исключением некоторых оборонных аналитиков, таких как Пол Шарр, которые признают, что развитие ИИ может «исчерпаться», не было уделено должного внимания.
Автор предлагает краткий экскурс в историю ИИ.
Взлёт, падение и снова взлёт
«ИИ — это странная область. Область колеблется между «зимой» и «летом», что указывает на рост и падение финансирования, возможно, из-за недооценки трудностей, с которыми сталкиваются исследователи». В 1955 году в основополагающем исследовательском предложении в области искусственного интеллекта действительно были такие светила, как Джон Маккарти и Марвин Мински, среди прочих, написавшие: «Мы думаем, что можно добиться значительного прогресса в одной или нескольких из этих проблем [использование языка, формирование абстракции и концепции, решение проблем и самосовершенствование], если тщательно отобранная группа ученых вместе поработает над этим в течение лета». «Сверхамбициозность» неадекватно описывает основополагающее мышление ИИ.
С тех пор в этой области наблюдались циклы, характеризующиеся доминирующими исследовательскими парадигмами. Использование явных правил, закодированных вручную программистами-людьми, доминировало в первой волне, символическом ИИ, в надежде, что этот подход в конечном итоге уловит динамизм человеческого интеллекта. Другие, известные как коннекционисты, надеялись, что система, основанная на структуре мозга млекопитающих, в которой искусственные нейронные сети учатся на данных напрямую, без явных правил, приведет к интеллекту, подобному человеческому. Но к 1970-м годам финансирование сократилось, и в этой области началась первая зима.
«Экспертные системы» положили начало «Лету искусственного интеллекта» в начале 1980-х годов, вручную закодировав знания по конкретным дисциплинам в системы для заслуживающего доверия коммерческого внедрения. Однако этот подход натолкнулся на препятствия в специализированном оборудовании и сравнительно более успешное внедрение настольных компьютеров, что привело к уходу символического ИИ со сцены.
Вычислительная мощность, которая сопровождала появление настольных компьютеров, помогла коннекционистам, которые использовали эту мощь для совершенствования искусственных нейронных сетей, что привело банки к принятию основанной на этом подходе технологии искусственного интеллекта, которая использовала распознавание символов для обработки чеков.
Тем не менее, потребность в данных и вычислительной мощности, необходимая этой новой форме ИИ, которая обучает глубокие нейронные сети, привела к ее стагнации с 1990-х до начала 2010-х годов, когда революция больших данных и увеличение вычислительной мощности привели к возрождению глубокого обучения.
Прошедшее десятилетие как гонка к потолку
Последние десять лет развития искусственного интеллекта обычно называют полосой побед глубокого обучения, подвида машинного обучения. Но внезапная «гонка вооружений» в области ИИ между американскими корпоративными гигантами, начатая в начале 2023 года ChatGPT OpenAI, означает, что ажиотаж вокруг генеративного ИИ «вышел из-под контроля».
Ажиотаж вокруг генеративного искусственного интеллекта скрывает неравномерный прогресс в этой области и технические препятствия на пути к надежному развертыванию систем искусственного интеллекта для чувствительных операций. В то время как типичная дискуссия по этому вопросу может быть сосредоточена на противоположных позициях относительно того, что генеративные системы ИИ являются «разумными» в значимом смысле или, напротив, являются тупиками на пути к «общему искусственному интеллекту» или «интеллекту человеческого уровня».
«Ему не обязательно принимать эту форму в целях обороны». Вместо этого генеративный ИИ можно рассматривать как ускорение продолжающейся гонки за пределом полезности машинного обучения в имитации когнитивных способностей человека. Он одновременно успешен в узких областях и является гигантским шагом к границам этого подхода, пожирая оставшиеся плоды в саду машинного обучения.
Преодолеть коммерческий ажиотаж
По мнению автора, сейчас самое время противостоять этой шумихе, особенно учитывая зависимость генеративного ИИ от инноваций в области ИИ частного сектора. Консультативная фирма Gartner, известная своим «циклом ажиотажа» по поводу новых технологий, недавно отнесла генеративный ИИ к «пику завышенных ожиданий», непосредственно перед тем, как погрузиться в «глубину разочарования», когда поставщикам становится критически важно развернуть технологию в полном объеме. осознание своей ограниченности.
Не следует питать иллюзий относительно способности существующих генеративных систем искусственного интеллекта и владельцев крупных корпораций преодолеть следующий (неисчерпывающий) список препятствий со скоростью, подходящей для частных инвестиций:
склонность к галлюцинациям (придумывание фактов с тоном авторитетности);
непредсказуемость перехода одной версии модели к другой;
недостаточно адаптированные бизнес-модели, отражающие экономическую ценность рассматриваемого приложения генеративного ИИ;
несовместимость методов реализации ИИ и инфраструктур данных некоторых компаний;
уязвимость к состязательным атакам, не имеющим надежных мер защиты;
недостаточный потребительский интерес в поисковых системах, интегрированных с искусственным интеллектом.
В соответствии с предыдущей оценкой Карчиди, зима ИИ не гарантированно наступит в разумные сроки. Некоторые утверждают, что со временем технология улучшится , сделав ее недостатки невидимыми для потребителей. В принципе автор согласен с этим, но это важное предположение, которое игнорирует два важных факта:
(1) время не безгранично, и пузырь ИИ может лопнуть до того, как будут преодолены ограничения генеративного ИИ;
(2) Генеративный ИИ уже получает непропорционально большую долю финансирования ИИ во всех подобластях. Генеративный ИИ в Америке существует в динамичной коммерческой среде и выживет, процветет или умрет прежде всего в этом контексте.
Что надо сделать, чтобы уменьшить чрезмерную зависимость от генеративного ИИ?
«Прежде всего, «необходимо продемонстрировать интерес к новым исследовательским парадигмам ИИ, таким как причинный и нейросимволический ИИ.
Комментарий Е.Л, В.О:
Нейросимволический ИИ – это ИИ со здравым смыслом. Это направление разрабатывает IBM и MIT, совместно с Гарвардским и Стэнфордским университетами. Исследования финансирует агентство DARPA министерства обороны США. Идея состоит в том, чтобы заставить алгоритмы учиться, как люди с младенчества – не просто распознавать объекты, но и понимать, что они видят.
Причинный ИИ – система, которая может указать причину и следствие, объяснить процесс принятия решения. Лаборатория причинного ИИ создана в Колумбийском университете, США.
Оба этих ИИ, по мнению Gartner, находятся на стадии «инновационного триггера» цикла ажиотажа, должны быть обнаружены организациями высокого уровня, определяющими повестку дня, такими как CDAO».
Кроме того, по мнению автора, приоритетное внимание следует уделять инновационным сочетаниям методов в различных областях ИИ (например, обработка естественного языка, стратегическое мышление, компьютерное зрение и т. д.).
2. Оптимистический рационализм
Пока скептики ищут пути спасения ИИ, оптимисты – рационалисты обдумывают, как лучше всего регулировать этот сектор. Уже появляются разные подходы.
В ноябре 2023 года Великобритания проведёт широко разрекламированный международный саммит по управлению искусственным интеллектом. Поскольку повестка дня и список приглашенных все еще уточняются, самое важное решение, которое предстоит принять британским чиновникам, заключается в том, пригласить ли Китай или провести более эксклюзивную встречу для G7 и других стран, которые хотят «защитить либеральную демократию как основу цифрового общества».
Компромисс очевиден. Любой глобальный подход к управлению ИИ, исключающий Китай, скорее всего, будет иметь лишь ограниченное влияние. Но присутствие Китая неизбежно изменит повестку дня. Саммит больше не сможет решить проблему использования ИИ правительствами для внутренней слежки – или любой другой спорный вопрос, который беспокоит демократические правительства.
Как пишет Ану Брэдфорд (профессор Колумбийской юридической школы, США, автор книг по проблемам ИИ) в статье «Чья революция ИИ?» (Project Syndicate, 01.09.2023), «какой бы ни была повестка дня, саммит является разумным ответом на быстрые и впечатляющие достижения в области искусственного интеллекта, которые открывают перед правительствами как беспрецедентные возможности, так и проблемы. Мировые лидеры стремятся не пропустить технологическую революцию, которая могла бы – в идеале – помочь им расширить свою экономику и решить глобальные проблемы».
ИИ, несомненно, обладает потенциалом для повышения производительности труда людей и стимулирования социального прогресса. Это может привести к важным достижениям в образовании, медицине, сельском хозяйстве и многих других областях, имеющих решающее значение для человеческого развития. Он также станет источником геополитической и военной мощи, предоставляя значительное стратегическое преимущество странам, которые лидируют в его развитии.
Но ИИ также создает социальные проблемы и риски – отсюда и растущий хор, требующий, чтобы правительства вмешались и регулировали его. Ожидается, что, среди прочего, ИИ изменит рынки труда таким образом, что многие работники будут уволены, а некоторые будут гораздо более продуктивными, что приведет к увеличению существующего неравенства и подрыву социальной сплоченности. Злоумышленники также будут использовать его в качестве оружия для совершения мошенничества, обмана людей и распространения дезинформации.
При использовании в контексте выборов ИИ может поставить под угрозу политическую автономию граждан и подорвать демократию. Будучи мощным инструментом слежки, он угрожает подорвать фундаментальные права и гражданские свободы людей.
Хотя вышеперечисленные риски почти наверняка материализуются, другие носят более спекулятивный, но потенциально катастрофический характер. В частности, некоторые комментаторы предупреждают, что ИИ может выйти из-под контроля и представлять реальную угрозу человечеству («апокалиптики», о которых мы говорили – Е.Л., В. О.).
Нет идеальной модели управления ИИ
Стремясь воспользоваться беспрецедентными возможностями ИИ и одновременно управлять потенциально серьезными рисками, возникают различные подходы к регулированию этого сектора. Не решаясь вмешиваться в разработку революционной технологии, которая имеет решающее значение в экономической, геополитической и военной конкуренции с Китаем, Соединенные Штаты полагаются на добровольное руководство и саморегулирование со стороны технологических компаний.
Напротив, Европейский Союз непреклонен в том, что управление ИИ не должно оставаться в руках технологических компаний. Вместо этого цифровое регулирование должно быть основано на верховенстве закона и подлежать демократическому контролю. В дополнение к существующему набору цифровых правил ЕС находится на заключительной стадии принятия всеобъемлющего, обязательного регулирования ИИ, которое фокусируется на защите основных прав людей, включая их право на неприкосновенность частной жизни и недискриминацию.
«Китай также проводит амбициозное регулирование ИИ, но с авторитарными характеристиками. Власти стремятся поддержать развитие искусственного интеллекта, не подрывая цензуру и не ставя под угрозу монополию Коммунистической партии Китая на политическую власть. Но это подразумевает компромисс, потому что для поддержания социальной стабильности МГБ Китая должно ограничить контент, который может быть использован для обучения больших языковых моделей, лежащих в основе генеративного ИИ».
Таким образом, США, ЕС и Китай предлагают конкурирующие модели регулирования ИИ. Будучи ведущими мировыми технологическими, экономическими и регуляторными державами, они, по мнению Брэдфорд, представляют собой «цифровые империи»: каждая из них не только регулирует свои внутренние рынки, но и экспортирует свою модель регулирования и стремится формировать глобальный цифровой порядок в своих собственных интересах.
«Некоторые правительства могут привести свою позицию регулирования в соответствие с американским рыночным подходом, отдав предпочтение мягкому регулированию. Другие могут встать на сторону подхода ЕС, основанного на правах человека, добиваясь обязательного законодательства, которое устанавливает ограничения на развитие ИИ. А некоторые авторитарные страны будут ориентироваться на Китай, подражая его модели регулирования, ориентированной на государство».
Однако большинство стран, скорее всего, будут использовать эти три подхода, выборочно принимая элементы каждого из них. Это означает, что не будет создано единого плана управления ИИ во всем мире.
О пользе сотрудничества
«Хотя нормативные расхождения кажутся неизбежными, существует острая необходимость в международной координации, поскольку ИИ создает проблемы, с которыми в одиночку не может справиться ни одно правительство. Более тесное согласование подходов к регулированию поможет всем правительствам максимизировать потенциальные выгоды от технологии и минимизировать риски негативных последствий».
Брэдфорд полагает:
«Если каждое правительство разработает свою собственную нормативную базу, возникающая в результате фрагментация будет препятствовать развитию ИИ. В конце концов, управление конфликтующими режимами регулирования увеличивает затраты компаний, порождает неопределенность и подрывает прогнозируемые выгоды. Последовательные и предсказуемые стандарты на всех рынках будут способствовать инновациям, вознаграждать разработчиков ИИ и приносить пользу потребителям.
Более того, международное соглашение могло бы помочь более равномерно распределить эти прогнозируемые выгоды между странами. Развитие ИИ в настоящее время сосредоточено в нескольких (в основном) развитых странах, которые готовы стать явными победителями в глобальной гонке ИИ. В то же время возможности большинства других стран воспользоваться преимуществами ИИ ограничены. Международное сотрудничество необходимо для демократизации доступа и смягчения опасений, что ИИ принесет пользу только небольшому числу богатых стран и оставит Глобальный Юг еще дальше позади.
Международная координация также могла бы помочь правительствам управлять трансграничными рисками и предотвратить гонку ко дну. В отсутствие такой координации некоторые участники будут использовать пробелы в регулировании на некоторых рынках, сводя на нет преимущества хорошо продуманных барьеров на других рынках. Чтобы предотвратить регулятивный арбитраж, странам с лучшим регуляторным потенциалом необходимо будет предложить техническую помощь странам, у которых ее нет. На практике это повлечет за собой объединение ресурсов для выявления и оценки рисков, связанных с ИИ, распространение технических знаний об этих рисках и помощь странам в разработке нормативных мер реагирования на них.
Возможно, самое важное то, что международное сотрудничество могло бы сдержать дорогостоящую и опасную гонку вооружений ИИ до того, как она дестабилизирует мировой порядок или спровоцирует военный конфликт. В отсутствие совместного соглашения, устанавливающего правила, регулирующие ИИ двойного назначения (гражданского и военного), ни одна страна не сможет рискнуть свернуть свое собственное военное развитие, чтобы не уступить стратегическое преимущество своим противникам.
Учитывая очевидные преимущества международной координации, несколько попыток разработать глобальные стандарты или методы сотрудничества уже предпринимаются в рамках таких институтов, как ОЭСР, «Большая двадцатка», «Большая семерка», Совет Европы и Организация Объединенных Наций. Однако есть основания опасаться, что эти усилия будут иметь лишь ограниченный эффект. Учитывая различия в ценностях, интересах и возможностях между государствами, будет трудно достичь какого-либо значимого консенсуса. По той же причине предстоящий саммит в Великобритании, скорее всего, принесет только высокие заявления, подтвердит расплывчатые принципы на высоком уровне и обязуется продолжать диалог».
Комментарий Е.Л., В. О.:
Безусловно, сотрудничество в регулировании ИИ – это замечательно. Но, какого ИИ? Можно ли регулировать военные разработки развития ИИ? Особенно в условиях того уровня конфронтации на международной арене, который все мы наблюдаем? А ведь именно в эту сферу большинство государств – лидеров в развитии ИИ вкладывают основные финансовые ресурсы.
Дебаты о регулировании
Брэдфорд пишет:
«Не все приветствуют успех правительств в их усилиях по регулированию. Некоторые наблюдатели возражают против того, чтобы правительства даже пытались регулировать столь быстро развивающуюся технологию.
Эти критики обычно выдвигают два аргумента. Во-первых, ИИ слишком сложен и быстро развивается, чтобы законодатели могли его понять и успевать за ним. Второй аргумент заключается в том, что даже если бы законодатели были компетентны регулировать ИИ, они, скорее всего, ошиблись бы в сторону чрезмерных мер предосторожности – делая слишком много – тем самым ограничивая инновации и подрывая выгоды от ИИ. Если это правда, то любое из этих опасений даст основания правительствам следовать принципу «не навреди», проявлять сдержанность и позволить революции искусственного интеллекта идти своим собственным курсом».
Аргумент о том, что законодатели неспособны понять такую сложную, многогранную и быстро развивающуюся технологию, легко выдвинуть, но он остается неубедительным. Политики регулируют многие сферы экономической деятельности, не будучи сами экспертами. Лишь немногие регулирующие органы знают, как строить самолеты, однако они обладают неоспоримой властью в вопросах авиационной безопасности. Правительства также регулируют лекарства и вакцины, хотя очень немногие (если таковые имеются) законодатели являются экспертами в области биотехнологий. Если бы только эксперты имели право регулировать, каждая отрасль регулировала бы сама себя.
Аналогичным образом, хотя проблема управления ИИ частично связана с технологией, она также связана с пониманием того, как эта технология влияет на фундаментальные права и демократию. Вряд ли это та область, в которой технологические компании могут заявить о своем опыте.
«Учитывая ставки, правительство, а не разработчики, должно взять на себя ведущую роль в управлении ИИ».
Это не означает, пишет Брэдфорд, что правительства всегда будут осуществлять правильное регулирование или что регулирование не заставит компании отвлекать ресурсы от исследований и разработок в сторону соблюдения требований. Однако при правильном применении регулирование может побудить компании инвестировать в более этичные и менее подверженные ошибкам приложения, направляя отрасль к более надежным системам искусственного интеллекта. Это повысит доверие потребителей к технологии, тем самым расширяя, а не уменьшая, рыночные возможности для компаний, занимающихся искусственным интеллектом.
У правительств есть все стимулы не отказываться от преимуществ, связанных с ИИ. Они отчаянно нуждаются в новых источниках экономического роста и инновациях, которые помогут им достичь лучших результатов, таких как улучшение образования и здравоохранения, с меньшими затратами. Во всяком случае, они, скорее всего, сделают слишком мало, опасаясь потерять стратегическое преимущество и упустить потенциальные выгоды.
Ключом к регулированию любой быстро развивающейся, многогранной технологии является тесное сотрудничество с разработчиками ИИ, чтобы гарантировать сохранение потенциальных преимуществ и гибкость регуляторов. Но тесные консультации с технологическими компаниями — это одно. Просто передать управление частному сектору – это совсем другое.
Кто главный субъект регулирования?
Некоторые комментаторы меньше обеспокоены тем, что правительства не понимают ИИ или что они неправильно поймут регулирование ИИ, поскольку они сомневаются, что действия правительства вообще имеют большое значение. Лагерь технодетерминистов предполагает, что «правительства в конечном итоге имеют лишь ограниченные возможности регулировать технологические компании. Поскольку реальная власть находится в Кремниевой долине и других технологических центрах, где разрабатывается ИИ, правительствам нет смысла вступать в борьбу, которую они проиграют. Встречи и саммиты на высоком уровне призваны стать второстепенными шоу, которые просто позволяют правительствам делать вид, что они по-прежнему у власти».
Некоторые комментаторы даже утверждают – и весьма убедительно – что технологические компании являются «новыми губернаторами», которые «осуществляют своего рода суверенитет» и открывают мир, который будет не однополярным, биполярным или многополярным, а скорее «технополярным». Крупнейшие технологические компании действительно оказывают большее экономическое и политическое влияние, чем большинство государств. Технологическая индустрия также обладает практически неограниченными ресурсами, с помощью которых можно лоббировать против регулирования и защищаться в юридических баталиях против правительств.
Однако, считает Брэдфорд, из этого не следует, что правительства бессильны в этой области. Государство остается фундаментальной единицей, вокруг которой строится общество. Как недавно выразился политолог Стивен М. Уолт: «Что, по вашему мнению, будет через 100 лет? Facebook или Франция?».
«Несмотря на все влияние, которое накопили технологические компании, правительства по-прежнему обладают высшей властью применять принудительную силу».
Эти полномочия могут быть использованы и часто используются для изменения методов работы фирм. Пользовательские условия, правила сообщества и любые другие правила, написанные крупными технологическими компаниями, по-прежнему регулируются законами, написанными правительствами, которые имеют полномочия обеспечивать соблюдение этих законов. Технологические компании не могут отделиться от правительств. Хотя они могут пытаться сопротивляться правительственным постановлениям и формировать их, в конечном итоге они должны им подчиняться. «Они не могут силой участвовать в слияниях, несмотря на возражения антимонопольных органов, а также не могут отказываться платить цифровые налоги, которые вводят правительства, или предлагать цифровые услуги, которые нарушают законы юрисдикции. Если правительства запретят определенные системы или приложения искусственного интеллекта, у технологических компаний не будет иного выбора, кроме как подчиниться или остаться вне этого рынка».
Это не просто гипотетически. Ранее в этом году Сэм Альтман из OpenAI (разработчик ChatGPT) предупредил, что его компания может не предлагать свои продукты в ЕС из-за нормативных ограничений. Однако через несколько дней он отступил. Суверенитет OpenAI ограничен свободой не вести бизнес в ЕС или любой другой юрисдикции, против регулирования которой она выступает.
Проблема воли
Таким образом, считает Брэдфорд, вопрос не в том, смогут ли правительства управлять цифровой экономикой. Вопрос в том, есть ли у них политическая воля сделать это. После коммерциализации Интернета в 1990-х годах правительство США решило делегировать важные функции управления частному сектору. Этот технолибертарианский подход широко проявляется в разделе 230 Закона о порядочности в сфере коммуникаций 1996 года, который защищает онлайн-платформы от ответственности за любой сторонний контент, который они размещают. Но даже в этих рамках правительство США не бессильно. Хотя оно предоставило компаниям-платформам полную свободу действий с помощью раздела 230, оно сохраняет за собой право отменять или изменять этот закон.
В прошлом политическая воля к этому, возможно, отсутствовала, но импульс к регулированию нарастает, поскольку доверие к технологической отрасли снизилось. За последние несколько лет законодатели США предложили законопроекты не только о переписывании раздела 230, но также о возрождении антимонопольного законодательства и принятии федерального закона о конфиденциальности. И некоторые законодатели США теперь полны решимости регулировать ИИ. Они проводят слушания и уже предлагают законопроект, учитывающий последние достижения в области генеративных алгоритмов ИИ и больших языковых моделей.
Тем не менее, хотя демократы и республиканцы в Конгрессе все чаще соглашаются с тем, что технологические компании стали слишком влиятельными и нуждаются в регулировании, они глубоко разделены, когда дело доходит до того, как это сделать. Для некоторых обеспокоенность тем, что регулирование ИИ может подорвать американский технологический прогресс и инновации, очевидна в эпоху усиления конкуренции между США и Китаем. И, конечно же, технологические компании продолжают агрессивно и эффективно лоббировать, предполагая, что даже двухпартийный крестовый поход против технологий может в конечном итоге мало что изменить. Каким бы сильным ни было недовольство технологическими компаниями, политическая дисфункция внутри Конгресса может оказаться сильнее.
Опять же, это не означает, что правительства не несут ответственности. ЕС, со своей стороны, не страдает от такой же политической дисфункции. После принятия Общего регламента по защите данных (GDPR) в 2016 году он перешел к регулированию онлайн-платформ с помощью своих знаковых законов 2022 года: Закона о цифровых услугах и Закона о цифровых рынках, которые устанавливают четкие правила модерации контента и рыночной конкуренции соответственно. Ожидается, что амбициозный Закон ЕС об искусственном интеллекте будет окончательно принят в 2023 году.
Но, несмотря на все успехи ЕС в законодательстве, соблюдение его цифровых правил часто не достигало заявленных целей. В частности, соблюдение GDPR вызвало много критики, и все крупные антимонопольные штрафы, которые ЕС наложил на Google, мало что сделали для снижения ее доминирования. Эти неудачи заставили некоторых утверждать, что технологические компании уже слишком велики, чтобы их можно было регулировать, и что ИИ еще больше укрепит их рыночную власть, в результате чего ЕС станет еще более бессильным в обеспечении соблюдения своих законов.
Китайское правительство, конечно, не сталкивается с этой проблемой. Без необходимости придерживаться демократического процесса, начиная с 2020 года, оно смогло резко и внезапно решить проблему с технологической индустрией страны, и технологические компании должным образом капитулировали. Этот относительный «успех» в привлечении к ответственности технологических компаний резко контрастирует с опытом европейских и американских регуляторов. В обеих юрисдикциях регулирующим органам приходится вести длительные юридические баталии против компаний, которые будут решительно оспаривать, а не соглашаться с любыми регулятивными действиями, которые они предпринимают.
Та же самая картина вполне может повториться и с регулированием ИИ. Конгресс США, скорее всего, останется в тупике, вызывая жаркие дебаты, но не предпринимая реальных действий. И ЕС будет принимать законы, хотя сохраняющаяся неопределенность в отношении эффективности его регулирования может привести к результату, напоминающему результат США. В этом случае технологические компании, а не демократически избранные правительства, смогут формировать революцию ИИ так, как они считают нужным.
Кто эффективнее?
«Эти сценарии открывают закономерность: только авторитарные режимы способны эффективно управлять ИИ».
Чтобы опровергнуть это утверждение, по мнению Брэдфорд, США, ЕС и другие правительства-единомышленники должны будут продемонстрировать, что демократическое управление ИИ осуществимо и эффективно. Им придется настаивать на своей роли главных законодателей.
Предстоящий саммит, скорее всего, не убедит мир в том, что действительно глобальные правила ИИ станут достижимыми в ближайшее время. Разногласия остаются слишком глубокими, чтобы страны – особенно так называемые технодемократии и техноавтократии – могли действовать в унисон. Тем не менее, саммит может и должен послать четкий сигнал о том, что технологические компании по-прежнему подчиняются правительствам, а не наоборот.
Тесно сотрудничая с технологическими компаниями для содействия инновациям в области искусственного интеллекта и максимизации выгод, демократическим правительствам также необходимо будет защищать своих граждан, ценности и институты. Без такого рода двойного обязательства революция искусственного интеллекта с гораздо большей вероятностью оправдает свои опасности, а не свои обещания.