entsminger6_ SERGIO FLORESAFP via Getty Images_metaverse SERGIO FLORES/AFP via Getty Images

Кто установит этику метавселенной?

ЛОНДОН. «Метавселенной» еще нет, и когда она появится, это не будет единый домен, контролируемый какой-либо одной компанией. Facebook хотел создать подобное впечатление, сменив свое название на Meta, но его ребрендинг совпал с крупными инвестициями Microsoft и Roblox. Все они стремятся определить, как виртуальная реальность и цифровая идентификация будут использоваться для организации большей части нашей повседневной жизни – от работы и здравоохранения до покупок, игр и других форм развлечений.

Метавселенная – это не новая концепция. Данный термин был введен писателем-фантастом Нилом Стивенсоном в его книге 1992 года «Снежная катастрофа», где описывается гиперкапиталистическая антиутопия, в которой человечество коллективно выбрало жизнь в виртуальной среде. До сих пор этот опыт был не менее мрачным здесь, в реальном мире. Большинство экспериментов с погружением в цифровую среду сразу же были омрачены издевательствами, нападками, сексуальными домогательствами в цифровом формате и всеми другими нарушениями, которые мы привыкли ассоциировать с платформами, которые «движутся быстро и все крушат».

Ничто из этого не должно вызывать удивления. Этика новых технологий всегда отставала от самих инноваций. Вот почему в интересах независимых сторон предложить модели управления раньше, а не позже – чтобы их не опередили корыстолюбивые корпорации, которые быстро подсчитают величину собственной прибыли.

Здесь поучительна эволюция этики в сфере искусственного интеллекта. После крупного прорыва в области распознавания образов ИИ в 2012 году интерес корпораций и правительств к этой сфере резко возрос, что привлекло значительный вклад специалистов по этике и активистов, которые опубликовали (и переиздали) исследования об опасностях обучения ИИ на основе предвзятых наборов данных. Был разработан новый язык для включения в дизайн новых приложений искусственного интеллекта ценностей, которые мы хотим поддерживать.

Благодаря этой работе мы теперь знаем, что ИИ эффективно «автоматизирует неравенство», как выразилась Вирджиния Юбэнкс из Университета Олбани, SUNY, а также увековечивает расовые предубеждения в правоохранительных органах. Чтобы привлечь внимание к этой проблеме, ученый-компьютерщик Джой Буоламвини из MIT Media Lab в 2016 году запустила Алгоритмическую лигу справедливости.

Эта реакция первой волны привлекла внимание общественности к этическим проблемам, связанным с ИИ. Но вскоре их отодвинуло на второй план возобновление стремления отрасли к саморегулированию. Разработчики искусственного интеллекта представили технические наборы инструментов для проведения внутренних и сторонних оценок, надеясь ослабить тем самым опасения общественности. Но это не сработало, потому что бизнес-модели большинства фирм, занимающихся разработкой искусственного интеллекта, вступают в открытый конфликт с этическими стандартами, соблюдения которых требует общественность.

Subscribe to PS Digital
PS_Digital_1333x1000_Intro-Offer1

Subscribe to PS Digital

Access every new PS commentary, our entire On Point suite of subscriber-exclusive content – including Longer Reads, Insider Interviews, Big Picture/Big Question, and Say More – and the full PS archive.

Subscribe Now

Возьмем самый распространенный пример. Twitter и Facebook не будут эффективно использовать искусственный интеллект против всего спектра нарушений на своих платформах, потому что это подорвет «вовлеченность» (беззаконие) и, следовательно, прибыль. Аналогичным образом эти и другие технологические фирмы использовали извлечение стоимости и экономию за счет масштаба для достижения почти монопольного положения на своих соответствующих рынках. Теперь от полученной власти они добровольно не откажутся.

Совсем недавно корпоративные консультанты и различные программы профессионализировали этику ИИ, чтобы устранить репутационные и практические риски, связанные с этическими ошибками. Тем, кто работает над ИИ в крупных технологических компаниях, придется рассмотреть такие вопросы, как: должна ли функция по умолчанию включаться или отключаться; уместно ли делегировать задачу ИИ; можно ли доверять данным, используемым для обучения приложений ИИ. С этой целью многие технологические корпорации создали якобы независимые советы по этике. Однако после громких увольнений из компаний исследователей, протестующих против возможных этических и социальных последствий определенных моделей искусственного интеллекта, надежность этой формы управления была поставлена под сомнение.

Создание прочной этической основы для метавселенной требует от нас опередить саморегулирование отрасли, пока оно не стало нормой. Мы также должны помнить, что метавселенная уже расходится с ИИ. В то время как ИИ в основном сосредоточен вокруг внутренних корпоративных операций, метавселенная явно ориентирована на потребителя, то есть сопряжена со всеми видами поведенческих рисков, которые большинство людей не будут учитывать.

Подобно тому, как регулирование телекоммуникаций (в частности, статьи 230 «Закона США о приличиях в области связи» 1996 года) обеспечило модель управления социальными сетями, регулирование социальных сетей станет моделью управления по умолчанию для метавселенной. Это должно беспокоить нас всех. Хотя многие нарушения в иммерсивной цифровой среде легко предсказуемы, наш опыт работы с социальными сетями показывает, что мы можем недооценивать возможные масштабы и серьезность побочных эффектов.

Здесь уж лучше перебдеть, чем повторять ошибки последних 15 лет. Полностью цифровая среда создает потенциал для еще более обширного сбора информации, в том числе персональных биометрических данных. И поскольку никто на самом деле не знает точно, как люди будут реагировать на эти условия, есть веские аргументы в пользу применения регуляторных «песочниц», прежде чем разрешить более широкое внедрение.

Предвидеть этические проблемы метавселенной все еще возможно – но время идет. Без эффективного независимого надзора эта новая цифровая область почти наверняка выйдет из-под контроля, воссоздав все нарушения и несправедливости как искусственного интеллекта, так и социальных сетей, да еще добавив такого, чего мы даже не предвидели. Лига справедливости метавселенной может быть нашим самым многообещающим шансом.

https://prosyn.org/KIKV1Msru