ЛОНДОН. «Метавселенной» еще нет, и когда она появится, это не будет единый домен, контролируемый какой-либо одной компанией. Facebook хотел создать подобное впечатление, сменив свое название на Meta, но его ребрендинг совпал с крупными инвестициями Microsoft и Roblox. Все они стремятся определить, как виртуальная реальность и цифровая идентификация будут использоваться для организации большей части нашей повседневной жизни – от работы и здравоохранения до покупок, игр и других форм развлечений.
Метавселенная – это не новая концепция. Данный термин был введен писателем-фантастом Нилом Стивенсоном в его книге 1992 года «Снежная катастрофа», где описывается гиперкапиталистическая антиутопия, в которой человечество коллективно выбрало жизнь в виртуальной среде. До сих пор этот опыт был не менее мрачным здесь, в реальном мире. Большинство экспериментов с погружением в цифровую среду сразу же были омрачены издевательствами, нападками, сексуальными домогательствами в цифровом формате и всеми другими нарушениями, которые мы привыкли ассоциировать с платформами, которые «движутся быстро и все крушат».
Ничто из этого не должно вызывать удивления. Этика новых технологий всегда отставала от самих инноваций. Вот почему в интересах независимых сторон предложить модели управления раньше, а не позже – чтобы их не опередили корыстолюбивые корпорации, которые быстро подсчитают величину собственной прибыли.
Здесь поучительна эволюция этики в сфере искусственного интеллекта. После крупного прорыва в области распознавания образов ИИ в 2012 году интерес корпораций и правительств к этой сфере резко возрос, что привлекло значительный вклад специалистов по этике и активистов, которые опубликовали (и переиздали) исследования об опасностях обучения ИИ на основе предвзятых наборов данных. Был разработан новый язык для включения в дизайн новых приложений искусственного интеллекта ценностей, которые мы хотим поддерживать.
Благодаря этой работе мы теперь знаем, что ИИ эффективно «автоматизирует неравенство», как выразилась Вирджиния Юбэнкс из Университета Олбани, SUNY, а также увековечивает расовые предубеждения в правоохранительных органах. Чтобы привлечь внимание к этой проблеме, ученый-компьютерщик Джой Буоламвини из MIT Media Lab в 2016 году запустила Алгоритмическую лигу справедливости.
Эта реакция первой волны привлекла внимание общественности к этическим проблемам, связанным с ИИ. Но вскоре их отодвинуло на второй план возобновление стремления отрасли к саморегулированию. Разработчики искусственного интеллекта представили технические наборы инструментов для проведения внутренних и сторонних оценок, надеясь ослабить тем самым опасения общественности. Но это не сработало, потому что бизнес-модели большинства фирм, занимающихся разработкой искусственного интеллекта, вступают в открытый конфликт с этическими стандартами, соблюдения которых требует общественность.
Access every new PS commentary, our entire On Point suite of subscriber-exclusive content – including Longer Reads, Insider Interviews, Big Picture/Big Question, and Say More – and the full PS archive.
Subscribe Now
Возьмем самый распространенный пример. Twitter и Facebook не будут эффективно использовать искусственный интеллект против всего спектра нарушений на своих платформах, потому что это подорвет «вовлеченность» (беззаконие) и, следовательно, прибыль. Аналогичным образом эти и другие технологические фирмы использовали извлечение стоимости и экономию за счет масштаба для достижения почти монопольного положения на своих соответствующих рынках. Теперь от полученной власти они добровольно не откажутся.
Совсем недавно корпоративные консультанты и различные программы профессионализировали этику ИИ, чтобы устранить репутационные и практические риски, связанные с этическими ошибками. Тем, кто работает над ИИ в крупных технологических компаниях, придется рассмотреть такие вопросы, как: должна ли функция по умолчанию включаться или отключаться; уместно ли делегировать задачу ИИ; можно ли доверять данным, используемым для обучения приложений ИИ. С этой целью многие технологические корпорации создали якобы независимые советы по этике. Однако после громких увольнений из компаний исследователей, протестующих против возможных этических и социальных последствий определенных моделей искусственного интеллекта, надежность этой формы управления была поставлена под сомнение.
Создание прочной этической основы для метавселенной требует от нас опередить саморегулирование отрасли, пока оно не стало нормой. Мы также должны помнить, что метавселенная уже расходится с ИИ. В то время как ИИ в основном сосредоточен вокруг внутренних корпоративных операций, метавселенная явно ориентирована на потребителя, то есть сопряжена со всеми видами поведенческих рисков, которые большинство людей не будут учитывать.
Подобно тому, как регулирование телекоммуникаций (в частности, статьи 230 «Закона США о приличиях в области связи» 1996 года) обеспечило модель управления социальными сетями, регулирование социальных сетей станет моделью управления по умолчанию для метавселенной. Это должно беспокоить нас всех. Хотя многие нарушения в иммерсивной цифровой среде легко предсказуемы, наш опыт работы с социальными сетями показывает, что мы можем недооценивать возможные масштабы и серьезность побочных эффектов.
Здесь уж лучше перебдеть, чем повторять ошибки последних 15 лет. Полностью цифровая среда создает потенциал для еще более обширного сбора информации, в том числе персональных биометрических данных. И поскольку никто на самом деле не знает точно, как люди будут реагировать на эти условия, есть веские аргументы в пользу применения регуляторных «песочниц», прежде чем разрешить более широкое внедрение.
Предвидеть этические проблемы метавселенной все еще возможно – но время идет. Без эффективного независимого надзора эта новая цифровая область почти наверняка выйдет из-под контроля, воссоздав все нарушения и несправедливости как искусственного интеллекта, так и социальных сетей, да еще добавив такого, чего мы даже не предвидели. Лига справедливости метавселенной может быть нашим самым многообещающим шансом.
To have unlimited access to our content including in-depth commentaries, book reviews, exclusive interviews, PS OnPoint and PS The Big Picture, please subscribe
In the United States and Europe, immigration tends to divide people into opposing camps: those who claim that newcomers undermine economic opportunity and security for locals, and those who argue that welcoming migrants and refugees is a moral and economic imperative. How should one make sense of a debate that is often based on motivated reasoning, with emotion and underlying biases affecting the selection and interpretation of evidence?
To maintain its position as a global rule-maker and avoid becoming a rule-taker, the United States must use the coming year to promote clarity and confidence in the digital-asset market. The US faces three potential paths to maintaining its competitive edge in crypto: regulation, legislation, and designation.
urges policymakers to take decisive action and set new rules for the industry in 2024.
The World Trade Organization’s most recent ministerial conference concluded with a few positive outcomes demonstrating that meaningful change is possible, though there were some disappointments. A successful agenda of reforms will require more members – particularly emerging markets and developing economies – to take the lead.
writes that meaningful change will come only when members other than the US help steer the organization.
ЛОНДОН. «Метавселенной» еще нет, и когда она появится, это не будет единый домен, контролируемый какой-либо одной компанией. Facebook хотел создать подобное впечатление, сменив свое название на Meta, но его ребрендинг совпал с крупными инвестициями Microsoft и Roblox. Все они стремятся определить, как виртуальная реальность и цифровая идентификация будут использоваться для организации большей части нашей повседневной жизни – от работы и здравоохранения до покупок, игр и других форм развлечений.
Метавселенная – это не новая концепция. Данный термин был введен писателем-фантастом Нилом Стивенсоном в его книге 1992 года «Снежная катастрофа», где описывается гиперкапиталистическая антиутопия, в которой человечество коллективно выбрало жизнь в виртуальной среде. До сих пор этот опыт был не менее мрачным здесь, в реальном мире. Большинство экспериментов с погружением в цифровую среду сразу же были омрачены издевательствами, нападками, сексуальными домогательствами в цифровом формате и всеми другими нарушениями, которые мы привыкли ассоциировать с платформами, которые «движутся быстро и все крушат».
Ничто из этого не должно вызывать удивления. Этика новых технологий всегда отставала от самих инноваций. Вот почему в интересах независимых сторон предложить модели управления раньше, а не позже – чтобы их не опередили корыстолюбивые корпорации, которые быстро подсчитают величину собственной прибыли.
Здесь поучительна эволюция этики в сфере искусственного интеллекта. После крупного прорыва в области распознавания образов ИИ в 2012 году интерес корпораций и правительств к этой сфере резко возрос, что привлекло значительный вклад специалистов по этике и активистов, которые опубликовали (и переиздали) исследования об опасностях обучения ИИ на основе предвзятых наборов данных. Был разработан новый язык для включения в дизайн новых приложений искусственного интеллекта ценностей, которые мы хотим поддерживать.
Благодаря этой работе мы теперь знаем, что ИИ эффективно «автоматизирует неравенство», как выразилась Вирджиния Юбэнкс из Университета Олбани, SUNY, а также увековечивает расовые предубеждения в правоохранительных органах. Чтобы привлечь внимание к этой проблеме, ученый-компьютерщик Джой Буоламвини из MIT Media Lab в 2016 году запустила Алгоритмическую лигу справедливости.
Эта реакция первой волны привлекла внимание общественности к этическим проблемам, связанным с ИИ. Но вскоре их отодвинуло на второй план возобновление стремления отрасли к саморегулированию. Разработчики искусственного интеллекта представили технические наборы инструментов для проведения внутренних и сторонних оценок, надеясь ослабить тем самым опасения общественности. Но это не сработало, потому что бизнес-модели большинства фирм, занимающихся разработкой искусственного интеллекта, вступают в открытый конфликт с этическими стандартами, соблюдения которых требует общественность.
Subscribe to PS Digital
Access every new PS commentary, our entire On Point suite of subscriber-exclusive content – including Longer Reads, Insider Interviews, Big Picture/Big Question, and Say More – and the full PS archive.
Subscribe Now
Возьмем самый распространенный пример. Twitter и Facebook не будут эффективно использовать искусственный интеллект против всего спектра нарушений на своих платформах, потому что это подорвет «вовлеченность» (беззаконие) и, следовательно, прибыль. Аналогичным образом эти и другие технологические фирмы использовали извлечение стоимости и экономию за счет масштаба для достижения почти монопольного положения на своих соответствующих рынках. Теперь от полученной власти они добровольно не откажутся.
Совсем недавно корпоративные консультанты и различные программы профессионализировали этику ИИ, чтобы устранить репутационные и практические риски, связанные с этическими ошибками. Тем, кто работает над ИИ в крупных технологических компаниях, придется рассмотреть такие вопросы, как: должна ли функция по умолчанию включаться или отключаться; уместно ли делегировать задачу ИИ; можно ли доверять данным, используемым для обучения приложений ИИ. С этой целью многие технологические корпорации создали якобы независимые советы по этике. Однако после громких увольнений из компаний исследователей, протестующих против возможных этических и социальных последствий определенных моделей искусственного интеллекта, надежность этой формы управления была поставлена под сомнение.
Создание прочной этической основы для метавселенной требует от нас опередить саморегулирование отрасли, пока оно не стало нормой. Мы также должны помнить, что метавселенная уже расходится с ИИ. В то время как ИИ в основном сосредоточен вокруг внутренних корпоративных операций, метавселенная явно ориентирована на потребителя, то есть сопряжена со всеми видами поведенческих рисков, которые большинство людей не будут учитывать.
Подобно тому, как регулирование телекоммуникаций (в частности, статьи 230 «Закона США о приличиях в области связи» 1996 года) обеспечило модель управления социальными сетями, регулирование социальных сетей станет моделью управления по умолчанию для метавселенной. Это должно беспокоить нас всех. Хотя многие нарушения в иммерсивной цифровой среде легко предсказуемы, наш опыт работы с социальными сетями показывает, что мы можем недооценивать возможные масштабы и серьезность побочных эффектов.
Здесь уж лучше перебдеть, чем повторять ошибки последних 15 лет. Полностью цифровая среда создает потенциал для еще более обширного сбора информации, в том числе персональных биометрических данных. И поскольку никто на самом деле не знает точно, как люди будут реагировать на эти условия, есть веские аргументы в пользу применения регуляторных «песочниц», прежде чем разрешить более широкое внедрение.
Предвидеть этические проблемы метавселенной все еще возможно – но время идет. Без эффективного независимого надзора эта новая цифровая область почти наверняка выйдет из-под контроля, воссоздав все нарушения и несправедливости как искусственного интеллекта, так и социальных сетей, да еще добавив такого, чего мы даже не предвидели. Лига справедливости метавселенной может быть нашим самым многообещающим шансом.