ФЛОРЕНЦИЯ – Для директивных органов, где бы то ни было, наилучший способ принятия решений заключается в том, чтобы строить их на доказательствах, какими бы несовершенными они ни были. Но что должны делать лидеры, когда факты недостаточны либо отсутствуют вообще? Это дилемма, с которой сталкиваются те, кто должен бороться с последствиями “продвинутых интеллектуальных алгоритмов” – бинарные строительные блоки машинного обучения и искусственного интеллекта (ИИ).
В академических кругах, ученые связанные с ИИ либо “сингуляритане”, либо “презентисты”. Сингуляритане обычно утверждают, что, несмотря на то, что технологии ИИ представляют собой экзистенциальную угрозу для человечества, выгоды перевешивают издержки. Однако, несмотря на то, что эта группа включает в себя множество технических светил и привлекает значительное финансирование, ее научные материалы до сих пор не смогли доказать правоту их расчетов.
С другой стороны, презентисты склонны фокусироваться на честности, ответственности и прозрачности новых технологий. Например, их беспокоит то, как автоматизация повлияет на рынок труда. Но и здесь, исследования были не слишком убедительны. Например, MIT Technology Review недавно сравнил результаты 19 крупных исследований с оценкой прогнозируемых потерь рабочих мест и выявил, что прогнозы по количеству “ликвидированных” рабочих мест в мире варьируют от 1,8 до 2 миллиардов.
Иными словами, “удобной истины” нет ни у одной из сторон этой дискуссии. Когда прогнозы воздействия ИИ колеблются от незначительных сбоев на рынке труда до вымирания человечества, очевидно, что миру необходима новая структура по анализу и управлению предстоящим технологическим разрывом.
Безусловно, неполные данные являются общей проблемой для технологических исследований. Даже в “нормальных” условиях, исследование новых технологий – это как складывать пазлы в темноте при тусклом фонарике. Предположения разработанных теорий не ставятся под сомнение, а получение благоприятных результатов является вопросом количественной оценки вероятностей неблагоприятных событий и, следовательно, регулирования сопутствующих рисков.
Но каждый раз, возникает “пост-нормальная” научная головоломка, что-то, что в 1993 году философы Сильвио Фунтович и Джером Равец первоначально определили, как проблему “где факты неопределенны, ценности спорны, ставки высоки, а решения неотложны”. Для этих вызовов – среди которых и ИИ - политика не может позволить себе ждать, пока наука с этим справится.
At a time of escalating global turmoil, there is an urgent need for incisive, informed analysis of the issues and questions driving the news – just what PS has always provided.
Subscribe to Digital or Digital Plus now to secure your discount.
Subscribe Now
В настоящее время, большинство политик в области ИИ имеют место на Глобальном Севере, что недооценивает проблемы менее развитых стран и затрудняет управление технологиями двойного назначения. Хуже того, директивные органы зачастую игнорируют потенциальное воздействие на окружающую среду и практически полностью фокусируются на антропогенных эффектах автоматизации, робототехники и машин.
Даже без надежных данных, лица принимающие решения, должны продвигаться вперед в управлении ИИ. И, поскольку мир ждет научной определенности (которая возможно никогда не наступит), имеется существующее решение, которое может привести нас к неизвестному: “принципу предосторожности”. Принятый на глобальном уровне в 1992 году, в рамках Конвенции Организации Объединенных Наций по устойчивому развитию, в Рио-де-Жанейро, а затем включенный в один из основополагающих договоров Европейского союза, принцип предосторожности гласит, что отсутствие уверенности не может служить основанием для отказа от охраны здоровья человека или окружающей среды. Это кажется подходящим путем для решения проблемы неопределенности технологически стимулированного будущего.
Принцип предосторожности не лишен своих критиков. Но, несмотря на то, что его заслуги обсуждались годами, мы должны признать, что отсутствие доказательств вреда – это не то же самое, что доказательства отсутствия вреда. Эта простая идея была применена к многочисленным вопросам развития человеческого потенциала – от общественного здравоохранения до младенческой смертности. Существуют три веские причины, по которым ИИ должен стать следующим.
Во-первых, применение принципа предосторожности в контексте ИИ помогло бы восстановить баланс глобальной политической дискуссии, предоставив более слабым голосам большее влияние в дебатах, которые в настоящее время монополизированы корпоративными интересами. Принятие решений, также было бы более инклюзивным и совещательным, а выработка решений более полно отражала социальные потребности. Институт инженеров электротехники и электроники и The Future Society, Школы государственного управления имени Кеннеди Гарвардского университета, уже возглавили работу в этом духе коллективного участия. Дополнительные профессиональные организации и исследовательские центры должны последовать этому примеру.
Более того, применяя принцип предосторожности, органы управления могли бы перенести бремя ответственности на создателей алгоритмов. Требование объяснимости алгоритмического принятия решений может изменить стимулы, предотвратить использование блэкбоксинга, помочь сделать бизнес-решения более прозрачными и позволить государственному сектору догнать частный сектор в развитии технологий. И, заставляя технологические компании и правительства выявлять и рассматривать множество вариантов, принцип предосторожности выдвинул бы на первый план игнорируемые проблемы, такие как воздействие на окружающую среду.
Наука в редких случаях способна помочь в управлении инновациями задолго до того, как последствия этой инновации будут доступны для изучения. Но, в контексте алгоритмов, машинного обучения и ИИ человечество не может позволить себе ждать. Прелесть принципа предосторожности заключается не только в его обосновании в международном публичном праве, но и в его послужном списке в качестве основы для управления инновациями в бесчисленных научных контекстах. Мы должны принять его, прежде чем блага прогресса будут неравномерно распределены или, что еще хуже, будет нанесен непоправимый вред.
Economic revolutions often bring profound social change, affecting everything from jobs to family size. With the digital revolution now in full swing, humanity must recommit to building more ethical machines, or face a future in which our technologies undermine basic values like human rights and civil liberties.
says more ethical technology is essential to prevent the digital revolution from enslaving us.
To have unlimited access to our content including in-depth commentaries, book reviews, exclusive interviews, PS OnPoint and PS The Big Picture, please subscribe
With German voters clearly demanding comprehensive change, the far right has been capitalizing on the public's discontent and benefiting from broader global political trends. If the country's democratic parties cannot deliver, they may soon find that they are no longer the mainstream.
explains why the outcome may decide whether the political “firewall” against the far right can hold.
The Russian and (now) American vision of "peace" in Ukraine would be no peace at all. The immediate task for Europe is not only to navigate Donald’s Trump unilateral pursuit of a settlement, but also to ensure that any deal does not increase the likelihood of an even wider war.
sees a Korea-style armistice with security guarantees as the only viable option in Ukraine.
Rather than engage in lengthy discussions to pry concessions from Russia, US President Donald Trump seems committed to giving the Kremlin whatever it wants to end the Ukraine war. But rewarding the aggressor and punishing the victim would amount to setting the stage for the next war.
warns that by punishing the victim, the US is setting up Europe for another war.
Within his first month back in the White House, Donald Trump has upended US foreign policy and launched an all-out assault on the country’s constitutional order. With US institutions bowing or buckling as the administration takes executive power to unprecedented extremes, the establishment of an authoritarian regime cannot be ruled out.
The rapid advance of AI might create the illusion that we have created a form of algorithmic intelligence capable of understanding us as deeply as we understand one another. But these systems will always lack the essential qualities of human intelligence.
explains why even cutting-edge innovations are not immune to the world’s inherent unpredictability.
ФЛОРЕНЦИЯ – Для директивных органов, где бы то ни было, наилучший способ принятия решений заключается в том, чтобы строить их на доказательствах, какими бы несовершенными они ни были. Но что должны делать лидеры, когда факты недостаточны либо отсутствуют вообще? Это дилемма, с которой сталкиваются те, кто должен бороться с последствиями “продвинутых интеллектуальных алгоритмов” – бинарные строительные блоки машинного обучения и искусственного интеллекта (ИИ).
В академических кругах, ученые связанные с ИИ либо “сингуляритане”, либо “презентисты”. Сингуляритане обычно утверждают, что, несмотря на то, что технологии ИИ представляют собой экзистенциальную угрозу для человечества, выгоды перевешивают издержки. Однако, несмотря на то, что эта группа включает в себя множество технических светил и привлекает значительное финансирование, ее научные материалы до сих пор не смогли доказать правоту их расчетов.
С другой стороны, презентисты склонны фокусироваться на честности, ответственности и прозрачности новых технологий. Например, их беспокоит то, как автоматизация повлияет на рынок труда. Но и здесь, исследования были не слишком убедительны. Например, MIT Technology Review недавно сравнил результаты 19 крупных исследований с оценкой прогнозируемых потерь рабочих мест и выявил, что прогнозы по количеству “ликвидированных” рабочих мест в мире варьируют от 1,8 до 2 миллиардов.
Иными словами, “удобной истины” нет ни у одной из сторон этой дискуссии. Когда прогнозы воздействия ИИ колеблются от незначительных сбоев на рынке труда до вымирания человечества, очевидно, что миру необходима новая структура по анализу и управлению предстоящим технологическим разрывом.
Безусловно, неполные данные являются общей проблемой для технологических исследований. Даже в “нормальных” условиях, исследование новых технологий – это как складывать пазлы в темноте при тусклом фонарике. Предположения разработанных теорий не ставятся под сомнение, а получение благоприятных результатов является вопросом количественной оценки вероятностей неблагоприятных событий и, следовательно, регулирования сопутствующих рисков.
Но каждый раз, возникает “пост-нормальная” научная головоломка, что-то, что в 1993 году философы Сильвио Фунтович и Джером Равец первоначально определили, как проблему “где факты неопределенны, ценности спорны, ставки высоки, а решения неотложны”. Для этих вызовов – среди которых и ИИ - политика не может позволить себе ждать, пока наука с этим справится.
Winter Sale: Save 40% on a new PS subscription
At a time of escalating global turmoil, there is an urgent need for incisive, informed analysis of the issues and questions driving the news – just what PS has always provided.
Subscribe to Digital or Digital Plus now to secure your discount.
Subscribe Now
В настоящее время, большинство политик в области ИИ имеют место на Глобальном Севере, что недооценивает проблемы менее развитых стран и затрудняет управление технологиями двойного назначения. Хуже того, директивные органы зачастую игнорируют потенциальное воздействие на окружающую среду и практически полностью фокусируются на антропогенных эффектах автоматизации, робототехники и машин.
Даже без надежных данных, лица принимающие решения, должны продвигаться вперед в управлении ИИ. И, поскольку мир ждет научной определенности (которая возможно никогда не наступит), имеется существующее решение, которое может привести нас к неизвестному: “принципу предосторожности”. Принятый на глобальном уровне в 1992 году, в рамках Конвенции Организации Объединенных Наций по устойчивому развитию, в Рио-де-Жанейро, а затем включенный в один из основополагающих договоров Европейского союза, принцип предосторожности гласит, что отсутствие уверенности не может служить основанием для отказа от охраны здоровья человека или окружающей среды. Это кажется подходящим путем для решения проблемы неопределенности технологически стимулированного будущего.
Принцип предосторожности не лишен своих критиков. Но, несмотря на то, что его заслуги обсуждались годами, мы должны признать, что отсутствие доказательств вреда – это не то же самое, что доказательства отсутствия вреда. Эта простая идея была применена к многочисленным вопросам развития человеческого потенциала – от общественного здравоохранения до младенческой смертности. Существуют три веские причины, по которым ИИ должен стать следующим.
Во-первых, применение принципа предосторожности в контексте ИИ помогло бы восстановить баланс глобальной политической дискуссии, предоставив более слабым голосам большее влияние в дебатах, которые в настоящее время монополизированы корпоративными интересами. Принятие решений, также было бы более инклюзивным и совещательным, а выработка решений более полно отражала социальные потребности. Институт инженеров электротехники и электроники и The Future Society, Школы государственного управления имени Кеннеди Гарвардского университета, уже возглавили работу в этом духе коллективного участия. Дополнительные профессиональные организации и исследовательские центры должны последовать этому примеру.
Более того, применяя принцип предосторожности, органы управления могли бы перенести бремя ответственности на создателей алгоритмов. Требование объяснимости алгоритмического принятия решений может изменить стимулы, предотвратить использование блэкбоксинга, помочь сделать бизнес-решения более прозрачными и позволить государственному сектору догнать частный сектор в развитии технологий. И, заставляя технологические компании и правительства выявлять и рассматривать множество вариантов, принцип предосторожности выдвинул бы на первый план игнорируемые проблемы, такие как воздействие на окружающую среду.
Наука в редких случаях способна помочь в управлении инновациями задолго до того, как последствия этой инновации будут доступны для изучения. Но, в контексте алгоритмов, машинного обучения и ИИ человечество не может позволить себе ждать. Прелесть принципа предосторожности заключается не только в его обосновании в международном публичном праве, но и в его послужном списке в качестве основы для управления инновациями в бесчисленных научных контекстах. Мы должны принять его, прежде чем блага прогресса будут неравномерно распределены или, что еще хуже, будет нанесен непоправимый вред.