sayang2_ Frank Rumpenhorstpicture alliance via Getty Images_chatgpt Frank Rumpenhorst/picture alliance via Getty Images

规管AI的正确方式

发自多伦多——新技术的到来往往会引发广泛的焦虑,其中最常见的是对自动化和人类工人失业的担忧。工业时代之初的卢德分子也许是最常被用来说明这种技术恐惧症的例子,而自那以后这种担忧就不时现身。

然而与过去的技术突破相比,人们所感知到的人工智能威胁似乎更大。人们担心的不仅仅是自己被取代,而是人类灭绝的可能性。最近技术专家们互相询问:“你的(毁灭)p值是多少?”(对人工智能毁灭人类概率的估算)。答案可能因时而异。不过在 0 到 100 的范围内选择的确切数字并不重要,重要的是根本问题:你对人工智能究竟有多悲观?

2023年3月,1000 多名技术研究人员和企业高管签署了一封被称为“暂停”的信,呼吁所有人工智能实验室暂停“训练比GPT-4更强大的人工智能系统”至少六个月。签名者包括人工智能先驱约书亚·本吉奥(Yoshua Bengio)、经济学家达伦·阿斯莫格鲁(Daron Acemoglu)和科技界亿万富翁埃隆·马斯克(Elon Musk)。这是一个不应被忽视的群体,但就我所知他们却遭到了无视。尽管值得留意的是在本文落笔时还没有比 ChatGPT-4 强大得多的人工智能系统问世,但也并未出现明显的暂停。

在暂停信上签名的专家们遵守的是预防性原则,即如果某项活动可能会造成无法弥补的伤害,那就应该放慢脚步并增进对其的了解。但每存在一位强调谨慎的专家都会有对应的另一些人主张快速发展人工智能技术。毕竟十多年来包括我在内的许多经济学家都目睹了初创企业将令人叫绝的人工智能技术推向市场。在癌症检测、安全系统、协助残疾人的工具、扩大教育机会的指导教师以及提高老年人行动能力和独立性的自动驾驶车辆方面都取得了突破性进展。

暂停只会延误这些好处。因此虽然暂停可能确实是明智之举,但我们应该确保我们对潜在危害的担忧不仅仅是基于猜测。

为了帮助确定对人工智能的担忧是否合理,我们应该了解这些担忧的来源。首先是历史经验。大多数新技术既有好处,也有代价,有时代价还大于好处。比如小托马斯·米奇利(Thomas Midgley, Jr.)发明了四乙基铅,这种汽油添加剂可以减少发动机爆震并显著提高汽车可靠性;他还发明了氟利昂这种关键制冷化学物质。但他的发明催生了铅中毒症状并产生出破坏臭氧层的氟氯化碳,最终这两种物质都被禁止使用。

PS_Sales_BacktoSchool_1333x1000_Promo

Don’t go back to school without Project Syndicate! For a limited time, we’re offering PS Digital subscriptions for just $50.

Access every new PS commentary, our suite of subscriber-exclusive content, and the full PS archive.

Subscribe Now

在2023年出版的《权力与进步》一书中,阿西莫格鲁和西蒙·约翰逊(Simon Johnson)认为上述后果往往是常态。因此尽管经济学家普遍认为大多数新技术最终都是利大于弊,但也有人认为人工智能是一系列潜在危险技术中的最新一种——这些技术在人们还没有充分认识到其可能带来的代价之前就被应用了。

人们对人工智能的第二个担忧是它确实存在各种可识别的危害。针对这些系统如何被训练的问题已经发生了一些冲突,比如《纽约时报》就以涉嫌侵犯版权为由起诉OpenAI和微软。一些创新者已经明确表示他们的目标是用人工智能取代工人,而学生已经在使用大型语言模型来完成考试和作业了。

除了扰乱教育和工作场所,人工智能还被用于监视公民、通过换脸冒充他人以及增强武器作战能力。人们也有理由担心已经拥有大量数据的现有企业会强化其市场势力。这些可识别的危害可以与技术的益处进行权衡,必要时可以通过监管来解决,或者像含铅汽油和氟利昂那样直接被禁。

这又回到了第三个担忧的根源:新技术的许多后果都是意料之外和不可预见的,人工智能很可能也是如此。例如,现在人们普遍担心社交媒体会损害儿童的心理健康。但关键之处在于这些平台无处不在,因此并不存在简单的监管解决方案。

那些意想不到的后果往往难以逆转的状况本身就是个问题,而它似乎在迫使人们在要不要人工智能之间做出非此即彼的选择。但这是一个错误的两难选择。事实上这意味着我们应该对人工智能进行更多的小规模试验以便在仍有可能限制其破坏程度的情况下识别潜在的危害。

新技术意外后果的潜在不可逆转性也表明人工智能监管应发挥更加细致和多方面的作用。我们必须持续开展研究以便在各类后果出现后立即加以识别并进行适当的成本效益分析。此外我们还应设法使人工智能的应用更具可逆性,而这或许会涉及到制度和基础设施改革。这将在人工智能产生不受欢迎的副作用时为实际损害提供更大程度的保险,同时确保社会能够从中获益。

https://prosyn.org/JkrjhpSzh