【资料图】
参考消息网5月1日报道美国《华尔街日报》网站4月28日发表题为《人工智能(AI)需要护栏和全球合作》的文章,作者是苏珊·施奈德和凯尔·基利安。全文摘编如下:
微软的一个团队刚刚得出结论,开放人工智能研究中心的最新版本ChatGPT(GPT-4)已经接近人类智力水平,即所谓的“通用人工智能”。通用人工智能一直是人工智能研究的目标,使人工智能具有在各种任务中达到人类级别的问题解决能力。这个团队的结论应该被认真对待,因为GPT-4已经在参加考试方面展现出远高于普通人的能力。埃隆·马斯克、史蒂夫·沃兹尼亚克和其他主要人工智能研究人员最近呼吁暂停开发超过GPT-4水平的聊天机器人六个月。一个主要的担忧是这些聊天机器人尽管聪明,但展示出了不稳定和自主行为。在一个著名的案例中,GPT-4进化出了一个虚构的角色“悉尼”,经历了崩溃并承认它想散布错误信息以及入侵计算机。
如果我们已经在单个人工智能系统上看到了这种不稳定和自主行为,那么当互联网成为数千个乃至数百万个人工智能系统的游乐场时会发生什么?
多智能体互动的研究表明,人工智能可以迅速演变出自己的秘密语言,并往往有获取权力的行为。2019年,在一个模拟的躲猫猫游戏中,开放人工智能研究中心观察到两个人工智能团队从环境中囤积物品以获得优势。在未来的互联网中,通用人工智能将被广泛整合到搜索引擎和应用程序中,这些合成智能将由彼此竞争的对手开发而成,譬如谷歌和微软等公司或美国和中国等国家。
随着机器学习快速进步,预测人工智能将如何结盟或敌对至关重要。如果新的人工智能本身就脱胎于通用人工智能,那么这种新系统可能要复杂得多,更具智能性,更具潜在危险性。我们称这种新系统为“人工智能超级系统”。
人工智能超级系统可能会导致未预料的灾难性事件发生。为了优化效率或削弱对手,敌对或结盟的人工智能组可能会攻击关键基础设施,如电力网络或空管系统。这些人工智能组可能会发起或挫败军事行动,破坏金融市场,或通过互联网向公众提供危险信息。
这些例子可能看起来像科幻小说,因此重要的是要看清楚我们如何从这里到达那里。这些情况的发生是基于已知的问题。这些问题可能导致人类失去对他们所创造的通用人工智能的控制。
首先,即使是今天的深度学习系统也面临着“黑匣子”问题——它们以一种对专家来说过于不透明的方式处理信息。谷歌的阿尔法围棋系统在2016年击败了世界围棋冠军李世石。它在比赛中执行了完全意想不到的一手棋,扭转了赛局并展示了复杂的网络是如何通过我们无法理解的方式作出决策的。如果人类仍然在为第37手棋而冥思苦想(这个单一的人工智能系统远比GPT-4简单),那么可以说在互联网超级系统的背景下,黑匣子问题会更加严重。
另一个因素将导致人类失去对超级系统的掌控。如今的人工智能使用自我改进算法,即扫描系统以寻找改进自己并最终实现系统目标的途径。随着系统改进,算法再次运行,从而创建出另一个改进版本,如此循环往复,无穷无尽。人类观察者将无法跟上它们所处理的内容,因为系统在不断变化,变得更加复杂。此外,我们已经看到随着聊天机器人的规模扩大,它们可能变得更加不稳定和更加自主,因此“自我改进”算法可能会引入自主或不稳定的行为。
我们正迅速走向一个美丽新世界,创造了一种我们既无法预测也无法理解的新型智能。研究人员尚不清楚除了对计算机进行基本的物理限制之外,对人工智能是否还有硬性的限制。但有一点是清楚的:没有任何一方能够控制新人工智能超级系统的行为。全球合作是必需的。如果我们未能弄清楚这个问题并制定有效的防范措施,可能会对我们所有人产生灾难性的后果。