当前位置:河南热线 > 河南圈 > 圈层资讯 > 正文
美媒:只剩7年!人工智能奇点逼近人类
2023-03-01 19:18:31 来源: 大河报网
关注河南热线

参考消息网3月1日报道

据美国《大众机械》月刊网站2月14日报道,聊天生成预训练转换器(ChatGPT)和其他人工智能程序最近是新闻里的热点话题,让人不安的同时又让我们对药物、语言学甚至自动驾驶方面新的可能性感到兴奋。在相关的未来里存在大量的“如果……会怎样”,让我们重新思考从杀手机器人到自己的就业保障等所有的一切。

我们应该从这种超强人工智能后退一步以缓解自己的担忧吗?这取决于你向谁提出这一问题,但最终都归结为奇点——机器智慧超过人类智慧的“无法回头的地步”。


(资料图)

按照某个标准衡量,技术奇点距离我们可能只有7年。这促使我们接触这方面的专家以更多地了解奇点到底是什么,以及它距离我们多近。

奇点时刻日益临近

奇点是机器智慧赶上或超过人类智慧的时刻——斯蒂芬·霍金和比尔·盖茨等想象力丰富的人相信这一概念已经有相当长的时间了。机器智慧听上去可能很复杂,但可以简单地解释为使设备可以聪明地与其所处的环境互动(通过计算机、电话甚至是算法)和交流的先进运算。

奇点的概念已经存在了几十年。英国数学家艾伦·图灵——被普遍认为是理论计算机科学和人工智能之父——在20世纪50年代测试了奇点的可能性。他提出了著名的图灵测试以查明机器是否可以自我思考;测试让人与机器对垒,让系统欺骗我们,使我们相信它是人。非常先进的人工智能聊天机器人ChatGPT最近的问世使图灵测试重新引起关注。剧透:它已经通过了测试。

加利福尼亚大学伯克利分校博士后学者,专门研究应用人工智能和技术奇点的伊尚妮·普里亚达尔希妮对《大众机械》说:“机器智慧与人类智慧的区别在于,我们的智慧是不变的,而机器不是。机器的智慧没有尽头,可以一直增加,而人类并非如此。”与我们的大脑不同,人工智能系统可以扩展许多倍;真正的限制是容纳所有运算力的空间。

互联网上到处都是我们会在下一个十年到达奇点的说法,但这些最多是猜测。普里亚达尔希妮认为,奇点已经零零碎碎地存在——就像一个我们尚未完成的拼图。她赞同我们会在2030年后的某个时候到达奇点的估计,还说对于一项我们所知甚少的技术很难做到绝对肯定。达到奇点“无法回头的地步”(我们释放出有超级智慧的计算机系统那个无法回头的点)所需的时间比上述估计长得多的可能性是真实存在的。

话虽如此,但我们已经在我们的生命里看到了奇点的迹象。普里亚达尔希妮说:“在有些游戏里,人类绝对无法胜过机器,这就是奇点的明确迹象。”比如,国际商业机器公司(IBM)1997年推出的“深蓝”超级计算机是首个击败人类棋手的人工智能。而且他们还不是让无名氏上场:深蓝对阵的是当时的国际象棋世界冠军加里·卡斯帕罗夫。

奇点仍然是一个众所周知难以衡量的概念。即使是今天,我们也仍然难以找到我们朝着奇点前进的标志物。

许多专家称语言翻译是衡量我们进展的罗塞塔石碑;比如,如果人工智能可以用跟人类一样或更好的水平翻译讲话,这可能是我们朝着奇点迈进一步的明确迹象。

然而,普里亚达尔希妮认为,网络迷因可能是我们朝着奇点前进的又一个标志物,因为大家都知道人工智能很难理解网络迷因。

到达奇点后果难料

我们对一个拥有超级智慧的系统能干什么没有概念。美国路易斯维尔大学计算机工程与计算机科学副教授罗曼·扬波利斯基对《大众机械》说:“我们自己也需要拥有超级智慧。”我们只能用我们目前的智慧水平来推测。

扬波利斯基最近撰写了一篇关于人工智能预测人工智能可以做什么决定的论文,相当令人不安。他说:“你至少要拥有那种智慧才能预测系统会做什么……如果我们讨论的是比人类聪明的系统(超级智慧),那么我们就不可能预测其发明或决定。”

普里亚达尔希妮表示,很难说人工智能是否有恶意。她说,行为失常的人工智能只是因其代码中的偏差——基本上是我们编程时未能预见的副作用。严格来说,人工智能只是基于一系列规则和参数的决策。普里亚达尔希妮说:“我们想要自动驾驶汽车,我们只是不希望它们闯红灯和撞到乘客。”基本上,自动驾驶汽车可能认为穿过红灯和人是及时赶到目的地的最有效的方式。

这些大部分与未知的未知概念有关,我们没有脑力来准确预测拥有超级智慧的系统可以做什么。事实上,国际商业机器公司目前估计,只有三分之一的开发者知道如何正确测试这些系统,寻找可能出问题的潜在偏差。该公司开发了一个名为“害怕人工智能”的新解决方案,它能通过检查“人类可以解读的”小段数据来发现机器学习模式的弱点。目前还不清楚这一系统是否可以减少人工智能的偏差,但它显然走在了我们的前面。

普里亚达尔希妮说:“人工智能研究人员知道我们无法百分之百地从代码中消除偏差……因此,打造百分之百没有偏差、不会犯任何错误的人工智能将很有挑战性。”

人工智能现在还没有知觉——意味着它目前无法像人类那样思考、感知和感觉。奇点和知觉经常交织在一起,但并没有紧密的关系。

即使人工智能目前还没有知觉,也无法让我们避开行为失常人工智能造成的意外结果;它只是意味着人工智能没有行为失常的动机。扬波利斯基说:“我们无法检测、衡量或估计系统是否正在经历内部思考……但它们不是必须这样才可以变得非常强大和危险。”他还提到即使有方法衡量知觉,我们也不知道机器是否能够有知觉。

这意味着我们不知道是否能在现实生活中看到电影《机械姬》里的类人机器人伊娃,伊娃反叛了它的创造者以逃离囚禁。好莱坞上演的许多人工智能末日场景只是,嗯……虚构。普里亚达尔希妮说:“我非常相信的一点是,人工智能只不过是代码。它也许没有动机反对人类,但认为人类是某些问题根本原因的机器可能会有反对人类的想法。”它给人类带来的危险也许只是我们没有注意到的代码中的偏差。

在很大程度上,我们不知道人工智能是否会产生知觉;没有知觉,人工智能就没有理由追杀我们。唯一值得关注的例外是索菲娅。索菲娅是一个称自己希望摧毁人类的人工智能聊天机器人。然而,这被认为是该聊天机器人文本里的一个错误。普里亚达尔希妮说:“只要有错误的代码,偏差就会存在,人工智能就会继续出错。”

如何防止奇点灾难

谈到偏差,普里亚达尔希妮提到她所说的“自动驾驶汽车经典案例”。在假想的情况下,五个人乘坐自动驾驶汽车在路上行驶,突然一个人跳到了路上。如果汽车无法及时停下,这就会变成一个简单的数学游戏:1对5。

普里亚达尔希妮说:“它会撞死这名行人,因为1小于5,但为什么它会这样做呢?”

我们愿意把它看成原来的电车难题的21世纪翻版。这是一个著名的哲学和心理学思想实验,在一个假想的困境中你是一名电车驾驶员,但没有刹车。想象一下:你正在轨道上疾驰,看到前方轨道上有五个人(肯定会被轧到),但你可以选择把电车开到另一条轨道,上面只有一个人。确实,死一个比死多个好,但你有意识地做出了杀死这一个人的决定。

扬波利斯基举了用人工智能开发新冠疫苗的例子。

他说,系统知道更多人患新冠会让病毒变异——使得开发适用于所有变种的疫苗变得更困难。“系统认为……也许我可通过减少人的数量来解决这个问题,使病毒不能变异很多。”

我们显然不会完全放弃临床实验,但这无法阻止这样一个事实:人工智能可能开发出一种会杀死人的疫苗。

扬波利斯基说:“这是一个我可以用我的智慧水平想到的可能出现的场景……如果用更高水平的智慧去想,你会得到数以百万计的类似场景。”这就是我们在人工智能问题上面对的情况。

我们永远无法去除人工智能里未知的未知。这些是意外出现的副作用,我们无法预测,因为我们不像人工智能那样拥有超级智慧。几乎不可能知道这些系统能干什么。

普里亚达尔希妮说:“我们确实着眼于导致大量行为失常机器出现的奇点。如果它到达了无法回头的转折点,就没有办法回到从前那样了。”

关于人工智能的未来仍有许多未知,但了解到世界各地的专家们正致力于在不出现任何我们可能想到的末日场景的情况下收获人工智能的好处,这让我们可以松一口气。我们真的只有一次做对的机会。

来源:参考消息 编辑:牛中振

责任编辑:hN_0126