人类反抗AI的“战争”开始了?

深度学习之父从谷歌离职,称后悔打开潘多拉魔盒

2023-05-03

互联网白话

记者 梁应杰

如果人类和AI最终走到兵戎相见,上演《终结者》戏码的那一步,那么被誉为“深度学习之父”的Geoffrey Hinton(杰弗里·辛顿)无疑是约翰·康纳一般的角色——在电影里,他是人类反抗“天网”的领导人。

5月1日,辛顿对外确认了自己从谷歌离职的消息。意外的是,他在接受《纽约时报》采访时,表现出了对毕生投入事业的高度怀疑。这位为AlphaGo、GPT等划时代AI产品奠定一系列技术基础的开拓者担心:因为AI越来越不可控,已经威胁到人类社会的正常发展。

从开拓者到末日预言家

80年前,深度学习仰仗的“神经网络”第一次被提出。在此后漫长的时间里,只有少数科学家坚信,应该参照人类大脑的神经网络让计算机智能起来。他们相信,机器能够像人一样思考,而不是简单地遵从符号和指令。辛顿是其中影响力最大的开拓者。

2006年,辛顿发表论文,首次提出了算力(GPU)和算法(预训练、微调)的解决方案,不仅为深度学习迎来一缕曙光,还奠定了今后的发展基础。

6年后,他和两位学生参与图形识别挑战赛,一举夺魁,证明了深度学习的可行性,其中一位学生就是如今风头正劲的OpenAI首席科学家Ilya Sutskever。

一直以来,辛顿都认为,随着生物学发展,人类更好地了解大脑,深度学习最终会让机器拥有人类的智慧,包括意识、情感。他曾说有99.9%的信心,在人类了解大脑如何工作之后,用神经网络进行重建。

在深度学习发展的早期和停滞期,发表这样的言论,是辛顿作为开拓者的工作之一。在没有取得世人广泛认可前,AI太需要关注和投入了。

但当他看到越来越聪明的GPT之后,他开始警惕。毕竟到目前为止,没人能解释AI的“智能涌现”,就像一只只会拙劣模仿的猴子突然变得聪明起来。

比核武器问题更棘手

在接受采访时,辛顿说自己主要有三点担忧。第一,大模型被广泛使用后,互联网将充斥大量虚假的文字、图片和视频,“普通人再也无法知道什么是真的。”

其次,辛顿认为,人类不可避免地陷入和AI的竞争中,大量普通人会逐渐被淘汰,“它会消灭很多苦差事,也可能带走更多工作。”

最后就是潜在的未来威胁。辛顿说已经从大量数据中观察到了AI意想不到的行为,而现在不少个人和公司正在让AI生成代码,然后运行自己生成的代码,就像当初AlphaZero自己和自己下棋一样。

他担心有一天,科幻片里的预言会成真。在某个人类看不见的角落,AI已经具备超越人类的智慧,建立了一支反抗人类的大军。或者更现实一点,一个国家拥有了一支AI军队,像曾经的核武器一样,对其他国家造成威胁。

他甚至提到了“原子弹之父”罗伯特·奥本海默。他推动了原子弹的发展,却对由此带来的毁灭性后果深深自责。

上世纪80年代,辛顿从卡耐基梅隆大学去了加拿大,因为他不愿意接受五角大楼的资助。辛顿警惕地预防AI被用于制造“机器人士兵”。

但现在,潘多拉魔盒已经彻底被打开。

辛顿原本认为至少要三五十年,AI才能比人类更聪明,可过去大半年的事实让他非常紧张。于是,像当年投身核武器和核不扩散运动的奥本海默一样,他希望全世界的顶级科学家们马上联手,控制AI无序发展,把危险扼杀在摇篮里。