文 | 首席商业评论
“人工智能正在变得比人类更聪明,我想要‘吹哨’提醒人们应该认真考虑如何防止人工智能控制人类。”
杰弗里·辛顿在接受外媒采访时表示,他已于上周辞去在谷歌的工作,并就其长期推广的AI技术风险发出警告。
杰弗里·辛顿被外界称为“AI教父”,他对深度学习和神经网络(模仿人脑的数学模型)的研究帮助奠定了人工智能发展的基础,并且已在AI领域默默深耕数十年。
AI技术会威胁人类的论调在科技圈已经不是新鲜事了。杰弗里·辛顿表示,当人们过去问他如何能研究有潜在危险的技术时,他会引用“原子弹之父”罗伯特·奥本海默的话:“当你看到某种技术上令人兴奋的东西时,你就会去做。”
而现在,他的态度发生转变,他决心站在狂热的人工智能风暴中心发出警告的声音。
事实上,不止杰弗里·辛顿,就连马斯克、阿尔特曼等一众大佬都在公开场合表达过对AI未来发展的担忧。
那么,在不可知的未来,AI真的是洪水猛兽吗?
图灵奖得主、“AI教父”杰弗里·辛顿在担忧什么?
杰弗里·辛顿出生于1947年,是一位英国侨民。
早在2012年,杰弗里·辛顿和他在多伦多大学的两名研究生Ilya Sutskever与Alex Krishevsky构建的卷积神经网络在ImageNet大规模视觉识别挑战赛中以巨大优势夺冠,将深度学习推向世人眼前。
2013年,杰弗里·辛顿创办的DNNresearch 公司被谷歌收购,他也因此进入谷歌,并为其效力近十年。2018年,辛顿因在概念和工程领域取得的突破获图灵奖。
作为神经网络技术的先驱、人工智能领域的开创者之一,杰弗里・辛顿为何会对自己奋斗了一辈子的AI事业感到担忧呢?笔者总结了杰弗里・辛顿对于AI的担忧,主要集中在以下三个方面。
首先,杰弗里・辛顿担心人工智能会导致大量失业。在接受《纽约时报》采访时,杰弗里・辛顿表示,他担忧AI可能会导致某些工作机会减少。
事实也确实如此,ChatGPT爆火之后,国外已经有游戏公司裁撤一大批原画师。未来,按照人工智能的发展速度,它们很可能取代律师助理、翻译、行政助理等其他任何基础的、重复性的工作。就像杰弗里・辛顿所说,“它消除了苦差事,但带走的可能远不止于此。”
其次,杰弗里・辛顿担心人工智能会创造出一个许多人“无法知道什么是真实的”世界,互联网将很快被各种虚假信息淹没。虚假图像和文字大量充斥在网络中,而普通人将越来越难分辨这些信息的真假,引发社会的失序。
再者,他还担心人工智能技术接下来的发展会对人类社会构成威胁,这也是AI技术发展最恐怖的一点。
杰弗里・辛顿承认,在他们过去的研究之中,人工智能常常能从大量数据中学习进而产生出很多让人意想不到的行为。而且,AI已经开始编写和运行自己的代码,“自主杀手机器人”可能会成为现实。
“如果它变得比我们聪明得多,它就会非常擅长操纵,因为它是从我们身上学到的,而且很少有例子证明一个更聪明的东西会被一个更笨的东西控制,”杰弗里・辛顿在采访中谈到,“它知道如何编程,所以它会想出办法绕过我们对它的限制。它会想出办法操纵人们做它想要的事情。”
面对人工智能的飞速发展,杰弗里・辛顿表示:“人们不应该快速扩大AI研究的规模,直到足够了解自己是否能够控制它。”
AI“遍地开花”,资本“笑脸相迎”
无独有偶,除了杰弗里・辛顿之外,国际社会上有不少人都认为人工智能会对人类产生不可逆转的负面影响。
今年三月,1000多名技术领袖和研究人员签署了一封公开信,呼吁暂停更先进系统的开发6个月,理由是人工智能技术“对社会和人类构成了深刻的风险”。
不久之后,拥有40多年历史、人工智能领域最权威学术机构之一的人工智能促进协会(AAAI)的19名现任及前任领导人也发布了联名信,其中包括了微软现任首席科学家、人工智能研究专家Eric Horvitz。
尽管反对的声音此起彼伏,但事实上,AI技术已经广泛运用到我们的日常生活里,比如语音识别、人脸识别、图片检索、机器翻译、自动驾驶等……
资本市场对AI技术也采取肯定态度。以ChatGPT母公司OpenAI为例,近期,OpenAI完成103亿美元融资,估值也水涨船高,达到270亿-290亿美元(约合人民币2000亿元),OpenAI堪称全球最新成长速度最快的独角兽。
而且,OpenAI背后的投资人也可谓是大佬云集。本次融资分为两部分:一是由老虎环球管理、红杉资本、加州Andreessen Horowitz、纽约Thrive和K2 Global、Founders Fund等参与的财务投资,金额超3亿美元;二是由微软主导的战略投资,规模据大约100亿美元。
放眼国内也是如此。阿里腾讯百度等互联网大厂都在做发力AI,也有不少创业公司靠着AI概念爆火。比如,百度的“文心一言”、阿里的“通义千问”、王小川的“百川智能”、商汤科技的日日新SenseNova大模型、昆仑万维的大语言模型“天工3.5”……
据《首席商业评论》不完全统计,国内科大讯飞、万兴科技、蓝色光标、中文在线等超300家企业宣布布局AI赛道。
天下熙熙皆为利来,天下攘攘皆为利往。在资本和政策的双重推动下,人工智能的发展将会不可避免的加速。而潘多拉魔盒一旦被打开,就很难被关闭。技术的发展和人类的开悟也是一样,是不可逆的。
正如谷歌首席科学家Jeff Dean在一份声明中回应的那样,“我们仍然致力于以负责的方式对待人工智能。我们将不断学习以面对即将出现的风险,同时仍持续大胆创新。”
AI真的是洪水猛兽吗?
“人工智能觉醒之日,就是人类文明灭亡之时。”
在科技圈,有不少大佬悲观地断言,AI会对人类造成毁灭性打击。已故的物理学家霍金也曾预言,AI可能会成为完全取代人类的新生命体,就连OpenAI的创始人阿尔特曼也在一次采访中表示,“AI确实可能杀死人类。”
那些曾经存在于《机器姬》、《银翼杀手》等电影里的情节,如今似乎正在走向现实。
AI于人类而言,真的是洪水猛兽吗?
首席采访了一位资深行业人士,他表示“(杰弗里・辛顿)还是担心潜在影响,担心机器产生自我意识,失去控制,给人类造成不可预估的负面影响,但如果可控是没有问题的。”
这已经不是业内人士第一次提到“可控”。上海市人工智能行业协会秘书长钟俊浩也曾公开对媒体表示,比起失控的技术,更有可能失控的是用技术来为非作歹的‘人’,防止人工智能作恶,关键在于控制背后的人。
就连杰弗里・辛顿也曾强调可控的重要性。辛顿称,谷歌和微软以及其他大型公司之间的竞争,将很快升级为一场全球性竞争,如果没有某种监管,这场竞争将不会停止,人工智能发展的速度会远超我们的想象,并最终走向失控。
AI行业正在由内向外呼吁监管。事实上,ChatGPT出圈后,以大模型为底座的人工智能在全球范围爆火,各国政府都已经为人工智能技术和应用的发展“系上安全带”。
今年4月11日,我国网信办发布《生成式人工智能服务管理办法(征求意见稿)》,提出21条举措,用规章制度防范人工智能技术手段滥用行为,促进生成式人工智能技术健康发展和规范应用。
欧盟对人工智能的重点是应对公司用于开发其生成人工智能模型数据集的版权问题。当前许多生成模型拒绝披露其数据源。欧盟修订后的 AI 法案将要求这些公司公开数据集,这将为 AI 开发人员提供一个合法来源的参考。
美国政府更关注人工智能对隐私、有害信息扩散和经济的潜在影响。前不久,美国民主党人提出了一项法案,要求政治广告披露人工智能的使用情况。
目前,针对人工智能的态度整体上可以分为“暂停半年派”、“拥抱未来派”和“彻底封禁派”三派,但关于共同加强AI监管、预防潜在性危险发生的观点,社会各界的看法几乎都是一致的。
事实上,没有人能断定AI未来的发展,我们只能谨小慎微地推测AI可能带来的风险并加以预防。
这点可以参考一下新技术历史,在人类的历史长河中,有不少新技术的出现都伴随着争议。
比如,核能发现之后,给人类生活带来了双重影响。一方面,核能可以用少量的核燃料产生大量的能量、低污染、运输方便,成本低廉。
另一方面,核电厂的反应器内有大量的放射性物质,如果发生核泄漏事故,会对生态及民众造成严重伤害,并且与其他可再生能源相比,核能并不是一种绝对安全的能源。
AI技术迅猛发展已经是不争的事实,但AI技术是否会对人类造成毁灭性影响,我想,每个人都有自己的看法。
技术没有对和错,错的只可能是人心。
时间回到2015年,在OpenAI诞生之初,就确立了公司创立的初心是“确保人工智能不会消灭人类。”
当时,马斯克曾与阿尔特曼讨论过一个问题:“为了人类的未来,我们拥有的最美好的事物是什么?”
马斯克回答:“是人性。”
参考资料: