导读:被誉为“AI教父”弗里·辛顿,他是一位英国计算机科学家。他从谷歌急流勇退后,一直在警告人们对人工智能的安全,但是,会有多少人和公司看重此事?
被业界称为“人工智能教父”的计算机科学家杰弗里·辛顿 ( Geoffrey Hinton)近日再次向公众表示,如果人类不小心的话,人工智能增强型机器“可能会接管地球”。
现年75 岁的辛顿周日在哥伦比亚广播公司的《60 分钟》节目中接受采访时表示,快速发展的人工智能技术可能会在“五年内”完全超越人类。他补充说,如果这种情况发生,人工智能的发展可能会超出人类的控制能力。
“这些系统逃脱控制的方法之一是编写自己的计算机代码来进行自我修改,”辛顿说。“这是我们需要认真担心的事情。”
辛顿因其数十年来在人工智能和深度学习方面的开创性工作而获得 2018 年图灵奖。在谷歌工作了十年后,他于五月辞去了谷歌副总裁兼工程研究员的工作,这样他就可以自由地谈论人工智能带来的风险。
辛顿说,人类、包括像他这样能够构建当今人工智能系统的科学家,仍然没有完全理解这项技术是如何工作与发展的。许多人工智能研究人员坦率地承认缺乏深度理解:今年4月份,谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)已经将其称为人工智能的“黑匣子”问题。
正如辛顿所描述之言论,科学家为人工智能系统设计算法,从互联网等数据集中提取信息。“当这种学习算法与数据交互时,它会产生擅长做事的复杂神经网络,但我们并不真正了解它们是如何做这些事情的。”
谷歌皮查伊和其他人工智能专家似乎并不像辛顿那样担心,比如人类会因此失去控制。其中,另一位图灵奖获得者、也被认为是“人工智能教父”的Yann LeCun称任何关于人工智能可能取代人类的警告都是“荒谬可笑的” ——因为人类总能阻止任何变得过于危险的技术。
人工智能系统能够自我学习和自我编码
2019年,辛顿博士及其合作者Yann Lecun(左)和Yoshua Bengio获得了图灵奖——计算机界的诺贝尔奖,以奖励他们在人工神经网络方面的工作如何帮助机器学会学习。
我们去看一个真实的AI“游戏”实例。
首先我们来到谷歌位于伦敦的人工智能实验室,这里有一个足球项目,这些机器人是机器学习的一个非常好的例子。需要事先明确的是,机器人的编程并不是为了踢足球。他们被告知要得分,必须自己学习如何做到。
一般情况,人工智能是这样做的。辛顿和他的合作者分层创建软件,每一层处理部分问题,这就是所谓的神经网络。但以下这些上 关键:比如,当机器人得分时,一条消息会通过所有层向下发送,表明“这条路径是正确的”。
同样,当答案错误时,该消息就会通过网络传递。因此,正确的连接会变得更加牢固。错误的连接会变得更弱。通过反复试验,机器便可以自我学习。
因此,辛顿博士认为这些人工智能系统将比人类大脑更擅长学习。
虽然目前它们的规模要小得多。目前即使是最大的聊天机器人也只有大约一万亿个连接,而人的大脑大约有100万亿。然而,在聊天机器人的数万亿个连接中,它所知道的信息远远多于你在 100 万亿个连接中所了解的信息,这表明它有更好的方法将知识融入这些连接中,这是获取尚未完全理解知识的更好方法。
目前我们大致能了解它正在做什么。但一旦事情变得非常复杂,我们就不知道发生了什么,就像我们不知道你的大脑里发生了什么一样。
人们会说它是由人工设计的,完全可以掌握。
辛顿对此表示否定,他说事实并非如此。我们所做的是设计学习算法。这有点像设计进化原理。但是,当这种学习算法与数据交互时,它会产生擅长做事的复杂神经网络。但我们并不真正了解他们是如何做这些事情的。
而这些系统可以自主编写或修改自己的计算机代码并执行自己的计算机代码将意味着一个严重的安全担忧。
这些人工智能系统逃脱控制的方法之一是编写自己的计算机代码来修改自身。这是我们,特别是专家和工程师需要认真对待所担心的事情。
人工智能的未来存在“巨大的不确定性”
杰弗里·辛顿 (Geoffrey Hinton) 告诉人们,他启动的人工智能是一次因失败而产生的意外。
20 世纪 70 年代,在爱丁堡大学,他梦想在计算机上模拟神经网络——只是作为他真正研究的对象——人脑的工具。但是当时几乎没有人认为软件可以模仿大脑。他的博士学位顾问告诉他在毁掉自己职业生涯之前放弃它。辛顿说他没能弄清楚人类的思维,但长期的追求导致产生了一个人工版本。
在 2012 年,这是另一个里程碑,他和另外两名研究人员(包括未来的 OpenAI 联合创始人 Ilya Sutskever)赢得了构建计算机视觉系统的竞赛,该系统可以识别图片中的数百个物体。十一年后,OpenAI 最新版本的 GPT 软件拥有同样的功能,其规模曾经让人难以想象。
辛顿博士与研究生 Alex Krizhevsky 和 Sutskever 一起创立了 DNNresearch,将他们的工作集中在机器学习上。他们的图像识别系统 AlexNet 的成功引起了搜索巨头谷歌的兴趣,并于 2013 年收购了他们的公司。
辛顿强调,最坏的情况目前还不确定,传统医疗保健等行业已经从人工智能中受益良多。
辛顿还指出,人工智能增强的错误信息、虚假照片和视频正在网上不断传播。他呼吁进行更多研究来了解人工智能,政府制定法规来控制该技术,并在全球范围内禁止人工智能驱动的军用型机器人。
在上个月的国会山会议上,桑达尔·皮查伊、埃隆·马斯克、OpenAI 的萨姆·奥尔特曼和 Meta 的马克·扎克伯格等立法者和科技公司高管,他们在讨论平衡监管与创新友好型政府政策之必要性时,亦提出了类似的想法。
辛顿表示,不管人工智能防护栏如何落实到位——不论是由科技公司实施还是在美国联邦政府的强制要求下实施——它们都需要尽快地实施。
辛顿说,人类可能正处于“一种转折点”,并补充说,科技和政府领导人必须决定“是否进一步开发这些东西,以及如果他们这样做,该如何保护自己。”
“我认为我的主要信息是,接下来会发生什么存在巨大的不确定性,”辛顿强调说。
“曾经我认为这种风险还很遥远。我认为这还需要 30 到 50 年,甚至更长时间。显然,我现在不再这么认为了。”
辛顿博士一生的工作已经确保了他在历史书中占有一席之地。他警告的人工智能技术或许令人兴奋或者令人担忧,这取决于你的立场,那些能够充分理解他和影响业界的故事还没有被写出来,也许很快。
各位怎么看?欢迎留言~
本文为 @ 大雄 创作并授权21CTO发布,未经许可,请勿转载。
内容授权事宜请您联系 info@21cto.com或关注 21CTO 公众号。
该文观点仅代表作者本人,21CTO 平台仅提供信息存储空间服务。