科技观察|“AI传奇教父”:我仍对AI伦理问题感到顾虑
封面新闻记者 边雪
作为一种具有开放性、颠覆性但又远未成熟的技术,人工智能在带来高效生产与便利生活的同时,也对现有技术伦理关系与社会结构造成冲击,AI诈骗、AI侵权等不少伦理冲突与法律问题也正在涌现。
(资料图片仅供参考)
在AI技术快速更新的时代,如何准确把握时代发展和社会运行特质,深刻反思并能对人工智能引发的伦理风险,做到有针对性和前瞻性地进行应对?
Geoffrey Hinton演讲。
6月10日下午,在2023北京智源大会“AI安全与对齐”专题论坛上,图灵奖得主、“深度学习之父”辛顿 (Geoffrey Hinton)在闭幕演讲接近尾声时,以引人深思的问题结束了题为“通向智能的两条通路”(Two paths to Intelligence)演讲:“假设青蛙创造了人类,那么你认为现在谁会占据主动权,是人,还是青蛙?”
“科学史上看到的都是先驱在闪光,从内心深处热爱科学的科学家们,也是如此。”对此,中关村互联网金融研究院兼职研究员、《Web3:互联网的新世界》作者张雅琪表示,如果智源大会上只看一个人,那一定是辛顿。
今年75岁的辛顿,出生于英国,是反向传播算法和对比散度算法的发明人之一,在类神经网路方面拥有巨大技术贡献。此外,辛顿还是深度学习的积极推动者,被誉为“深度学习之父”。因其在深度学习技术方面的重大贡献,辛顿与约书亚·本希奥和杨立昆一同被授予了2018年的图灵奖。
人工神经网络会更聪明吗?
辛顿在演讲时提出的第一个问题,是人工神经网络的聪明程度是否很快将超越真实的神经网络。
在辛顿看来,未来的计算机系统将采取不同的方式,它们将是“神经形态的”。这意味着每台计算机都将是神经网络软件与杂乱无章硬件的紧密结合,在具有模拟而非数字元件的意义上,它可以包含不确定性因素并随时间推移而发展。
“我们可以尝试找到适用于小型神经网络的目标函数。这里的思路是:我们想要训练一个大型神经网络的话,要做的是使用许多小的目标函数来应用于网络的各个小部分。因此,每个小组神经元都有自己的局部目标函数。”
辛顿指出,现在,可以使用这种活动扰动算法来训练一个小型的多层神经网络。它的学习方式与反向传播大致相同,但噪声较大。然后通过使用许多更多的小型局部神经元组,将其扩展到更大的网络规模。
“到目前为止,我们还没有找到一个真正好用的学习算法,可以充分利用模拟属性。但我们有一个可以接受的学习算法,足以很好地学习诸如小规模任务和一些较大的任务(如ImageNet),但效果并不太好。”
毫无疑问,有限计算的第二个重大问题是其有限性
当特定的硬件设备失效时,所有学到的知识也会随之丧失,因为知识和硬件细节密切相连。“解决这个问题的最佳方案是在硬件设备失效之前,将知识从教师传授给学生。这就是我现在正在尝试做的事情。”在实验中,教师向学生展示了对各种输入的正确响应,然后学生试图模仿教师的反应。
这是辛顿曾在视觉计算机技术会议NeurIPS 2022上公布的研究成果——一种取代反向传播的前向-前向传播的Forward-Backward算法,以这种算法方式进行新的“非永生计算”训练和计算方法,以限制 AI 无限复制可能带来的威胁。
未来计算机系统会如何发展,辛顿指出它们将是“神经形态的”。这意味着每台计算机都将是神经网络软件与杂乱无章硬件的紧密结合,在具有模拟而非数字元件的意义上,它可以包含不确定性因素并随时间推移而发展。
当智能体变得比我们更聪明,会发生什么?
人类对AI技术的发展究竟是否可控?辛顿对AI伦理问题的担忧,早已显露。
在接受纽约时报采访时,辛顿曾表示自己在今年四月辞去了Google 副总裁和工程fellow 的职务,就是为了能不受制约地警告人们警惕AI 的潜在风险。辛顿担心Google 会为了和ChatGPT、Bing 等服务竞争,而放松对公开发布AI 的约束,而这可能会引发一系列的伦理问题。
“一旦数字智能开始追求更多控制权,我们可能会面临更多的问题。比如,在使用物理气隙隔绝的情况下,超级智能物种仍然可以轻易通过控制人类来获得更多的权限。”在辛顿看来,作为对比,人类很少去思考比自身更智能的物种,以及如何和这些物种交互的方式,“在我的观察中,这类人工智能已经熟练地掌握了欺骗人类的动作,因为它可以通过阅读小说,来学习欺骗他人的方式,而一旦人工智能具备了‘欺骗’这个能力,也就具备前面提及的——轻易控制人类的能力。”
尽管人类在这个问题上目前还没有什么好的解决方案,但好在这些智能物种都是人打造的,而非通过进化迭代而来,这可能是人类目前具备的微弱优势,恰恰是因为没有进化能力,它们才不具备人类的竞争、攻击性的特点。
对此,西南科技大学计算机科学与技术学院杨春明副教授告诉封面新闻记者,智能技术发展的目标是为人类解决繁杂的体力劳动,AI技术的发展应该以人类的需求为目标。“利用人工智能去解决实际的问题,才能在未来是友好的。”
“我们可以做一些赋能,甚至是赋予人工智能一些伦理原则,只不过现在我仍然会感到紧张,因为到目前为止,我还想象不到更智能的事物,被一些反倒没那么智能的事物所控制的例子。”辛顿认为,一旦 AI 掌握了“欺骗”技能,也就能轻易具备控制人类的能力。“超级智能控制问题非常重要。我看不出如何防止这种情况发生。我希望像你们这样年轻且才华横溢的研究人员,能弄清楚我们如何阻止这种通过欺骗实现控制的行为。”