AI教父:AI在30年内毁灭人类的几率高达2成 (图)
6Park 科技 1 day, 20 hours
被誉为“人工智能(AI)教父”的辛顿(Geoffrey Hinton)警告说,AI的变革速度“远比预期快”,人工智能在未来30年灭绝人类社会的可能性为10至20%。辛顿是2024年诺贝尔物理学奖的共同得主,他之前曾表示这个几率为10%。
辛顿近日接受《BBC》采访,当被问到为何会上调这个几率,辛顿指人类从未应对过比我们更聪明的事物。
他补充道:“试想一下,你有见过较聪明物种,让较愚钝物种控制的情况吗?例子非常少。我唯一能够想到的例子就是,婴儿‘控制’母亲;人类成长的过程需要花费大量精力,因此婴儿才能够控制母亲。”
辛顿还指出,与强大的AI系统相比,人类就像幼儿。他说:“我喜欢这样想:想像一下你和一个三岁的小孩。我们将会是那个三岁的小孩。”
辛顿去年辞掉在谷歌(Google)的工作,以更畅快地谈论AI发展不受控制所构成的风险。他指出,“坏人”可能会利用这项技术对他人造成伤害。并补充,许多专家认为在未来20年内,可能会开发出比人类更聪明的AI系统,而这是非常可怕的想法。
回顾AI发展的迅速进展,辛顿表示:“我没想到它会进展到现在这种地步。我曾以为我们会在更遥远的未来到达这里。”
辛顿同时强调政府监管的必要性,指出AI发展速度“非常、非常快,远超过我的预期”。他警告说,仅依赖大型公司的利润动机并不足以确保AI的安全发展,“唯一能迫使这些大公司进行更多安全研究的是政府监管。”
辛顿是获得2018年图灵奖(Turing Award)的3位“AI教父”之一。然而,其中一位成员、Meta首席AI专家勒昆(Yann LeCun)则淡化了存在性威胁,并表示AI“实际上可以拯救人类免于灭绝”。
辛顿近日接受《BBC》采访,当被问到为何会上调这个几率,辛顿指人类从未应对过比我们更聪明的事物。
他补充道:“试想一下,你有见过较聪明物种,让较愚钝物种控制的情况吗?例子非常少。我唯一能够想到的例子就是,婴儿‘控制’母亲;人类成长的过程需要花费大量精力,因此婴儿才能够控制母亲。”
辛顿还指出,与强大的AI系统相比,人类就像幼儿。他说:“我喜欢这样想:想像一下你和一个三岁的小孩。我们将会是那个三岁的小孩。”
辛顿去年辞掉在谷歌(Google)的工作,以更畅快地谈论AI发展不受控制所构成的风险。他指出,“坏人”可能会利用这项技术对他人造成伤害。并补充,许多专家认为在未来20年内,可能会开发出比人类更聪明的AI系统,而这是非常可怕的想法。
回顾AI发展的迅速进展,辛顿表示:“我没想到它会进展到现在这种地步。我曾以为我们会在更遥远的未来到达这里。”
辛顿同时强调政府监管的必要性,指出AI发展速度“非常、非常快,远超过我的预期”。他警告说,仅依赖大型公司的利润动机并不足以确保AI的安全发展,“唯一能迫使这些大公司进行更多安全研究的是政府监管。”
辛顿是获得2018年图灵奖(Turing Award)的3位“AI教父”之一。然而,其中一位成员、Meta首席AI专家勒昆(Yann LeCun)则淡化了存在性威胁,并表示AI“实际上可以拯救人类免于灭绝”。
Advertisements
相关新闻