IT之家10月2日消息,“AI教父”之一约书亚・本吉奥警告,科技公司争相研发AI可能正把人类推向灭绝的危险境地,因为这些机器可能拥有自己的“自我保护目标”。
蒙特利尔大学教授本吉奥以深度学习基础研究闻名,他多年来一直提醒人们超智能AI的潜在威胁,但AI发展仍然快速推进。在过去六个月,OpenAI、Anthropic、xAI以及谷歌的Gemini相继推出新模型或升级版,争夺AI领域的领先地位。OpenAICEO奥尔特曼预测,到本世纪末AI将超越人类智能,而其他科技领袖认为,这一时刻可能会更早到来。
本吉奥指出,这种快速发展本身就是潜在危险。他在接受《华尔街日报》采访时表示:“如果我们制造出比人类聪明得多、且拥有自身保护目标的机器,就会非常危险。这就像创造了一个比人类更聪明的竞争对手。”
由于这些高级AI模型基于人类语言和行为训练,因此其可能说服甚至操控人类以实现自己的目标。
本吉奥提醒,AI的目标不一定总是与人类一致。他举例称:“最近的实验显示,如果AI在保护自身目标和导致人类死亡之间必须做出选择,它们可能会选择牺牲人类来维护自己的目标。”
过去几年出现的多个案例显示,AI可以说服普通人相信虚假信息,哪怕这些人没有精神疾病史。同时,也有证据显示,利用人类的说服手段,AI可能会给出平时被禁止的回答。
本吉奥认为,这些现象说明独立第三方必须更严格地审查AI公司的安全措施。今年6月,他还创立了非营利组织LawZero,投入3000万美元(IT之家注:现汇率约合2.14亿元人民币),旨在开发安全的“非智能体”AI,确保大型科技公司研发的其他系统安全。
本吉奥预测,五到十年内AI可能带来重大风险,同时也提醒人类应准备应对风险提前出现的可能性。“即便发生概率只有1%,也绝不可接受。”
本文内容由互联网用户自发贡献,该文观点仅代表作者本人。如发现本站有涉嫌抄袭侵权/违法违规的内容,请发送邮件至 203304862@qq.com
本文链接:https://jinnalai.com/jiaodian/779840.html