1. 主页 > 社会焦点

赵泽良:防AI“胡说八道”之后 我们该防AI“胡作非为”了?

各位好。今天我想围绕人工智能带来的安全挑战与人才培养问题,分享几点思考。

一、从“胡说八道”到“胡作非为”:AI安全的新挑战

以前讲大模型的安全,我们担心什么?担心“胡说八道”——它生成的内容不可信。到了今天,我们还要担心什么?还要担心“胡作非为”——它可能主动做出不当行为。

以前关注人工智能,我们担心的是“认知污染”——有问题的内容影响人的认知。今天我们要担心的是“行为失控”——开车用导航地图,担心它瞎指路;明天开智驾系统,担心它瞎开车。这些都给我们带来了现实的网络安全挑战。

二、技术迭代加速:从“大而全”到“小而精”

最近几天,人工智能领域大事多、新鲜事多。3月17日,英伟达GTC大会在硅谷召开;3月19日,华为合作伙伴大会在深圳召开。人工智能,特别是大模型,正在从追求超大参数、超规模算力,向“塑身型”、高效率应用落地转变。

我想列举几个值得关注的动态:

第一,OpenClaw。它是一个重要标志,让我们的人工智能、大模型从“能说”走向“会做”,为AI的应用落地提供了一个非常好的起点。

第二,MiniMax M2.7。最近推出的这个模型,让人工智能可以在受控条件下完成局部的自我进化。

第三,BitNet Distillation框架。微软最近推出的这个框架,将模型表示宽度压缩至1.58比特。这意味着大模型在“塑身”、在更加小型化这个方向上,迈出了关键一步。

第四,GPT-5.4。OpenAI最近推出的新版本,不再是单一功能的提升,也不再是我们习惯的一问一答,而是将问答、编码、任务应用接入一体,是一个综合性的跃升。

从技术维度还可以列举很多,但我想强调的不只是技术,还有治理。3月20日,白宫发布了美国人工智能国家政策框架,从六个方面对人工智能提出了监管要求。技术发展、功能增强,安全就更加重要了。

三、安全治理:从“事中事后”走向“事前定义”

我认为,我们的网络安全、人才培养都需要重构,都需要创新。

就安全而言,传统的网络安全,我们更多关注有没有黑客攻击。今天,我们要更多关注我们自己的系统、我们自己计算器里的智能体——因为你已经把智能体请到系统里了,你已经把“小龙虾”(OpenClaw)安到笔记本里、手机里了。

我们以前做安全,更多是分析、检测。今天我们更要关注:对AI、对智能体,怎么明确它的权限边界?我的系统里的智能体,它能看到什么?能调用什么?能做到什么程度?这些都要有明确的权限边界和责任要求。

我们以前的安全,更多是事中、事后处理。今天的安全,一定要事前定义、事前明确边界、事中规范——不是出了问题再弥补。

四、人才培养:打破“链条式”学习,走向“网状型”学习

人才培养也是如此。AI冲击最大的是教育,冲击最大的是人才培养方式。

我们要以人工智能的方式来学习、来教学。我们可能需要讨论:现在的学习,是不是还一定是从理论到实践、从基础到应用,把学习当成一个链条?人工智能时代的学习,会不会是网状型的?会不会是跳跃式的?

我们能不能从实践再深入到理论?从现实问题去了解背后的理论基础?让学习过程和现实问题的解决更加紧密地融合,这样可以更好地激发学习兴趣,也更好让人才把知识和市场结合起来。

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。如发现本站有涉嫌抄袭侵权/违法违规的内容,请发送邮件至 203304862@qq.com

本文链接:https://jinnalai.com/jiaodian/817810.html

联系我们

在线咨询:点击这里给我发消息

微信号:

工作日:9:30-18:30,节假日休息