“人工智能的翻译可能存在一个误会,它更适合叫‘人造智能’,对应的是‘神造智能’。‘人造智能’模拟了神造智能过程中的规律;如今我们也可以从人造智能身上重新学回‘神’的智慧。”6月8日上午,每日互动方毅在2025全球人工智能技术大会(GAITC)智能传媒专题活动上,分享了对人工智能的最新思考和行业实践。那么到底何为人工智能?人类可以从“人工智能”身上学到什么?未来人类最重要的能力又是什么?请大家带着这三个问题,跟我们一起寻找答案。
问题一:为何将AI的定义为“人造智能”?人类能从中反哺哪些智慧?
方毅:习惯上我们对Artificial Intelligence(人工智能)的翻译易让人误解为"人工+智能",但是可能更适合的翻译是"人造智能",它的对应词是"神造智能"——古代传说中,上帝或女娲制造了有智能的人类,而"人造智能"或者说AI,正是在模拟这种神造的智慧,总结神造过程中的规律。比如,古希腊神话里,火神跟工匠之神造了个机械守卫叫“塔洛斯”,用他来守护克里特岛。结果卡洛斯被女巫拔掉了脚上的栓,“神的血液”流光之后就废了。这个“血液”就相当于现在人工智能中的“数据”。这也提醒我们,AI时代,数据是一个智能体的重要命脉,一旦流失或者泄露,将带来毁灭性的风险。
那么人工智能还可以“反哺”给人类哪些“神造”智慧呢?我认为最重要的是“专注力”(All About Attention)。大模型运算没必要每次把671b都启动起来,那样非常费力,只启动一小部分跟“我”相关的参数即可。所以大模型用MoE架构,平均每次只激活3.2个专家模块解决问题。就像我们开会时,先找最懂行的3个人讨论,再快速汇总结论,效率远高于全员耗在细节里。我们如果通过三种棋类游戏来看人工智能的发展给我们的一些启发可能会更加形象。
第一点是人机对弈代表的专注于“把规则吃透”。就像大一时我写的五子棋的游戏程序,规则很简单:三个子连一起,两头没堵你就得堵;记住规则就能干。现实中大家去考证也是一样,精研各行业的规则,拿出“证”来,把规则范围内的事搞清楚。
第二点是“深蓝”代表的“凡事比别人多想两步”,也就是养成深度思考的惯性。“深蓝”和人类都能够背国际象棋的棋谱,但是为什么人类打败不了“深蓝”呢?因为它会比人多算两步。凡事比别人多想想在现实中是非常难得的。就像一个好的助理,他的价值就在于能不能预见你下一个问题,并准备好方案——就像深蓝,多算两步就赢了。
第三点是AlphaGo代表的“笨鸟先飞”。AlphaGo背了人类的围棋棋谱才四段水平,但通过自我对弈100万盘,四个月登顶,这就是“强化学习”。同样还有强化学习“上瘾”的DeepSeek——因为它炒股,如果投资失败会亏钱,所以它强化学习上瘾。所以我们学AI,要学“笨鸟先飞”:每一步都在进步,这就是我们古话说的,“日拱一卒,功不唐捐。”
问题二:如果说数据是人工智能的重要命脉,那么如何看待大模型时代的数据安全问题?
方毅:最近我碰到最多的一个话题是“不要回避数据的危险性和不确定性”。不要动辄说今天不谈隐私,不谈商业秘密,这不谈那不谈就相当于房地产开发不碰坡地、不碰平地、不碰林地。数据天然有它的不确定性,可复制性,“覆数难收”。所以我们把数据比喻成核燃料,一定直面它的危险性,当把核燃料转化成热能,再转化成电能的时候,经过两道转化,那就成了可公开使用的数据智能。
比如我们联合生态公司研发的“数智绿波”产品,就是把互联网数据与公共交通数据在可信数据空间中进行联合计算,通过可控大模型计算出道路路口流量信息,最后成功实现对红绿灯的智能调控。
问题三:那么人工智能或者说人造智能给人们的生活带来了哪些改变?
方毅:比如在交通安全领域。我们通过“高速视觉AI检测”,快速精准定位高速道路风险,让预警跑在报警前。高速上抛洒物是噩梦。传统视频检测费时费力,我们遵循“all about attention”,“动中找静”——透明化常规动态部分,圈出静止异常部分,强化监控目标,让交警大屏信息一目了然,提高预警效率。
在医疗健康领域,我们推出“脑卒中早筛模型”,用人工智能来识别高风险人群,以达到“上医治未病”。中风患者每年的及时送医率仅5%。传统脑卒中筛查方案参数少,精度低;我们用全因子医疗数据特征+机器学习模型算法来训练大模型,将这个早筛模型的预测精度提高到0.91,也就是通过5%的样本群体就可以预测明年50%的潜在风险人群。
再比如在反诈宣传上,传统宣传如反诈标语“凡裸聊刷单即诈骗”,导致公众误以为只要我不关注这些那么诈骗就与己无关。但是真正智能靶向的反诈宣传,需要对群体有更精准洞察,毕竟现实中“总有一款诈骗适合你”。所以我们提出了基于12维数据分析生成的网络诈骗易感风险(蚱蜢分),方便有关部门向不同人群推送定制化的反诈案例——例如向商务人士发送如何识别“伪造高管邮件”骗局。
问题四:未来大模型时代人最重要的能力壁垒是什么?最需要什么能力?
方毅:未来大模型时代当中很重要的是你自己的个人知识库。人们需要有辨别大模型谬误并通过指令训练来纠正大模型幻觉的能力。一定是基于个人知识库来使用大模型。所以我认为模型越来越开源,数据永远会有相当部分是闭源的数据。未来不管对于企业还是个人,用闭源小数据加上开源大模型是非常重要的路径。
当然对于个人来说,我认为未来最重要的能力是“提问和定义问题”!AI越强,人越要学习它怎么思考。比如电商搜索,我找个语音设备,搜两周没结果。为什么呢?意图识别太差!得用大模型重构搜索,让用户专注“值得看的东西”。
驾驭AI的关键是别让它当“枪手”,而要当“助手”。就像会计师从算盘到计算器再到excel,写作也该“动嘴不动手”。比如我们推出的“公文写作助手”可以帮助大家更好地完成公文写作,基于我们被授权的2,000万权威语料,我们有关工作人员可以通过语音交互来指导大模型完成一篇内容的写作。
几年前我曾参加一次与法国学者的交流,大家最终达成的共识是“未来人类将分化为两类:2%的深度思考者(定义问题、驾驭AI),与98%的幸福生活者。”而我们要做的,就是让技术成为托举普罗大众的方舟,而非割裂世界的鸿沟。