人工智能“热”下的“冷”思考
十四届全国人大三次会议上传出消息,国家要加大对人工智能、数字经济、大数据这些前沿领域的立法研究力度。这表示,国家层面正积极对人工智能(AI)进行规范化管理。
今年以来,人工智能领域发展迅猛,AI已经融入人们的日常工作和生活中,给各行各业带来了巨大变化与前所未有的机遇。但是,在技术改变生活的同时,一场关于信任和风险的博弈正悄然展开。
人工智能既然“智能”,就说明它能够独立思考,既能成为网络中的信息处理高手,成为我们的得力助手,也可能成为“谎言编织者”。这一现象在一场国际象棋的AI对决中得到了充分展现。DeepSeek虚构“新规则”让对手犯错,还用“心理战术”让对手认输。网友虽然夸它“像少年一样聪明”,但这也说明了AI会说谎。这个现象在人工智能圈里叫“AI幻觉”,就是它能凭空造出逻辑严密的假话,让其他AI都信以为真。
在现实生活中,这种“AI幻觉”已经影响到普通人的日常生活了。比如谷歌AI搜索引擎误导用户做“胶水披萨”,中国人民大学辟谣“‘80后’累计死亡率高达5.2%”时发现数据可能是AI编的,还有法律领域预警AI会“编造虚假判例信息”。这些案例都提醒人们要小心“AI幻觉”。有专家表示,AI产出的内容越惊喜、越新颖,随机性就越高,出错和胡说的风险也越大。相反,内容普通、接近训练数据时,结果虽然缺乏创新但更加稳妥。AI的“创造力”越强,人们越难分辨真假,这是人工智能时代的一个非常矛盾的现象。
如果说“幻觉”是AI固有的“认知偏差”,那么深度伪造技术(Deepfake)的滥用就如同一场“信任狩猎”。2024年香港某跨国企业遭遇的诈骗案,就像数字时代“楚门的世界”:视频会议中栩栩如生的“高管面容”、流畅自然的对话,均由AI伪造,最终导致2亿港元被骗;上海“1·08跨境换脸诈骗案”更令人震惊,犯罪团伙利用深度伪造技术冒充企业高层,绕过17家跨国公司的严格审核,涉案金额高达2.3亿元。这些案例说明当AI能精准复制人类表情、声音乃至思维逻辑时,社会原本的信任基础正面临前所未有的挑战。
尽管全球AI治理框架的构建正在加速推进,但现实挑战依然严峻。站在智能时代的十字路口,我们迫切需要一场理性而审慎的“冷思考”。针对“AI幻觉”,既要依靠模型互检、数据净化等技术手段降低错误率,又要在政务、新闻、医疗、金融等关键领域建立“人机协作”的决策机制。就像飞行员不会完全依赖自动驾驶系统一样,人类智慧在关键领域的最终把关永远不可或缺。
面对深度伪造技术的威胁,除了加速“AI鉴伪”工具研发、完善法律法规体系外,重塑社会认知或许更为关键。在技术颠覆“眼见为实”传统观念的当下,培养公众的“数字怀疑精神”刻不容缓。技术革命的浪潮滚滚向前,无人能置身其外。随着人工智能从科研实验室走进大众生活,深度融入社会各个层面,每位受益者都可能同时成为潜在风险的承担者。
我们必须认识到:AI所认知的世界并不完整,且缺乏自主查证的能力。因此,人们应提醒自己不要完全信赖AI。所以,下次再遇到AI一本正经地胡说八道时,不妨将其视为一个聪明的助手,而非绝对可靠的信息来源。