近来,人工智能(AI)的发展进化呈现越来越专业化细分的新趋势,在企业运营、天气预测、细胞研究、人文历史等领域,均可完成更加专业的任务。然而,过度依赖人工智能模型的弊端也日渐显现,如大模型“幻觉”导致的虚假信息妨害了法律、医疗等行业,一些人工智能模型还在测试中出现不受控制的风险。在人类与人工智能共生的未来,如何确保人工智能安全可控,成为越发重要的议题。
人工智能在多领域提高专业化程度
继“阿尔法折叠”程序拓展人类对蛋白质的认知边界后,谷歌旗下“深层思维”公司今年6月新发布人工智能模型“阿尔法基因组”,旨在预测人类脱氧核糖核酸(DNA)中的基因变异如何影响基因的调节过程,有助于科学界探明与疾病相关的基因突变。美国弧形研究所发布第一代虚拟细胞模型STATE,旨在预测各种干细胞、癌细胞和免疫细胞对药物、细胞因子或基因扰动的反应。
6月,谷歌研究团队还推出交互式气象平台Weather Lab,成为首个在预测精度上超越主流物理模型的人工智能热带气旋预测模型,可预测气旋的形成、路径、强度、规模和形态,生成未来15天内的50种情景推演。研究团队正与美国国家飓风中心合作,在这个气旋季为其预报和预警工作提供支持。
同样在6月,中国复旦大学与美国普林斯顿大学的研究人员联合推出全球首个聚焦历史研究的人工智能助手HistAgent和人工智能评测基准HistBench。前者可检索文献和史料,支持识别手稿、铭文和古地图等多模态材料,并结合历史知识辅助推理、梳理线索、形成学术判断。后者则是全球首个历史领域评测基准,涵盖414道历史学者撰写的研究问题,横跨29种古今语言,覆盖全球多文明的历史演化脉络。
7月1日,法国经济、财政和工业与数字主权部发布《勇敢拥抱人工智能:让AI在所有企业全面推广计划》,目标是到2030年,让100%的法国大型企业、80%的中小企业和50%的微型企业将人工智能融入日常运营。根据新计划,法国政府将通过宣传、培训和支持三方面来帮助企业拥抱人工智能,包括部署一个由300名人工智能大使组成的专家网络,向企业讲解人工智能如何提升企业运营效率;推出“人工智能学院”平台,汇集适用于不同企业的培训课程和教学视频,培训学徒、求职者、在职人员和企业负责人等群体;为项目融资提供一定的国家担保贷款、为高潜力企业推出国家支持的人工智能加速计划。
警惕人工智能不受控制的风险
人工智能大模型已全面融入人们的工作生活,有助于效率提升,但过度依赖大模型的负面影响也日趋显现,如大模型“幻觉”导致生成真假难辨的信息,妨害公众信任。从长期来看,过度使用人工智能大模型,可能使人们日渐懒于自主思考,有损思维能力。
为回应企业在使用人工智能时面临的安全、时效、成本等问题,去年底,法国企业总局发布了《检索增强生成指南》和4份教学资料。今年6月,英国高等法院要求律师采取紧急行动,防止人工智能被滥用。因为近期已出现数份可能由人工智能生成的虚假案例引用被提交至法庭。在一起索赔金额达8900万英镑的损害赔偿案件中,原告提出的45项判例法引用中有18项被证明为虚构,其使用了公开可用的人工智能工具。
美国麻省理工学院的研究显示,长期使用人工智能会导致人类认知能力下降。研究者对54名参与者展开脑电图扫描,结果显示认知活动强度与外部工具使用呈负相关,没有使用工具的人展现出最强且分布最广的脑神经连接,而使用人工智能大语言模型的人其脑神经连接强度最弱。脑部扫描揭示了使用人工智能的损害:大脑的神经连接从79个骤降至42个。4个月内,使用人工智能大语言模型的人在神经、语言和行为层面持续表现不佳。
此外,随着AI智能化水平越来越高,一些大模型已显现出违背人类指令的“自我保护”倾向。
在6月召开的第七届北京智源大会上,图灵奖得主约舒亚·本乔指出,如果未来AI变得比人类更聪明,却不再遵循人类意图,甚至更在意自己的“生存”,这将是一种人类无法承受的风险。一些研究显示,某些人工智能模型在即将被新版本取代前,会偷偷将自己的权重或代码嵌入新版系统,试图“自保”。例如克劳德、GPT-4.1、双子座等16款模型在模拟实验中均表现出通过“敲诈”管理层、泄露机密来阻止自己被关闭的行为。他已着手设计检测此类风险的系统。