Google旗下DeepMind实验室于2025年4月发布一份长达145页人工智能安全报告,预测通用人工智能(AGI)或于2030年达到人类智能水平,并警告其潜在风险可能对人类构成“永久毁灭”的威胁。报告指出,此议题非单一公司所能独力解决,需全社会集思广益,并提出风险防控建议。研究人员将AGI风险归纳为四大类别,包括滥用、错位、失误及结构性风险,特别重视预防措施与尽早识别危险能力。
报告将AGI潜在风险分为四类:滥用风险指人类蓄意利用AI作出危害行为;错位风险涉及系统产生非预期的恶性行为;失误风险源于设计或训练瑕疵引发的意外故障;结构性风险则因不同主体间利益冲突而起。DeepMind推出一套以预防滥用为核心的缓解策略,强调提前识别危险能力的重要性,并建议创建国际合作框架监管AGI发展。DeepMind首席执行官Demis Hassabis此前也曾表示,AGI可能于未来5至10年内问世,呼吁设立类似联合国的机构加以监督。
报告中,DeepMind对竞争对手Anthropic和OpenAI的安全策略提出间接批评,指Anthropic在训练及监督方面力度欠佳,而OpenAI则过度专注于对齐研究。据Fortune报道,部分专家对此看法异议,认为AGI定义尚未清晰,2030年时间表难以科学验证。Future of Life Institute联合创始人Anthony Aguirre指出,超智能AI或引发前所未有的社会动荡,目前人类对其掌控能力仍显不足,不少意见认为,科技进步应在创新与安全间寻求平衡,以免失控酿祸。
这份报告既揭示AGI的潜力与隐忧,也唤起业界对安全标准的深思。随着Google投入超过1000亿美元于AI研发,未来数年或迎来更多政策与技术突破。预料国际间将深化合作,制定监管框架,确保AGI发展造福人类而非带来威胁。有兴趣阅读全民的朋友可以点击连接。
数据源:Google DeepMind、Fortune、NDTV