Google旗下DeepMind实验室发布长达145页人工智能安全报告,预测通用人工智能(AGI)2030年可达人类智能水准,并警告潜在风险可能对人类构成“永久毁灭”威胁。
此议题非单一公司能独力解决,需全社会集思广益,并提出风险防控建议。研究人员将AGI风险归纳为四大类,滥用、错位、失误及结构性风险,特别重视预防措施与尽早识别危险能力。
AGI风险分类与防控策略报告将AGI潜在风险分为四类:滥用风险指人类蓄意利用AI做出危害行为;错位风险涉及系统产生非预期的恶性行为;失误风险源于设计或训练瑕疵引发的意外故障;结构性风险则因不同主体间利益冲突而起。DeepMind推出一套以预防滥用为核心的缓解策略,强调提前识别危险能力的重要性,并建议创建国际合作框架监管AGI发展。DeepMind首席执行官Demis Hassabis之前也曾表示,AGI可能十年内问世,呼吁设立类似联合国的机构加以监督。
业界竞争与专家质疑DeepMind间接批评竞争对手Anthropic和OpenAI的安全策略,Anthropic训练及监督欠佳,OpenAI过度专注AI对齐。Fortune报道,部分专家异议,认为AGI定义尚未清晰,2030年时间表难以科学验证。Future of Life Institute联合创办人Anthony Aguirre指出,超智能AI或引发前所未有社会动荡,人类掌控力仍不足,不少意见认为,科技进步应在创新与安全间寻求平衡,以免失控酿祸。
未来发展预测这份报告既揭示AGI的潜力与隐忧,也唤起业界对安全标准的深思。Google投资超过1,000亿美元研发AI,数年内或有更多政策与技术突破。预料国际间将深化合作,制定监管框架,确保AGI发展造福人类而非威胁。
(首图来源:AI)