Google:AGI 2030年可有人类智商,但有机会“永久毁灭人类”
更新于:2025-04-11 01:15:42

Google旗下DeepMind实验室发布长达145页人工智能安全报告,预测通用人工智能(AGI)2030年可达人类智能水准,并警告潜在风险可能对人类构成“永久毁灭”威胁。

此议题非单一公司能独力解决,需全社会集思广益,并提出风险防控建议。研究人员将AGI风险归纳为四大类,滥用、错位、失误及结构性风险,特别重视预防措施与尽早识别危险能力。

AGI风险分类与防控策略

报告将AGI潜在风险分为四类:滥用风险指人类蓄意利用AI做出危害行为;错位风险涉及系统产生非预期的恶性行为;失误风险源于设计或训练瑕疵引发的意外故障;结构性风险则因不同主体间利益冲突而起。DeepMind推出一套以预防滥用为核心的缓解策略,强调提前识别危险能力的重要性,并建议创建国际合作框架监管AGI发展。DeepMind首席执行官Demis Hassabis之前也曾表示,AGI可能十年内问世,呼吁设立类似联合国的机构加以监督。

业界竞争与专家质疑

DeepMind间接批评竞争对手Anthropic和OpenAI的安全策略,Anthropic训练及监督欠佳,OpenAI过度专注AI对齐。Fortune报道,部分专家异议,认为AGI定义尚未清晰,2030年时间表难以科学验证。Future of Life Institute联合创办人Anthony Aguirre指出,超智能AI或引发前所未有社会动荡,人类掌控力仍不足,不少意见认为,科技进步应在创新与安全间寻求平衡,以免失控酿祸。

未来发展预测

这份报告既揭示AGI的潜力与隐忧,也唤起业界对安全标准的深思。Google投资超过1,000亿美元研发AI,数年内或有更多政策与技术突破。预料国际间将深化合作,制定监管框架,确保AGI发展造福人类而非威胁。

(首图来源:AI)

测AI智商意义何在?
测AI智商意义何在?
2025-04-04 02:39:36