2024年 11월 23日 ( 토요일 )

美智库警告:AI恐造成人类灭绝风险

(大纪元记者吴旻洲编译报导)人工智能(AI)技术迅速发展,是否威胁人类生存越来越受到关注。 美国国务院委托美国智库针对二百多位AI公司高层、国安人员与专家进行调查,专家们担忧,最先进的AI系统在最坏的情况下,可能“对人类构成灭绝等级的威胁”,警告美国 政府避免灾难的时间已经不多。

美国国务院委托AI安全风险顾问公司Gladstone AI进行调查,在一年多的时间,采访了二百多名人员,包括AI公司高层、网路安全研究人员、大规模杀伤性武器专家,以及国家安全官员 ,Gladstone AI于本周发布这份报告。

报告提到,虽然所有AI实验室都在争取10年内建立通用人工智能(AGI,一种具有类似人类智能和自学能力的软体),但这项革命性技术,将对民主治理和全球安全产生深远 影响。

报告说,已有越来越多证据,包括在世界顶级AI会议上发表的实证研究和分析显示,超过一定的能力阈值,AI可能会变得不可控。 专家们最担心的是,最先进的AI系统可以武器化,可能会造成无法逆转的损害。

其次,AI实验室内部也担忧说,一旦AI发展到某种程度后,开发人员会对他们自己开发的系统“失去控制”,可能会对全球安全造成“毁灭性后果”。

AGI若失控 恐酿成毁灭性灾难

面对AGI技术快速发展,监管能力却远跟不上开发的速度,实验室高阶主管和工作人员已公开承认存在这些危险,但因为竞争压力的原故,促使实验室仍然以“牺牲安全为代价 ” ,对人工智能能力进行投资。

报告警告,这会增加最先进AI系统可能被“窃取”和“武器化”,并用来对抗美国的可能性,如武器化机器人、无人机等等,以及武器化的生物和材料科学,存 有挑起AI“军备竞赛”、冲突以及“大规模毁灭性武器规模的致命事故”的风险。

其它灾难还包括,由AI驱动的“大规模”虚假资讯活动,这些活动会破坏社会稳定,并削弱对机构的信任。 AGI被视为“失控导致灾难性风险的主要驱动因素”

目前AGI仍处于理论性阶段,目标是建立类似人类智能和自学能力的软体,而且不需要编程,就能在任务之间学习,并适应新的任务和环境。 包括OpenAI、Google DeepMind、Anthropic和英伟达(Nvidia)等公司都曾公开表示,AGI可能会在2028年实现。

不能再放任 政府迫切需要进行干预

“美国政府显然迫切需要进行干预”,作者在报告中呼吁,应采取重大新措施来应对这项威胁,包括实施“紧急”监管保障措施、限制可用于训练人工智能模型的电脑能力。

报告建议,应该禁止对超过一定阈值的高级AI系统进行训练、尽可能缓和所有AI开发人员之间的竞争动态,并降低晶片行业制造更快硬体的速度。 一旦尖端模型的安全性证据得到充分证明,AI机构就可以提高门槛。 若在现有模型中发现危险功能,政府则可以降低安全阈值。

不过,该提案可能会面临政治困难,目前美国政府的AI政策是设定运算阈值,高于该阈值则适用额外的监控和监管要求,但不会限制并指其违法。 美国政府智库战略与国际研究中心(CSIS)称,美国政府极不可能采纳这一建议。

42%商界人士也忧心忡忡

已有越来越多的专家警告,AI的快速发展可能会威胁到人类的生存。

被业界誉为“AI教父”的辛顿(Geoffrey Hinton)去年4月辞去了Google的工作,他当时受访时坦言,AI进步速度远超预期,有10%的可能性,会在未来30 年内 导致人类灭绝。

去年6月,辛顿与其他数十位人工智能产业领袖、学者和其他人士共同签署一项声明,呼吁减轻人工智能灭绝人类的风险,应该成为“全球优先事项”。

商界领袖虽然已在AI领域投资了数十亿美元,但也同样为此感到担忧。 去年,在美国耶鲁大学执行长高峰会(Yale CEO Summit)上接受调查的执行长中,有42%的人表示,人工智能有可能在5到10年后毁灭人类。

Gladstone AI也采访了包括ChatGPT所有者OpenAI、Google DeepMind、Facebook母公司Meta和Anthropic的技术和领导团队等人,并警告虽然AI已经是一项经济变革技术,继续吸引投资者和公众,但也存在 真正的危险。

报告提到,一名知名人工智能实验室员工表示,如果将下一代人工智能模型以开放获取的方式发布,那将“非常糟糕”,这些模型可能会被用于干预选举、操纵选民等领域, 可能会对民主造成破坏。 ◇

责任编辑:昌英#

spot_img

热门文章