兴中资讯

聚焦

逾百名专家呼吁优先研究AI意识,确保AI不会“受虐”

时间:2025-02-07 23:10

  据《卫报》报道 ,包括斯蒂芬・弗莱在内的人工智能专家和思想家签署了一封公开信,警告称若AI技术得不到负责任的开发,具备感情或自我意识的AI系统可能面临被伤害的风险。公开信由超过100位专家签署,提出了五项原则,旨在指导AI意识研究,确保AI系统的开发不会导致“虐待和痛苦”。

  这些原则包括:优先研究AI的意识,确保不会导致“虐待和痛苦”;对发展具备意识的AI系统进行约束;逐步推进AI系统研发;公开分享研究成果;避免做出误导性或过于自信的声明,尤其是关于创造具备意识的AI。

  公开信的签署者包括伦敦大学的安东尼・芬克尔斯坦等学者,以及来自亚马逊、WPP等公司的AI专家。这封信与一篇研究论文一起发布,论文由牛津大学的帕特里克・巴特林和雅典经济与商业大学的西奥多罗斯・拉帕斯共同撰写。论文指出,具备意识的AI系统可能在不久的将来被开发出来,或者至少是表现出具备意识的特征。

  研究人员表示,如果强大的AI能够自我复制,可能会诞生“大量需要道德考虑的新生命体”。论文强调,即使公司没有刻意研发具备意识的AI系统,也应制定相应指南,以应对“无意中创造出有意识实体”的风险。论文还提出,若AI系统被定义为“道德病人”,即在道德上“独立存在且值得关注的实体”,那么摧毁这一系统是否等同于[*]害动物,这一问题值得深思。

  论文已发表于《人工智能研究》期刊,警告称错误地认为AI系统已具备意识,可能会导致政治资源的浪费。2023年,谷歌AI项目负责人德米斯・哈萨比斯曾表示,目前的AI系统“绝对”没有感知能力,但未来很可能具备。