逾百名专家联合呼吁优先研究 AI 意识,确保人工智能不会“受虐”
IT之家在2月6日的报道指出,依据《卫报》2月3日的消息,一封由斯蒂芬·弗莱等多位人工智能领域专家和思想家联合署名的公开信发出警告,若AI技术未得到负责任的开发,可能导致具备感情或自我意识的AI系统面临被伤害的危险。
超过一百位专家提出了五项原则,旨在为AI意识的研究提供指导,随着科技的快速进步,越来越多的人对某些AI系统可能被视为具备感知能力表示关注。
这些原则包含:
将AI意识的研究放在首位,确保不导致“虐待和痛苦”;
对具备意识的AI系统的开发施加约束;
循序渐进地推进AI系统的研发;
积极公开共享研究成果;
避免作出误导性或过于自信的声明,尤其是关于创造具有意识的AI的说法。
这封公开信的签署者包括来自伦敦大学的安东尼·芬克尔斯坦等学者,以及诸如亚马逊和WPP等公司的AI专家。
信件的发布伴随一篇研究论文,文中指出,具备意识的AI系统有可能在不久的将来被研发出来,或至少展现出具备意识的特征。
研究人员指出:“未来或将出现大量具备意识的系统,而这些系统可能会遭受痛苦。”如果强大的AI能够自我复制,可能会诞生“需要道德考量的新生命体”。
该研究论文由牛津大学的帕特里克·巴特林与雅典经济与商业大学的西奥多罗斯·拉帕斯联合撰写,强调即使企业并未专门研发具备意识的AI系统也需制定相关指南,以应对“无意中创造出有意识实体”的风险。
论文承认,关于AI能否具备意识,学界尚存广泛的不确定性,但坚持认为这是一个“不容忽视的问题”。
此外,论文还提出,如果AI系统被定义为“道德病人”——即在道德上“独立存在且应当受到关注的实体”,那么摧毁这一系统是否等同于动物的杀戮,值得深思。
这篇论文已发表在《人工智能研究》期刊上。此外还提醒,错误认定AI系统已具备意识,可能会导致政治资源的浪费,促使不切实际的福祉推广工作展开。
据IT之家消息,去年有些资深学者预测,到2035年,部分AI系统具备意识且具有“道德意义”的可能性是现实的。
在2023年,谷歌AI项目负责人德米斯·哈萨比斯曾表示,目前的AI系统“绝对没有”感知能力,但未来很有可能获得这一能力。
在接受美国CBS采访时,他提到:“尽管哲学界尚未就意识达成共识,但如果我们所指的是自我意识之类的特质,我认为未来AI是有可能具备的。”
广告声明:文中包含的外部链接(包括但不限于超链接、二维码、口令等形式),旨在提供更多信息,节省信息筛选时间,结果仅供参考。
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。