前 OpenAI 安全研究员 Steven Adler 示警:整个行业正在进行极其危险的赌博

xxn 阅读:86921 2025-01-31 22:01:03 评论:0

IT之家在1月31日报道,依据英国《卫报》1月28日的报道,前OpenAI安全研究员Steven Adler对人工智能的快速进展表现出“强烈的恐惧”,并警示整个行业正进行一项“极其危险的冒险”。

Steven Adler对科技巨头们争先恐后地研发人工通用智能(AGI)表示忧虑,AGI指的是能够在所有智力任务上与人类相媲美甚至超越人类的技术

在去年11月离开OpenAI后,Adler在X平台上分享了一系列文章,回顾他在前任公司的“非凡经历”,并对其中许多部分心怀怀念。然而,他同时强调,迅速发展的技术让他对人类的未来充满了深深的担忧

他说:“我对AI的进展感到非常不安。当我考虑未来在哪里定居、为退休积蓄多少时,我不禁思忖:我们人类能否活到那一天?”

据IT之家了解,诺贝尔奖获得者及“AI教父”杰弗里·辛顿担忧强大的AI系统可能会失控,从而引发灾难性后果;而Meta的首席AI科学家杨立昆则认为,AI“可能在某种程度上帮助人类避免灭绝”,对其生存威胁进行了淡化。

谈及AGI的研发——OpenAI的一个核心目标,Adler表示:“AGI的竞争是一场充满风险的赌博,潜在的后果极为严重。”他还提及,目前没有任何实验室能够有效应对AI对齐问题,即如何确保AI系统遵循人类的价值观,而且行业的快速推进可能使我们错过寻找解决方案的时机。

Adler警告道,AI行业似乎正处于一种非常不理想的状态,他呼吁必须实施真正的安全监管。“我们越是加快脚步,找到解决方案就越加困难。”

他补充道:“即便某些实验室希望负责任地推进AGI开发,其他实验室仍可能通过降低投入来追赶进度,这可能导致灾难性的后果。”

广告声明:文中包含的对外链接(包括但不限于超链接、二维码、口令等形式)旨在传递更多信息,以节省时间,结果仅供参考。

声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

搜索
排行榜
关注我们

扫一扫关注我们,了解最新精彩内容