Meta 首席科学家杨立昆:实现 AGI 最乐观需至少五到六年
根据IT之家在12月30日的报道,Meta的首席科学家、图灵奖获奖者杨立昆(IT之家注:Yann LeCun,法国科学家)在29日的“Into the Impossible”播客中分享了他对通用人工智能(AGI)的见解。
他提到,目前对人工智能的负面影响的担忧被过度强调,而AI的能力依然非常有限。“在最佳情况下,AGI的实现至少需要5到6年。”他指出,社会对AI的诸多担忧,甚至一些关于AI“可能引发末日”的观点,忽略了AI实际的发展现状和其潜在的积极作用。
杨立昆提到,AI在理解与操控物理世界方面的能力仍然十分不足,因为其主要依赖于文本数据进行训练,缺乏对物理世界的直观理解能力,无法像人类或动物那样与环境自然而然地互动。“例如,一个10岁的孩子或一只猫都能利用‘直观物理(intuitive physics)’来理解如何与物理世界进行交互,比如规划跳跃路径或识别物体的运动,而当前的AI系统却还没有这些能力。”
如今,行业内对人工智能和AGI的看法各有不同,以下是一些相关观点:
微软AI首席执行官穆斯塔法·苏莱曼:目前的硬件条件无法实现AGI,但在未来的两到五代硬件中可能会有实现的机会,但我认为在两年内成功的可能性不高。根据硬件的开发周期,每代硬件通常需要18到24个月,因此实现五代可能需要十年。目前业内对AGI的关注有些偏离实际:“与其沉迷于奇点或超级智能,倒不如专注于开发实际对人类有帮助的AI系统。这些AI应当是为了服务于用户,成为团队的一部分,而非追求遥不可及的理论目标。”
OpenAI CEO阿尔特曼:到2025年,我们可能首次看到具备“通用人工智能”(AGI)能力的系统。这类系统能够如人类一样完成复杂任务,甚至运用多种工具来解决问题。“或许在2025年,我们会看到一些AGI系统,令大家惊叹:‘哇!真是超乎我想象。’”
2024年诺贝尔物理学奖得主、“AI教父”辛顿:“我逐渐认识到AI是一种超越人类的高级智能。因此,我们必须认真思考这样一个问题:如AI具有超越人类的智慧,甚至可能控制人类,这对社会意味着什么。这不是科幻,而是现实中的风险。”他在本月底于BBC的一档节目中表示,AI在未来三十年内导致人类灭绝的概率为10%到20%,并警告技术发展的速度“远超预期”。
广告声明:文中包含的外部链接(包括但不限于超链接、二维码、口令等形式),旨在提供更多信息,节省选择时间,结果仅供参考。
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。