深度学习模型未能实现真正的AGI,SingularityNET (AGIX) 报告称

realtime news  Jun 20, 2024 18:23  UTC 10:23

1 Min Read

根据SingularityNET (AGIX) 最近的一项分析,尽管取得了重大进展,当前的深度学习模型在实现人工通用智能(AGI)的能力方面仍然存在根本性的限制。尽管这些模型通过生成连贯的文本、逼真的图像和准确的预测,已经彻底改变了人工智能(AI),但它们在实现AGI所需的几个关键领域仍然存在不足。

深度学习在实现AGI方面的局限性

无法有效泛化

深度学习的一个主要批评是其无法有效泛化。这种限制在遇到训练数据中未覆盖的情景时尤其明显。例如,自动驾驶汽车行业已经在深度学习上投资了超过1000亿美元,但仍然看到这些模型在新奇的情景中挣扎。2022年6月,一辆Cruise Robotaxi遇到一个陌生的情景时发生了碰撞,突显了这一局限性。

狭窄的焦点和数据依赖性

大多数深度学习模型设计用于执行特定任务,在狭窄的领域内表现出色,因为它们可以在相关的大型数据集中进行训练,例如图像识别或语言翻译。相比之下,AGI需要理解、学习和应用跨越广泛任务和领域的知识,类似于人类智能。此外,这些模型需要大量数据来有效学习,并在标注数据稀缺或必须从有限示例中泛化的任务中挣扎。

模式识别而非理解

深度学习模型擅长在大量数据集中识别模式,并基于这些模式生成输出。然而,它们并不具备真正的理解或推理能力。例如,尽管像GPT-4这样的模型可以生成关于量子力学的文章,但它们并不能理解其背后的原理。这种模式识别与真正理解之间的差距是实现AGI的一个重大障碍,AGI需要模型能够像人类一样理解和推理内容。

缺乏自主性和静态学习

人类智能的特点是能够设定目标、制定计划并采取主动。目前的AI模型缺乏这些能力,在其编程的范围内运行。与不断学习和适应的人类不同,AI模型一旦训练完毕,一般是静态的。这种缺乏持续的自主学习是实现AGI的一个主要障碍。

“如果”困境

人类通过实时感知世界,依赖现有表示并根据需要修改它们以进行有效决策。相比之下,深度学习模型必须为现实世界的发生情况创建详尽的规则,这既不切实际也效率低下。实现AGI需要从预测性演绎转向增强诱导性的“如果”能力。

虽然深度学习在AI领域取得了显著进展,但它在AGI所需的要求方面仍然存在不足。理解、推理、持续学习和自主性方面的局限性,突显了AI研究中引入新范式的必要性。探索混合神经-符号系统、大规模脑模拟和人工化学模拟等替代方法,可能使我们更接近实现真正的AGI。

关于SingularityNET

SingularityNET由Dr. Ben Goertzel创立,旨在创建一个去中心化、民主、包容和有益的人工通用智能(AGI)。SingularityNET团队包括资深工程师、科学家、研究人员、企业家和市场营销人员,拥有专门的团队致力于金融、机器人、生物医学AI、媒体、艺术和娱乐等各个应用领域。

欲了解更多信息,请访问 SingularityNET



Read More