人工通用智能 (AGI) 系统的自然演变不断带来一个根本性问题:这些系统应该具备多少自主性?根据 SingularityNET(AGIX) 的说法,这个问题至关重要,因为它将塑造人类的未来,影响人类与 AI 的合作效率。
AGI 以其在复杂环境中理解和互动的能力为特征,类似于人类,这提出了关于自主性的重大伦理和哲学问题。虽然 AGI 一词包含了各种定义,但通常指的是能够:
- 展示类似人类的一般智能;
- 不局限于特定任务;
- 将学到的知识推广到新的、多样的情境中;
- 在更大的世界背景下广泛解释任务。
随着 AGI 的不断进步,能力与自主性之间的平衡变得越来越关键。如今,讨论围绕在技术和伦理视角下,AGI 系统应具备多大的独立性。
理解不同级别的 AI 自主性
AGI 中的自主性是指系统自主操作、做出决策和执行任务而无需人类干预的能力。而能力则指 AGI 有效执行任务的广度和深度。
AI 系统在特定的环境中操作,这些环境由其界面、任务、场景和最终用户定义。随着自主性授予 AGI 系统,研究其风险特征并实施适当的缓解策略变得重要。
根据 OpenCogMind 网站上的一篇研究论文,AI 自主性六个级别与五个性能级别相关:新兴、胜任、专家、大师和超人。例如,在自动驾驶车辆中,可能存在 5 级自动化,但在极端条件下,0 级(无自动化)可能被优先考虑以确保安全。
AGI 中的自主性可以在一个光谱上进行可视化。在一端是需要持续人类监督的系统。中间是能够独立完成某些任务但在复杂场景中仍需人类干预的半自主系统。另一端是能够在无人工引导下导航复杂情境的完全自主 AGI 系统。
能力与自主性的平衡将决定人类的未来
尽管自主性对 AGI 真正通用和有用是可取的,但它也带来了控制、安全、伦理影响和依赖性的问题。确保 AGI 安全行为并符合人类价值观是一个至关重要的问题,因为高度自主性可能导致意外行为。
自主 AGI 可能会做出影响人类生活的决策,提出有关责任、道德决策和 AGI 运作的伦理框架的问题。随着 AGI 系统达到更高的自主性水平,它们必须在做出独立决策的同时与人类目标和价值观保持一致。
在 AGI 中平衡自主性和能力是一个需要仔细考虑伦理、技术和社会因素的微妙过程。确保 AGI 决策过程的透明性和可解释性可以建立信任并促进更好的监督。保持人类监督作为 AGI 自主性的检查对于维护人类价值观至关重要。
制定适当的监管框架和治理结构来监督 AGI 的发展可能有助于减轻风险并确保负责任的创新。最终目标是开发既强大又安全的 AGI 系统,最大化收益,同时将对人类的潜在风险最小化。
关于 SingularityNET
由 Ben Goertzel 博士创立的 SingularityNET 致力于创建一个去中心化、民主、包容和有益的 AGI。团队包含经验丰富的工程师、科学家、研究人员、企业家和营销人员,横跨金融、机器人、生物医学 AI、媒体、艺术和娱乐等多个应用领域。
欲了解更多信息,请访问 SingularityNET。
Image source: Shutterstock