AI开发危及“对社会和人类构成潜在风险” Elon Musk 等千人公开信引起的法律思考

 3月29日,美国亿万富翁埃隆·马斯克和人工智能领域顶尖专家、图灵奖得主约书亚·本吉奥(YoshuaBengio)等人联名签署了一封公开信,呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。

这封发布在非营利性组织“未来生命研究所”(Futureof Life Institute)网站上的公开信主张,在开发强大的AI系统之前,应先确认其带来影响是积极的、风险是可控的。

信中详述了具有人类水平智能的AI系统可能对社会和人类带来极大的风险,称“这一点已经得到大量研究和顶级AI实验室的认同”,并连续抛出四个疑问:

 我们是否应该让机器用宣传和谎言淹没我们的信息渠道?

 我们是否应该让所有的工作自动化,包括那些令人满意的工作?

 我们是否应该发展最终可能在数量上超过我们、在智能上超越我们、能够淘汰并取代我们的非人类思维?

 我们应该冒着失去对我们文明控制的风险吗?

 公开信指出,如果不能迅速实施此类暂停,政府应当介入并采取措施。此外,“AI实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级AI设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督”。

信中还呼吁开发人员和政策制定者合作,大幅加快强大的AI治理系统的开发。这其中至少应当涉及监管机构、审计和认证系统、监督和追踪高性能AI系统、人工智能造成伤害后的责任问题、为AI技术安全研究提供公共资金等方面。

 公开信在最后提到,如今,我们的社会已经暂停其他可能造成灾难性影响的技术,对于人工智能也应该如此,“让我们享受一个漫长的‘AI之夏’,而不是毫无准备地进入秋天”。

这封公开信引发了广泛的讨论,特别是从法律角度上看,这封公开信涉及了一些重要的法律问题。

本协会主席、美国知名律师事务所艾利德创始人冉燕飞律师就这一热点问题提出自己的看法,冉律师指出,开发强大的AI系统是否构成潜在的风险?这是一个值得关注的问题。随着人工智能技术的不断发展,一些人担心,这种技术可能会失控,给人类社会带来灾难性后果。例如,一些人担心,AI系统可能会自我复制并超越人类控制,或者可能会被黑客攻击并被用于恶意目的。因此,需要采取适当的法律措施来规范AI系统的开发和使用,以确保人类社会的安全和稳定。

冉律师还指出,是否需要立即采取行动来暂停开发强大的AI系统?这也是一个有争议的问题。一方面,如果AI系统能够得到适当的监管和控制,可能会带来许多好处,例如自动化生产、提高医疗水平、增强安全等。另一方面,如果AI系统失控,可能会带来严重的后果,例如破坏人类社会、影响人类健康和生命安全等。因此,需要权衡这两个因素,制定适当的法律政策来确保AI系统的安全和稳定。

冉律师认为,如何制定适当的法律政策来规范AI系统的开发和使用?这是一个复杂的问题。需要制定适当的法律框架来确保AI系统的安全和稳定,包括监管机构、审计和认证系统、监督和追踪高性能AI系统、人工智能造成伤害后的责任问题、为AI技术安全研究提供公共资金等方面。此外,还需要加强对AI系统的研究和监管,促进人工智能技术的合理、可持续和安全的发展。