来自OpenAI和多所大学的研究人员联合发布了一份104页的PDF文档,旨在鼓励通过监管硬件本身来进行人工智能计算的监管。这份文档特别探讨了在人工智能被用于恶意目的时,如何通过终止开关等潜在应用来加以控制。原始的PDF文件由剑桥大学在线发布。https://www.cser.ac.uk/media/uploads/files/Computing-Power-and-the-Governance-of-AI.pdf
该PDF文档的标题为“计算机能力和人工智能治理”,其中深入探讨了如何利用PC计算能力(特别是GPU能力)来处理人工智能工作负载。文档指出,由于AI PC硬件的供应链高度集中于少数供应商,因此对硬件实施法规监管应该相对容易。
在“计算治理的风险和可能的缓解措施”部分中,研究人员首先详细介绍了人工智能的一些潜在风险,然后才推荐潜在的解决方案。以下是该部分的一些要点总结:
对个人隐私的威胁:随着人工智能硬件的监控和报告功能增加,私人事务可能会被“云提供商要求的客户使用情况报告”泄露或暗示。
泄露敏感战略和商业信息的机会:与政策制定者分享足够的信息(包括通常由保密协议隐藏的事项)确实会比其他情况更有可能泄露敏感信息。因此,任何政策都必须在考虑到信息安全的情况下仔细确定范围和实施细节。
负面经济影响:人工智能对劳动力市场的稳定产生破坏是其更广为人知、也更有争议的方面之一。正如该论文所指出的那样,过去的研究表明,数字经济在美国GDP中所占比例逐年上升。
来自中心化和权力集中的风险:人工智能计算监管背后也存在很大的政治影响力。随着政府对人工智能相关计算的控制加强,包括企业在内的强大参与者可能会试图利用国家权力来达到自己的目的。
具有危险功能的低计算专业模型:虽然当前的法规开始限制高端人工智能计算(如RTX 4090)出口到特定市场,但这些限制对于防范可以在其中工作的恶意行为者帮助有限。甚至某些功能(如蛋白质折叠,可用于制造病原体)也可以通过低计算模型来完成。因此,“对此类低计算模型的监管将需要其他政策方法。”
就这些问题的潜在解决方案而言,文档提出了多种不同的方法以及随之而来的担忧。其中一种解决方案是建立人工智能芯片的全球注册制度并为每个芯片分配唯一标识符,这可能有助于限制走私和非法使用。
此外,文档中还讨论了一种名为“终止开关”的潜在解决方案,该开关可用于远程停用用于恶意目的的人工智能硬件。然而,这种解决方案也存在自身的风险,例如网络犯罪分子可能会控制该终止开关并利用它来禁用合法用户。此外,它还假设人工智能硬件将可供外部实体访问,但在实际情况中这可能并不总是成立。
随着人工智能技术和政策的不断发展,我们将看到这一新兴领域的权力最终将如何巩固。考虑到替代方案的危险性,包括OpenAI研究人员在内的不少人工智能专家似乎都希望更多的权力最终能够掌握在监管机构手中。