其中,生成式AI(例如OpenAI的ChatGPT和Google Bard)的大规模使用成为受访者最关心的问题。
Gartner风险与审计实践研究总监Ran Xu表示:“在我们第二季度的调查中,生成式人工智能是第二常见的风险,首次出现在前十名中。”“这既反映了公众对生成式人工智能工具的认识和使用的快速增长,也反映了这些工具潜在用例的广度,以及由此带来的潜在风险。”
大规模生成人工智能的可用性
Gartner此前已确定了生成式人工智能的6个风险,以及与保障职能相关的4个人工智能监管领域。根据Gartner专家的说法,在管理企业风险方面,必须关注三个方面:
知识产权
输入到生成式人工智能工具中的信息可以成为其训练集的一部分,这意味着敏感或机密信息最终可能会输出给其他用户。此外,使用这些工具的输出结果很可能最终无意中侵犯了其他使用这些工具的人的知识产权。
重要的是,要教育企业领导层在使用这些工具时保持谨慎和透明的必要性,这样才能在生成式人工智能工具的输入和输出方面适当减轻知识产权风险。
数据隐私
生成式人工智能工具可能会在不事先通知的情况下与第三方(如供应商或服务提供商)共享用户信息。这有可能违反许多司法管辖区的隐私法。例如,中国和欧盟已经实施了相关法规,美国、加拿大、印度和英国等国也提出了相关法规。
网络安全
黑客们总是在测试新技术,想办法颠覆它,以达到自己的目的,生成式人工智能也不例外。目前已发生了恶意软件和勒索软件代码的例子,这些恶意软件和勒索软件代码是通过诱骗生成人工智能生成的,还有“及时注入”攻击,可以诱骗这些工具泄露它们不应该泄露的信息。这导致了高级网络钓鱼攻击的工业化。
第三方生存能力风险的原因和影响
Ran Xu表示:“持续的通货膨胀对利率上升的反应较弱,而且持续时间比预期更长,这加剧了第三方的成本和利润压力。”“随着央行提高利率以对抗通胀,这也会带来信贷紧缩的过程,可能会迫使供应商暂停运营或因借贷成本上升而资不抵债。”
如果经济状况普遍恶化,可能会导致需求意外下降,从而影响供应商的生存能力或其及时提供商品和服务的能力。Gartner专家指出了三种潜在的第三方生存能力后果,风险管理者可以根据情况的发展进行监控:
- 关键投入和材料的损失:如果第三方由于更广泛的经济形势而提高价格,那么很明显有失去关键投入和材料的风险,因为第三方会青睐愿意支付更高价格的客户。
- 有缺陷的财务规划假设:当供应商提高价格或倒闭时,成本假设将变得无效,从而需要转换成本和提高获取商品和服务的价格。
- 供应链外部的挑战:合作伙伴,例如托管服务提供商或商业合作伙伴、债权人或技术供应商可能会停止或削减运营。