本文编译自GARP风险智库Disruptive Technologies主题博客“Risk Management and Generative AI: A Matter of Urgency”一文。作者为Jim Wetekamp, 他是 Riskonnect 公司的首席执行官,该公司是综合风险管理软件的领先供应商。他是公认的企业风险、供应链和第三方风险管理专家。
只有 9% 的公司认为他们已经为管理生成式人工智能风险做好了充分准备。
各机构仍在摸索需要哪些生成式人工智能的保障措施。事实上,只有 17% 的机构已经正式对整个公司进行了关于生成式人工智能风险的培训或介绍。但是,尽快掌控人工智能治理和风险管理符合机构的最佳利益。
目前在工作中使用人工智能的员工之中,有一半以上是在未经雇主批准的情况下使用的。员工渴望这些工具带来的效率。在许多情况下,员工在雇主弄清楚政策之前就开始在工作中使用这些工具,这会给机构带来风险。另有 32% 的员工预计很快会将生成式人工智能纳入他们的工作流程,这表明无论公司如何监督,员工都会继续采用这些工具。
现在是时候制定一些规则,以确保您的机构能够将这种新兴技术看作价值和效率的驱动力,而不是将其视为风险的源泉。
机构可以采取几项措施,让员工可在应用生成式人工智能的同时保护机构免受潜在威胁。
65%的公司表示,数据隐私和网络安全问题是生成式人工智能工具的首要问题。这些工具通常会收集 IP 地址和浏览活动等敏感信息,从而导致个人身份被识别。如果数据处理不当或被列入数据泄露事件,就会造成巨大损失。
深度伪造技术的兴起引发了更多担忧,因为它可以在未经本人同意的情况下创造出逼真的图像和声音。
人工智能工具还使犯罪分子能够创建更复杂的网络钓鱼电子邮件和恶意软件,并加速网络攻击。定期评估您的网络安全战略,确保其与人工智能的发展同步,并优先考虑强大的数据隐私措施,如数据匿名化和加密。
即使没有足够的信息或内容来提供准确的答案,一些生成式人工智能工具也会对提示做出回复。在这种情况下,人工智能算法会编造出一个答案,但仍会以肯定的口吻作出回应,这意味着你不能对所看到的内容信以为真。
如果使用工具的用户没有牢记这一点并主动检查回复的有效性,他们最终可能会根据不准确的信息做出决策,而 60% 的公司表示这是生成式人工智能的首要问题。这可能会导致声誉问题和其他后果。
人工智能算法的开发者可以设定有多少答案是编造的,或者是否有答案是编造的。了解机构正在使用的工具是如何开发的,并决定机构愿意接受的误差范围。通常最好将误差范围设置为零,这样模型就不会编造答案。没有信息总比误导性信息要好。
此外,优先考虑引用信息来源的生成式人工智能工具,这样用户就能轻松验证所提供信息的准确性和可靠性。确保您的人工智能政策设定了这样的预期:用户在传递信息或根据信息做出决策之前,一定要对人工智能生成的任何回复进行事实核查。
人工智能模型可能存在固有的偏见,或者对其服务对象的群体不够包容。这些算法利用历史数据为决策提供依据,并生成答案和内容。这可能会带来问题,因为在1970 年、1990 年、2010 年或 2018 年可以接受的事物与今天可以接受的事物是不同的。例如,如果人工智能模型使用几十年前的历史数据来做出当代决策,比如谁有资格获得贷款,那么它可能会无意中反映出不公平的做法。
彻底评估您正在使用的人工智能模型。了解模型的编程方式和校准机制。主动质疑和理解底层的训练数据集。确保数据是最新的,并且反映了当今的社会标准。
重要的是,要持续监控生成式人工智能的输出,并确保从伦理和道德的角度来看,应对措施仍然具有相关性,并且符合机构的政策和文化。
34%的公司对生成式人工智能相关的版权和知识产权(IP)风险表示关注。这些模型可能是在受法律保护的资料基础上进行训练,并生成类似于现有作品的内容,如果用户不给予适当的授权,就会导致潜在的版权、商标或专利侵权问题。法院正在探讨如何将知识产权法应用于人工智能生成的内容,但仍需要一段时间来解决这个问题。
保护您的知识产权。对员工进行培训,让他们对输入人工智能工具的信息进行批判性思考。了解哪些员工和合作伙伴可以访问您的知识产权和敏感信息,并制定明确的指导方针,规定哪些资料和数据不得输入人工智能模型。
确保员工也注意如何将人工智能生成的内容用于商业用途,以避免侵犯版权。及时了解并告知员工有关使用人工智能生成内容的任何法律动态。
生成式人工智能的出现带来了新的挑战和机遇。生成式人工智能所带来的效率使员工能够专注于创造高价值的工作。
预计这项技术每年将为全球经济增加 4.4 万亿美元的价值。要获得这些好处,公司需要更有效地掌握人工智能的风险,并有效地管理其使用方式。现在就开始保护和升级您的业务。
以上内容来源于GARP,如有侵权请联系删除。
了解详情11800/2年