一位律师在客户体验中负责任地使用人工智能的看法
已发表: 2023-07-05全世界都惊讶地看着生成式人工智能改变了我们使用软件平台的方式。
在客户体验(CX) 方面,我们已经从过去的机器人、断开连接、令人沮丧的聊天机器人中走了很长一段路。 人工智能助理现在可以即时回答客户问题、描述产品信息并解决问题。
生成式人工智能自主创建内容和个性化交互的能力为提高客户参与度和满意度打开了一扇可能性之窗。
虽然这项技术对每个企业来说都是令人兴奋的,但它也可能在保护客户数据、保持遵守现有法规和保持道德方面带来挑战。 在部署人工智能技术的过程中,您必须权衡利弊。
在 Ada,我们围绕值得信赖的人工智能打造了我们的品牌,为客户的询问提供安全、准确和相关的解决方案。 下面我们将分享一些在保持合法合规的同时保持客户信心的方法。
您将在本文中学到什么:
- 人工智能如何帮助公司为客户提供最佳价值
- 在客户体验中使用人工智能的法律风险
- 如何在客户体验中负责任地使用人工智能
- 人工智能和您的客户的未来会是什么样子
利用人工智能提升客户体验
G2 的 2023 年买家行为报告数据显示,买家将人工智能视为其业务战略的基础,81% 的受访者表示,他们未来购买的软件具有人工智能功能非常重要或非常重要。 人工智能有望与商业密不可分。
在 Ada,我们相信客户服务中的生成式人工智能有潜力:
- 推动具有成本效益、高效的解决方案。 实施人工智能优先的客户体验。 您可以使用人工智能自动执行最常见的查询响应来节省资源,而您的客户专家可以专注于其他更复杂的任务。
- 提供现代客户体验。 借助智能人工智能解决方案,客户服务可以在世界各地随时以任何语言以准确、可靠的信息回答问题。
- 提升技术背后的人。 借助自动化客户服务工具,企业可以投资于客户服务代理的战略增长,并帮助幕后人员取得成功。
虽然好处很多,但公司必须在探索生成式人工智能和维护客户信任之间找到平衡。
合法性和合规性
在您的公司建立生成式人工智能之前,您必须了解可能遇到的法律风险。 通过提前解决这些挑战,企业可以保护客户数据、遵守法律框架并建立客户信任。
“对于任何公司来说,最糟糕的情况就是失去客户的信任。”
塔拉·达塔尼
艾达法律总监
根据思科 2023 年数据隐私基准研究,94% 的受访者表示,他们的客户不会光顾不保护其数据的公司。 思科 2022 年消费者隐私调查显示,60% 的消费者关心组织如今如何应用人工智能,65% 的消费者已经对组织的人工智能实践失去了信任。
资料来源:思科 2022 年消费者隐私调查
所有这些都表明,在法律和合规性方面,注意有关客户数据隐私、安全和知识产权的问题非常重要。
在 Ada 面向客户服务领导者的人工智能和自动化工具包中,我们深入探讨了当您考虑使用哪个人工智能驱动的客户服务供应商时要询问的法律和安全问题。 我们还讨论了与为客户服务解决方案实施人工智能相关的输入和输出风险。
资料来源:艾达
保护客户数据和隐私
使用生成式人工智能来提供客户体验时,数据安全和隐私是首要考虑的问题。 随着人工智能算法处理大量数据,人们对数据泄露和隐私侵犯的担忧始终在幕后增加。
您和您的公司可以通过仔细评估您正在考虑加入的任何生成式人工智能供应商的隐私和安全实践来降低这种风险。 确保与您合作的供应商能够以与您的组织相同的级别保护数据。 仔细研究他们的隐私和数据安全政策,以确保您对他们的做法感到放心。
“只向那些理解并维护您公司围绕开发值得信赖的人工智能的核心价值观的供应商做出承诺。”
塔拉·达塔尼
艾达法律总监
客户对此类技术如何使用他们的数据也越来越感兴趣。 因此,在决定供应商时,请确保您知道他们如何处理为自己的目的提供的数据,例如训练他们的人工智能模型。
您的公司在这里拥有的优势是,当您与人工智能供应商签订合同时,您有机会协商这些条款并添加使用所提供数据的条件。 利用此阶段,因为这是添加有关数据使用方式的限制的最佳时机。
所有权和知识产权
生成式人工智能根据从你那里获得的信息自主创建内容,这就提出了一个问题:“谁真正拥有这些内容?”
知识产权 (IP)的所有权是一个令人着迷但又棘手的话题,需要不断讨论和发展,尤其是围绕版权法。
当您在 CX 中使用 AI 时,您必须为生成的工作建立明确的所有权准则。 在 Ada,它属于客户。 当我们开始与客户合作时,我们从一开始就同意 Ada 聊天机器人生成的任何可拥有的输出或提供给模型的输入都是他们的。 在与供应商的合同谈判阶段确定所有权有助于防止争议并使组织能够公平合作。
确保您的人工智能模型接受合法获得并获得适当许可的数据的训练可能需要寻求适当的许可协议、获得必要的权限或创建完全原创的内容。 企业应明确知识产权和版权法及其原则,例如合理使用和变革性使用,以加强合规性。
降低风险
随着围绕生成人工智能和相关主题的所有兴奋和炒作,它确实是目前令人兴奋的法律实践领域。 这些新发现的机遇令人瞩目,但我们也需要确定潜在风险和发展领域。
当然,与合适的供应商合作并遵守最新法规是您的生成式人工智能之旅的重要一步。 Ada 的许多人发现加入以行业为中心的讨论组是了解所有相关新闻的有效方法。
但是,您还能做些什么来确保透明度和安全性,同时减轻与使用该技术相关的一些风险呢?
成立人工智能治理委员会
从一开始,我们 Ada 就建立了一个人工智能治理委员会,以创建一个正式的内部流程来进行交叉协作和知识共享。 这是构建负责任的人工智能框架的关键。 我们委员会审查的主题包括监管合规性更新、知识产权问题和供应商风险管理,所有这些都在产品开发和人工智能技术部署的背景下进行
这不仅有助于评估和更新我们的内部政策,还可以更好地了解我们的员工和其他利益相关者如何以安全和负责任的方式使用该技术。
人工智能的监管环境正在与技术的步伐相匹配。 我们必须紧跟这些变化,并调整我们的工作方式,以继续引领该领域。
ChatGPT 为此类技术带来了更多关注。 您的人工智能治理委员会将负责了解法规或可能出现的任何其他风险:法律、合规性、安全或组织风险。 该委员会还将重点关注生成式人工智能如何应用于您的客户和您的业务。
识别值得信赖的人工智能
虽然您依靠大型语言模型 (LLM) 来生成内容,但请确保您的企业在此技术之上添加了配置和其他专有措施,以降低客户的风险。 例如,在 Ada,我们利用不同类型的过滤器来删除不安全或不可信的内容。
除此之外,您应该制定行业标准的安全程序,并避免将数据用于预定目的之外的任何用途。 在 Ada,我们在产品开发中融入的内容始终基于获取实现您的目的所需的最少量的数据和个人信息。
因此,无论您拥有什么产品,您的公司都必须确保其所有功能都考虑到这些因素。 提醒您的客户,他们的数据面临的这些潜在风险与使用生成式人工智能密切相关。 与在自己的产品设计中表现出同样致力于维护可解释性、透明度和隐私的组织合作。
这有助于您对客户更加透明。 它使他们能够更好地控制自己的个人信息,并就如何使用他们的数据做出明智的决定。
利用连续反馈循环
由于生成式人工智能技术变化如此之快,Ada 不断通过客户反馈评估潜在的陷阱。
我们的部门还注重跨职能,这一点至关重要。 产品、客户成功和销售团队齐心协力,了解客户的需求以及如何满足他们的需求。
我们的客户对我们来说是非常重要的信息来源! 他们对新功能提出了很好的问题,并提供了大量的产品反馈。 这确实挑战我们要领先于他们的担忧。
当然,作为法律部门,我们每天与我们的产品和安全团队合作,让他们了解可能的监管问题以及与客户的持续合同义务。
应用生成式人工智能是公司全体的努力。 Ada 的每个人都被鼓励并有权每天使用人工智能,并继续评估随之而来的可能性和风险。
人工智能和客户体验的未来
Ada 首席执行官 Mike Murchison在 2022 年 Ada Interact 大会上发表了关于人工智能未来的主题演讲,他预测每家公司最终都会成为人工智能公司。 从我们的角度来看,我们认为无论是从客户代理还是客户的角度来看,整体体验都将得到显着改善。
客户服务代理的工作将会得到改善。 这些角色的满意度将会更高,因为人工智能将接管一些更平凡和重复的客户服务任务,使客服人员能够专注于其角色的其他令人满意的方面。
成为早期采用者
生成式人工智能工具已经存在,并且将继续存在。 您现在需要开始深入研究如何使用它们。
“生成式人工智能是下一件大事。 帮助您的组织负责任地使用这项技术,而不是采取观望的方式。”
塔拉·达塔尼
艾达法律总监
您可以首先了解这些工具的用途以及它们的工作原理。 然后,您可以评估这些工作流程,以了解您的公司对什么感到满意,以及什么将使您的组织能够安全地实施生成式 AI 工具。
您需要与业务团队保持联系,了解这些工具如何尝试优化工作流程,以便您可以继续与他们合作。 随着技术的发展,继续提出问题并评估风险。
有一种方法可以让您负责并保持在新技术的前沿。 希望这篇文章可以帮助您找到那条线。
这篇文章是 G2 行业洞察系列的一部分。 所表达的观点和意见仅代表作者个人观点,并不一定反映 G2 或其工作人员的官方立场。