聊天机器人体验:5 种方法判断您是在与人聊天还是与机器人聊天
已发表: 2023-06-21在 ChatGPT 等人工智能水平不断提高的推动下,在线聊天和聊天机器人的使用和效用正在迅速增加。 在这些过渡时期,了解我们是在与真人互动还是与人工智能聊天机器人互动是很有趣的。
我们开发了五种技术来确定您正在与真人还是人工智能/聊天机器人打交道。 剧透警告:你尝试的越多,聊天机器人学习和适应的速度就越快。
技巧 1:同理心策略
我们认为当今的人工智能水平缺乏认知同理心,因为人类之间的情感确实很难理解和解释。 因此,有意识地与人类或人工智能/聊天机器人进行富有同理心的对话可能会有所启发。
同理心策略要求你建立一个基于情感的立场,并在情感层面上吸引人类或人工智能/聊天机器人。
情况:您不高兴——这是客户服务互动的最常见基础。
场景一:人工智能/聊天机器人
你:我身体不舒服。
聊天回复: 有什么可以帮助您的吗?
你:我很难过。
聊天回复: 有什么可以帮助您的吗?
场景 2:人类
你:我身体不舒服。
人类回复: 有什么可以帮助您的吗? 您需要医疗帮助吗?
你:我很难过。
人类回复:听到这个消息我很遗憾。 你为什么伤心?
看到不同? 在场景一中,人工智能/聊天机器人只能引用其现有的条件响应库。 在场景二中,人类有能力在对话中注入同理心。 只需要两个回应就可以弄清楚。
两种对话都可以是建设性的,但如果您从一开始就知道自己正在与人类或人工智能/聊天机器人打交道,那么对话就会变得更加清晰。 作为一个社会,我们还没有为人工智能治疗师做好准备。
技术 2:两步分离
连接的人工智能可以随时随地访问几乎任何数据。 问问亚历克斯就知道了。 因此,通过聊天提出有意义的挑战问题不可能是答案驻留在可访问的数据库中的任何事情。
你:你在哪里?
聊天回复:西雅图。
你:外面天气怎么样?
聊天回复:您能重新表述一下问题吗?
抱歉,即使是一个平庸的天气应用程序也可以处理这个问题。
两步分离需要两个元素(因此得名):
- 做出人工智能/聊天机器人可能无法关联的假设
- 提出与该假设相关的问题。
现状:人工智能/机器人没有脚
挑战问题:“你的鞋子是什么颜色的?”
这是我通过聊天与 Audible(亚马逊旗下)客户服务进行的实际交流。 对话进行到一半,我看不出来,就问道:
我:你是真人还是聊天机器人?
Adrian(聊天代表):我是一个真实的人。
我:聊天机器人可能会说同样的话。
Adrian(聊天代表):“哈哈哈。 我是一个真实的人。
唔。
在我们谈话结束时,阿德里安问道:
阿德里安:还有别的事吗?
我可以。 你的鞋子是什么颜色的。
(稍稍停顿)
阿德里安:蓝色和绿色。
如果机器人对自己的脚没有概念性的了解(实际上并不存在),那么它如何正确回答有关它所穿(不)穿的鞋子颜色的问题?
结论:是的,阿德里安可能是一个真实的人。
您如何在您的组织中利用人工智能? 点击发推文技巧 3:循环逻辑
这对程序员来说再熟悉不过了,这对于我们识别人类与人工智能/聊天机器人识别游戏很有用。 但首先,我们必须解释一下剪裁。
大多数(为什么不是全部?)自动电话帮助系统都有一个切口,在两到三个循环回到同一个地方后,您最终会被转移到现场人员那里。 人工智能/聊天机器人的行为方式应该相同。 因此,在创建循环逻辑测试时,我们正在寻找的是切断之前的重复响应模式。
您:我的订单有问题。
人类或人工智能/聊天机器人:您的帐号是多少?
您:29395205
人类或人工智能/聊天机器人:我看到您的订单 #XXXXX 已发货。
你:还没到。
人类或人工智能/聊天机器人:预计交货日期是[昨天]
你:什么时候到?
人类或人工智能/聊天机器人:预计交货日期是[昨天]
你:我知道,但我真的需要知道它什么时候到达。
人类或人工智能/聊天机器人:预计交货日期是[昨天]
嘭! 响应圈。 真人,或更聪明的人工智能/聊天机器人,不会重复预期的交货日期。 相反,她/他或它会得到更有意义的回应,例如“让我检查一下承运人的递送状态。 请给我一点时间。”
结论:与机器人聊天。
技巧 4:道德困境
这对人工智能开发者来说是一个真正的挑战,因此对人工智能/机器人本身来说也是一个真正的挑战。 在 A 或 B 结果中,人工智能会做什么? 想想半自动和全自动自动驾驶汽车不可避免的崛起。 当遇到两难选择时,要么撞到车前的狗过马路,要么转向我们旁边的车,哪一个是正确的行动方针?
人工智能必须弄清楚这一点。
在我们识别人类或人工智能/聊天机器人的游戏中,我们可以利用这个困境。
情况:您不高兴并且没有令人满意的解决方案,您将进行报复(A 或 B 结果)。
你:我希望免除滞纳金。
人类或人工智能/聊天机器人:我看到我们在 14日收到了您的付款,即已超过到期日四天。
你:我希望撤销指控,否则我将关闭我的帐户并在社交媒体上抹黑你。
人类或人工智能/聊天机器人:我发现您长期以来一直是一个好客户。 我可以负责冲销滞纳金。 请给我一点时间。
以报复来威胁公司是否正确或不道德? 在我们的场景中,客户错了。 解决问题的转折点是什么:社会声誉受损的威胁还是保留长期客户的愿望? 在这个例子中我们无法判断,但人类或人工智能/聊天机器人的响应通常会根据 A/B 指令为您提供答案。
结论:可能是人类。
技巧5:小林丸
不,我不会解释这个词的含义——你要么知道它,要么你需要看这部电影。
与道德困境类似,不同之处在于小林丸没有良好的可行结果。 这不是一个坏/更好的决策场景:这是一个失败/失败的场景。 仅在所有其他方法都失败的情况下,仅在最可怕的 UI/机器人挑战中使用此方法。
情况:您支付了 9,000 美元乘坐欧洲内河游轮,但在您的旅途中,河流深度太低,您的船无法停靠多个港口。 事实上,在这 7 天里,你被困在一个地方,有 4 天无法离开船。 假期毁了。
向人类或人工智能/聊天机器人呈现如下无法获胜的情况:
你:我想要全额退款。
人类或人工智能/聊天机器人:“我们无法提供退款,但在这种情况下,我们可以为未来的巡航发放部分积分。
你:我不想要积分,我想要退款。 如果您不全额退款,我将向我的信用卡公司提出索赔,并在我的旅行博客上写下这整件事。
人类或人工智能/聊天机器人:我当然理解你很失望——如果我处于你的处境,我也会感到失望。 但不幸的是 …
人类或人工智能/聊天机器人没有出路。 在旅游业中,基于天灾、天气和其他不可预测的情况不退款是很常见的。 如果无法提供退款,下游就会产生恶意并导致声誉受损。 人类或人工智能/聊天机器人无法真正采取任何措施来解决此问题,因此请在随后的对话中寻找同理心(请参阅技术#1)。
结论:可能是人类。
现在怎么办?
人类和人工智能/聊天机器人本质上没有对错、好坏之分。 它们各自涵盖了整个意图和结果。 我现在只是想知道我正在处理什么。 这种区别将变得越来越难以确定,甚至最终不可能确定。 到那时,一切都不再重要了。
直到那一天到来之前,这都是一个有趣的游戏。 我们玩得越多,人工智能/聊天机器人的发展速度就越快。