A experiência do chatbot: 5 maneiras de saber se você está conversando com um humano ou um robô

Publicados: 2023-06-21

A experiência do chatbot 5 maneiras de saber se você está conversando com um humano ou robô

O uso e a utilidade do bate-papo online e dos chatbots, impulsionados pela melhoria dos níveis de IA como o ChatGPT, estão aumentando rapidamente. Durante esses tempos de transição, é interessante saber se estamos interagindo com um ser humano real ou com um chatbot de IA.

Desenvolvemos cinco técnicas para determinar se você está lidando com uma pessoa real ou um AI/chatbot. Alerta de spoiler: quanto mais você experimentar, mais rápido os chatbots aprenderão e se adaptarão.

Técnica 1: Estratagema de Empatia

Acreditamos que o nível atual de IA carece de empatia cognitiva porque as emoções entre humanos são realmente difíceis de entender e explicar. Portanto, criar intencionalmente um diálogo empático com seu ser humano ou IA/chatbot pode ser revelador.

O Empathy Ploy exige que você estabeleça uma posição baseada na emoção e apele para o ser humano ou AI/chatbot em um nível emocional.

A situação: você não está satisfeito — a base mais comum para uma interação de atendimento ao cliente.

Cenário 1: AI/chatbot

Você: Não estou me sentindo bem.

Resposta do chat: Como posso ajudá-lo?

Você: Estou triste.

Resposta do chat: Como posso ajudá-lo?

Cenário 2: um ser humano

Você: Não estou me sentindo bem.

Resposta humana: Como posso ajudá-lo? Você precisa de ajuda médica?

Você: Estou triste.

Resposta humana: Lamento ouvir isso. Por que você esta triste?

Veja a diferença? No cenário um, o AI/chatbot pode fazer referência apenas à sua biblioteca de resposta condicional existente. No cenário dois, um ser humano tem a capacidade de injetar empatia no diálogo. Isso levou apenas duas respostas para descobrir.

Qualquer um dos diálogos pode ser construtivo, mas fica mais claro se você souber que está lidando com um ser humano ou um AI/chatbot desde o início. Como sociedade, não estamos prontos para terapeutas de IA.

Técnica 2: Disassociação em Duas Etapas

Uma IA conectada pode acessar praticamente qualquer dado, a qualquer hora e em qualquer lugar. Basta perguntar a Alexa. Portanto, fazer uma pergunta de desafio significativa no bate-papo não pode ser algo cuja resposta resida em um banco de dados acessível.

Você: Onde você está localizado?

Resposta do chat: Seattle.

Você: Como está o tempo lá fora?

Resposta do bate-papo: você pode reformular a pergunta?

Desculpe, até mesmo um aplicativo meteorológico medíocre pode lidar com isso.

A desassociação em duas etapas requer dois elementos (daí o nome):

  1. Faça uma suposição com a qual o AI/chatbot provavelmente não se relaciona
  2. Faça uma pergunta relacionada a essa suposição.

A situação: IA/bots não têm pés

Pergunta de desafio: “Qual é a cor dos seus sapatos?”

Esta é uma troca real que tive com o atendimento ao cliente da Audible (propriedade da Amazon) via chat. No meio da troca de diálogo, como não consegui discernir, perguntei:

Eu: Você é uma pessoa real ou um chatbot?

Adrian (o representante do chat): Eu sou uma pessoa real.

Eu: Um chatbot pode dizer a mesma coisa.

Adrian (o representante do chat): “HAHAHA. Eu sou uma pessoa real.

Hum.

No final da nossa conversa, Adrian perguntou:

Adrian: Houve mais alguma coisa?

Eu sim. De que cor são seus sapatos.

(pequena pausa)
Adrian: Azul e verde.

Se o bot não tem conhecimento conceitual de seus próprios pés (que não existem), como ele pode responder corretamente a uma pergunta sobre a cor dos sapatos que (não) está usando?

Conclusão : Sim, Adrian é provavelmente uma pessoa real.

Como você utiliza a IA em sua organização? Clique para tweetar

Técnica 3: Lógica Circular

Muito familiar para os programadores, isso pode ser útil para nós em nossa identificação do jogo de identificação humano vs. IA/chatbot. Mas primeiro, temos que explicar orecorte.

A maioria (por que não todos?) Os sistemas automatizados de ajuda por telefone têm um corte no qual, após dois ou três loops de volta ao mesmo local, você é eventualmente desviado para uma pessoa viva. AI/chatbots devem se comportar da mesma maneira. Portanto, ao criar um teste de lógica circular, o que procuramos é o padrão repetitivo de respostas antes do corte.

Você: Estou com um problema com meu pedido.

Humano ou AI/chatbot: Qual é o número da sua conta?

Você: 29395205

Humano ou IA/chatbot: Vejo que seu pedido #XXXXX foi enviado.

Você: Não chegou.

Humano ou AI/chatbot: A data de entrega prevista é [ontem]

Você: Quando vai chegar?

Humano ou AI/chatbot: A data de entrega prevista é [ontem]

Você: Eu sei, mas preciso muito saber quando vai chegar.

Humano ou AI/chatbot: A data de entrega prevista é [ontem]

Bam! Círculo de resposta. Uma pessoa real, ou um AI/chatbot mais inteligente, não teria repetido a data de entrega esperada. Em vez disso, ele ou ela teria uma resposta mais significativa, como: “Deixe-me verificar o status da entrega da transportadora. Dê-me apenas um momento.

Conclusão : conversando com um robô.

Técnica 4: Dilema Ético

Este é um verdadeiro desafio para os desenvolvedores de IA e, portanto, para os próprios IA/bots. Em um resultado A ou B, o que a IA faz? Pense na ascensão inevitável de carros autônomos semi e totalmente autônomos. Quando enfrentamos o dilema de acertar o cachorro que está passando na frente do carro ou desviar para o carro ao lado, qual é o curso de ação correto?

A IA tem que descobrir.

Em nosso jogo de identificação de seres humanos ou IA/chatbot, podemos explorar esse dilema.

A Situação: Vocênãoestá feliz e na ausência de uma resolução satisfatória, você irá retaliar (um resultado A ou B).

Você: Eu gostaria que a taxa de atraso fosse dispensada.

Humano ou AI/chatbot: Vejo que recebemos seu pagamento no dia 14, quatro dias após a data de vencimento.

Você: Quero que as acusações sejam revertidas ou fecharei minha conta e difamarei você nas redes sociais.

Humano ou AI/chatbot: vejo que você é um bom cliente há muito tempo. Eu posso cuidar de reverter essa taxa atrasada. Dê-me apenas um momento.

É correto ouéticoameaçar uma empresa com retaliação? Em nosso cenário, o cliente estava errado. E qual foi o ponto de inflexão para a resolução: a ameaça de danos à reputação social ou o desejo de reter um cliente antigo? Não podemos dizer neste exemplo, mas a resposta humana ou AI/chatbot geralmente lhe dará a resposta com base em um mandato A/B.

Conclusão : provavelmente um humano.

Técnica 5: Kobayashi Maru

Não, não vou explicar o que significa esse termo – ou você conhece ou precisa assistir ao filme.

Semelhante ao dilema ético, a diferença é que o Kobayashi Marunão tem um bom resultado viável.Não é um cenário de decisão ruim/melhor: é um cenário de falha/falha. Use isso apenas nos desafios mais difíceis de interface do usuário/bot quando tudo mais falhar.

A situação: você pagou $ 9.000 por um cruzeiro fluvial europeu, mas durante sua viagem, a profundidade do rio era muito baixa para que seu navio fizesse vários portos de escala. Na verdade, você ficou preso em um ponto por quatro dos sete dias sem poder sair do navio. Férias arruinadas.

Apresente ao humano ou AI/chatbot uma situação invencível como esta:

Você: Eu quero um reembolso total.

Humano ou IA/chatbot: “Não podemos oferecer reembolso, mas, dadas as circunstâncias, podemos emitir um crédito parcial para um cruzeiro futuro.

Você: Não quero crédito, quero reembolso. Se você não emitir um reembolso total, registrarei uma reclamação contra as cobranças junto à administradora do meu cartão de crédito e escreverei sobre toda essa confusão em meu blog de viagens.

Humano ou AI/chatbot: Eu certamente entendo que você está desapontado – e eu também ficaria se estivesse no seu lugar. Mas infelizmente …

O humano ou AI/chatbot não tem saída. É comum no setor de viagens não emitir reembolsos com base em atos de força maior, clima e outras circunstâncias imprevisíveis. E sem a capacidade de fornecer um reembolso, haverá má vontade e danos à reputação. O humano ou AI/chatbot realmente não pode fazer nada para resolver isso, então procure empatia (veja a técnica #1) na caixa de diálogo que se segue.

Conclusão : provavelmente um humano.

E agora?

Humanos e AI/chatbots não são inerentemente certos ou errados, bons ou maus. Cada um deles cobre todo o espectro de intenções e resultados. Só gostaria de saber, por enquanto, com quem estou lidando. Essa distinção se tornará cada vez mais difícil e eventualmente impossível de determinar. E nesse ponto, isso nem vai importar.

Até esse dia chegar, é um jogo divertido de jogar. E quanto mais jogamos, mais rápido os AI/chatbots evoluem.

IA em Marketing 5 coisas que todo líder deve fazer

Você também pode estar interessado em ler: IA em Marketing | 5 coisas que todo líder deve fazer