Logo E-Commerce Brasil

O que as gafes dos chatbots nos ensinam sobre as barreiras da IA no atendimento ao cliente

Por: Krishna Tammana

Diretor de Tecnologia da Gupshup

É o Diretor de Tecnologia da Gupshup. Um veterano em tecnologia do Vale do Silício, com mais de duas décadas de experiência e um vasto conhecimento em infraestrutura de TI (ambientes na nuvem e no local), arquitetura de dados, segurança e SaaS. Anteriormente, Krishna foi CTO da Talend, uma empresa líder em integração e gerenciamento de dados, onde liderou o gerenciamento de produtos, engenharia e operações em nuvem. Antes da Talend, ele liderou grandes equipes globais de engenharia em ambientes de hipercrescimento na Splunk, E*TRADE e Sybase. Krishna é formado em Ciência da Computação pela BITS, Pilani.

Os erros de chatbot podem variar de embaraçosos a custosos, como não poder contar aos usuários do WhatsApp o nome do atual presidente dos Estados Unidos ou até mesmo vender um carro por US$ 1. E, embora não tenhamos conhecimento de danos duradouros – para o cliente ou para a marca – decorrentes desse incidente, ele destaca uma questão importante e sensível sobre como definir e estabelecer barreiras de segurança para IA voltada ao atendimento ao cliente.

Imagine que você deseja acessar sua conta bancária, mas a simples menção do nome da instituição faz com que sua tentativa seja bloqueada. Parece um pesadelo, mas foi exatamente o que aconteceu com o comentarista de fintech David Birch quando ele perguntou a um chatbot da Virgin Money como juntar duas contas que ele tinha no banco. O que parecia ser exatamente o tipo de solicitação para a qual os chatbots de IA são treinados provocou uma resposta frustrante, embora humorística: “Por favor, não use palavras assim. Não poderei continuar nossa conversa se você usar esse tipo de linguagem.” Quais palavras? Claro, “Virgin”!

Como evitar erros custosos em chatbots de IA com barreiras de segurança eficazes, garantindo respostas precisas, seguras e alinhadas ao seu negócio?

E certamente não estamos aqui para criticar; tais inconsistências e ambiguidades são inevitáveis em qualquer tecnologia pioneira nas fases ‘iniciais’. Aqui seguem algumas dicas em relação às “barreiras de segurança”.

Barreiras de segurança são controles que ajudam os chatbots movidos por IA a fornecer respostas seguras, precisas e imparciais. Essas barreiras previnem problemas como vazamentos de dados, violações éticas e desinformação ao controlar as fontes específicas de domínio que o chatbot de IA pode acessar.

As empresas devem ajustar seus Modelos de Linguagem de Grande Escala (LLMs) com dados específicos do domínio que se relacionam diretamente com seu setor, segmento ou caso de uso. Isso ajuda a minimizar erros, vieses e respostas inadequadas, limitando as fontes das quais a IA obtém informações. A garantia de qualidade regular e a engenharia de prompts são cruciais para manter a precisão do chatbot, alinhá-lo aos objetivos da sua empresa e clientes, além de garantir a devida sensibilidade cultural.

No entanto, mesmo com barreiras robustas, será necessário contar com especialistas para monitorar continuamente o desempenho dos modelos de IA. A garantia de qualidade conduzida por humanos é essencial para identificar lacunas nas respostas da IA e mitigar problemas como alucinações (respostas falsas ou inventadas). Ao realizar testes regulares liderados por humanos, as empresas podem garantir que seus chatbots de IA permaneçam eficazes e seguros.

Você também pode implementar limites flexíveis que permitam controle mais detalhado com base no caso de uso do chatbot. Por exemplo, tópicos críticos, como compras e transações, podem exigir limites mais rígidos, enquanto áreas menos sensíveis podem ter mais flexibilidade. Incorporar o feedback dos clientes no controle de qualidade também pode contribuir para uma melhoria contínua de experiência. É igualmente importante escolher o LLM adequado para as necessidades do seu negócio, pois diferentes modelos possuem pontos fortes e fracos quando se trata de gerenciamento de limites de segurança.

Outro desafio é garantir que todos os sistemas de IA voltados para o cliente tenham limites completos e atualizados. Uma possível explicação para o incidente da Virgin é que a empresa estava utilizando vários chatbots (ou versões), nem todos totalmente atualizados com as limitações mais recentes. Portanto, garantir (e verificar) a atualização abrangente dos limites em todo o ambiente de chatbots pode mitigar esse risco.

As companhias aéreas foram as primeiras a descobrir isso, mas podemos esperar que, a partir de agora, as empresas cujos chatbots enganarem os clientes sejam responsabilizadas pelos danos causados. E os clientes concordam, com quase três quartos (71%) acreditando que as empresas devem ser responsabilizadas caso informações incorretas sejam fornecidas por um chatbot.

A lealdade do cliente é outro motivo para verificar suas barreiras de segurança. Estudos recentes mostraram que pelo menos 30% e até 70% dos clientes podem ser afastados após uma única experiência negativa com o chatbot de IA de uma empresa. À medida que a implementação de chatbots movidos por IA continua a acelerar, sem dúvida veremos mais erros relacionados a chatbots ganhando manchetes. No entanto, com essas dicas em mente, esperamos que ao menos você consiga garantir que não será sua empresa a se destacar pelos motivos errados.

Como aumentar a segurança dos chatbots de IA no atendimento ao cliente

Defina barreiras de segurança claras
Restrinja as fontes de informação do chatbot para evitar respostas imprecisas, vieses e vazamentos de dados.

Treine o modelo com dados específicos do setor
Personalize o LLM com informações relevantes para minimizar erros e respostas inadequadas.

Implemente garantia de qualidade humana
Monitore regularmente as respostas do chatbot para identificar falhas e evitar alucinações.

Estabeleça limites flexíveis
Ajuste os controles conforme o nível de criticidade do uso, garantindo regras mais rígidas para transações do que para consultas gerais.

Mantenha os modelos sempre atualizados
Certifique-se de que todas as versões do chatbot estejam alinhadas às diretrizes de segurança mais recentes.

Ouça o feedback dos clientes
Use insights dos usuários para refinar continuamente o desempenho e a precisão do chatbot.

Escolha o LLM adequado
Nem todos os modelos são iguais; selecione um que atenda melhor às necessidades do seu negócio e ao gerenciamento de segurança.

Implemente criptografia de dados
Utilize criptografia robusta para proteger informações sensíveis transmitidas entre o usuário, o chatbot e os servidores, garantindo a integridade e a privacidade dos dados.

Esteja atento às tendências emergentes de segurança
Mantenha-se informado sobre as últimas ameaças e desenvolvimentos em cibersegurança, como o uso de IA generativa por cibercriminosos, e adapte suas estratégias de defesa conforme necessário.