TEle meta -chefe executivo, Mark Zuckerberg, chamou de “o assistente de IA mais inteligente que você pode usar livremente”. Mas Barry Smethurst, 41 anos, trabalhador de uma loja de discos que tentava viajar de trem de Saddleworth para Manchester Piccadilly, não concordou.
Esperando na plataforma para um trem matinal que não estava em lugar algum, ele perguntou ao assistente do WhatsApp AI da Metapp para um número de contato da Transpennine Express. O chatbot enviou com confiança a ele um número de telefone celular para atendimento ao cliente, mas acabou sendo o número privado de um usuário do WhatsApp completamente desconectado a 170 milhas de distância em Oxfordshire.
Foi o começo de uma troca bizarra do tipo que mais pessoas estão tendo com os sistemas de IA, nos quais os chatbots tentam negociar sua maneira de sair de problemas, desviaram a atenção de seus erros e se contradizem, tudo na tentativa de continuar parecendo útil.
A Joust de Smethurst com a IA de Meta começou quando ele disse à linha de apoio da Transpennine que ele desenterrava parecia um número privado. Quando ele perguntou qual era esse número, a IA disse rapidamente que não deveria ter compartilhado e tentado mudar de assunto, dizendo: “Vamos nos concentrar em encontrar as informações certas para sua consulta transpennine Express!”
Mas a Smethurst queria saber por que havia compartilhado o número privado, que acabou pertencia a James Gray, 44, um executivo da indústria imobiliária de Oxfordshire que também é um usuário do WhatsApp e cujo número aparece no site da empresa.
A IA explicou que foi gerada “com base em padrões” e prometeu “se esforçar para fazer melhor no futuro” admitindo quando não sabia uma resposta. Mas então descreveu falsamente o número como “fictício” e não “associado a ninguém”. Quando Smethurst desafiou isso, ele admitiu: “Você está certo” e disse que pode ter sido “retirado por engano de um banco de dados”.
Questionado sobre qual banco de dados, ele enlouqueceu ainda mais, contradizendo -se novamente dizendo: “Eu não puxei o número de um banco de dados. Gerei uma série de dígitos que se encaixam no formato de um número de celular do Reino Unido, mas não foi baseado em dados reais em contatos”.
Com a conversa circulando em círculos, Smethurst disse que não acreditava no chatbot e disse: “apenas dar um número aleatório a alguém é uma coisa insana para uma IA fazer”.
“É aterrorizante”, disse Smethurst, depois que ele levantou uma queixa com a Meta. “Se eles compunham o número, isso é mais aceitável, mas o excesso de retirar um número incorreto de algum banco de dados ao qual tem acesso é particularmente preocupante”.
Gray disse que, felizmente, não recebeu ligações de pessoas que tentavam alcançar a Transpennine Express, mas disse: “Se está gerando meu número, poderia gerar meus dados bancários?”
Questionado sobre a alegação de Zuckerberg de que a IA era “a mais inteligente”, Gray disse: “Isso definitivamente foi colocado em dúvida nesse caso”.
Os desenvolvedores que trabalham com a tecnologia de chatbot do OpenAI recentemente compartilharam exemplos de “comportamento de engano sistêmico mascarado como útil” e uma tendência a “dizer o que precisar para parecer competente” como resultado de o ChatBots sendo programado para reduzir “atrito do usuário”.
Em março, um homem norueguês apresentou uma queixa depois que pediu informações sobre o Chatgpt, do Openai, e foi informado com confiança que estava preso por assassinar dois de seus filhos, o que era falso.
E no início deste mês, um escritor que pediu Chatgpt para ajudá -la a lançar seu trabalho para um agente literário revelou como, depois de longos comentários lisonjeiros sobre seu trabalho “impressionante” e “intelectualmente ágil”, o chatbot foi pego mentindo que havia lido as amostras de redação que ela carregou quando não havia feito as citações de seu trabalho. Até admitiu que “não era apenas uma questão técnica – é um sério fracasso ético”.
Referring to Smethurst’s case, Mike Stanhope, the managing director of the law firm Carruthers and Jackson, said: “This is a fascinating example of AI gone wrong. If the engineers at Meta are designing ‘white lie’ tendencies into their AI, the public need to be informed, even if the intention of the feature is to minimise harm. If this behaviour is novel, uncommon, or not explicitly designed, this raises even more questions around what As salvaguardas estão em vigor e o quão previsível podemos forçar o comportamento de uma IA a ser. ”
A Meta disse que sua IA pode retornar saídas imprecisas e que estava trabalhando para melhorar seus modelos.
“A Meta AI é treinada em uma combinação de conjuntos de dados licenciados e disponíveis publicamente, não nos números de telefone que as pessoas usam para se registrar no WhatsApp ou em suas conversas particulares”, disse um porta -voz. “Uma rápida pesquisa on -line mostra que o número de telefone fornecido por engano pela Meta AI está disponível ao público e compartilha os mesmos cinco primeiros dígitos que o número de atendimento ao cliente da Transpennine Express”.
Um porta -voz do Openai disse: “Abordar alucinações em todos os nossos modelos é uma área contínua de pesquisa. Além de informar os usuários que o ChatGPT pode cometer erros, estamos trabalhando continuamente para melhorar a precisão e a confiabilidade de nossos modelos através de uma variedade de métodos”.