Meeaaaoow sobe como um ponto de interrogação antes do amanhecer. Qualquer pessoa que vive com um gato conhece seus sons: chirrutos quebrados, como saudações, rosnados baixos que alertam, ronrona costurou em uma conversa sonolenta. Os etólogos organizaram sons felinos que compartilham qualidades acústicas e contextuais em mais de 20 agrupamentos, incluindo o mieow, o assobio, o trill, a usa e a conversa. Qualquer meow individual pertence, academicamente falando, a uma ampla categoria “miau”, que contém muitas variações. O repertório verbal do gato da casa é muito maior que o de seus primos selvagens em grande parte silenciosa. Os pesquisadores começaram a estudar se os gatos podem se transformar em dialetos regionais, como os sotaques humanos se dobram ao longo do Hudson ou do Tamisa. E, assim como os humanos gesticulam, encolhem os ombros, franzem a testa e levantam as sobrancelhas, o pêlo de gatos e os bigodes escrevem legendas: uma cauda contra a cauda declara emoção, as orelhas achatadas sinalizam o medo e um piscar lento promete paz. Felis Catus é uma espécie faladora que, mais de milhares de anos de domesticação, girou sua voz em relação ao primata peculiar que abre a geladeira.
Agora imagine apontar seu telefone naquele uivo e leitura antes de arremesso: “Refilt Bowl, por favor”. Em dezembro passado, o Baidu – uma empresa multinacional chinesa especializada em serviços de Internet e inteligência artificial – investiu um aplicativo de patente para o que descreve como um método para transformar as vocalizações de animais em linguagem humana. (Um porta-voz do Baidu disse à Reuters no mês passado que o sistema “ainda está na fase de pesquisa”.) O sistema proposto reunia sinais de animais e os processaria: armazenaria Kitten ou Puppy falar por “estou com fome” como código, então emparelhá-lo não apenas com dados de detecção de movimento, como swishes de cauda, mas também com sinais vitais, como a frequência cardíaca e a temperatura. Todos esses dados seriam levados através de um sistema de IA e misturados antes de emergir como frases de língua simples em inglês, mandarim ou qualquer outra língua.
O sonho de decodificar o discurso do gato é muito mais antigo do que o aprendizado profundo. No início do século XX, os que os queis foram registrados em cilindros de cera e, na década de 1970, John Bradshaw, um antrozoologista britânico, começou mais de quatro décadas mapeando como os gatos domésticos nos dizem – e um ao outro – o que eles significam. Na década de 1990, ele e seu então doutorado Charlotte Cameron-Beaumont haviam estabelecido que o distinto “miaw” doméstico, amplamente ausente entre adultos em colônias selvagens, é uma ferramenta sob medida para gerenciar humanos. Até os gatos domésticos raramente o usam, embora os gatinhos façam com suas mães. No entanto, apesar de toda essa riqueza anedótica, a literatura formal permaneceu fina: havia centenas de papéis sobre canto de pássaros e dezenas de apitos de golfinhos, mas apenas uma dispersão da fonologia felina até que o aprendizado de máquina reviveu o campo na última década.
Sobre apoiar o jornalismo científico
Se você está gostando deste artigo, considere apoiar nosso jornalismo premiado por assinando. Ao comprar uma assinatura, você está ajudando a garantir o futuro das histórias impactantes sobre as descobertas e idéias que moldam nosso mundo hoje.
Uma das primeiras dicas de que os computadores podem quebrar o código do CAT ocorreu em 2018, quando o cientista da AI Yagya Raj Pandeya e seus colegas lançaram Catsound, uma biblioteca de cerca de 3.000 clipes que cobrem 10 tipos de chamadas de gatos rotuladas pelos cientistas – desde sibilos e groado e gorjeta. Cada clipe passou por software treinado em gravações musicais para descrever a “forma” de um som – como seu arremesso aumentou ou caiu e quanto tempo durou – e um segundo programa os catalogou de acordo. Quando o sistema foi testado em clipes que não tinha visto durante o treinamento, identificou o tipo de chamada certa em torno de 91 % do tempo. O estudo mostrou que os 10 sinais vocais tinham impressões digitais acústicas que uma máquina pode detectar-dando os pesquisadores uma prova de conceito para classificação automatizada do som de gato e eventual tradução.
Momentum construiu rapidamente. Em 2019, pesquisadores da Universidade de Milão, na Itália, publicaram um estudo focado em um som destinado a Homo sapiens. A pesquisa cortou o miaw em três sabores situacionais: “Esperando por comida”, “isolamento em um ambiente desconhecido” e “escova”. Ao transformar cada miau em um conjunto de números, os pesquisadores revelaram que um “Feed Me” Meow tinha uma forma notavelmente diferente de um “onde você está?” miau ou um miau “escova -me”. Depois de treinarem um programa de computador para identificar essas formas, os pesquisadores testaram o sistema, tanto quanto Pandeya e colegas haviam testado o deles: ele foi apresentado com matos não vistos durante o treinamento – todos rotulados com base em circunstâncias como fome ou isolamento. O sistema identificou corretamente os matos de até 96 % das vezes, e a pesquisa confirmou que os gatos realmente ajustam seus matos para combinar com o que estão tentando nos dizer.
A pesquisa foi então escalada para smartphones, transformando a curiosidade da mesa de cozinha na IA do consumidor. Os desenvolvedores da empresa de engenharia de software Akvelon, incluindo um ex -engenheiro da Alexa, se uniram a um dos pesquisadores do estudo para criar o aplicativo MeowTalk, que eles afirmam que podem traduzir MEOWs em tempo real. Meowtalk usou o aprendizado de máquina para categorizar milhares de matos submitidos pelo usuário por intenção comum, como “Estou com fome”, “Estou com sede”, “Estou com dor”, “estou feliz” ou “vou atacar”. Um estudo de validação de 2021 dos membros da equipe da MeowTalk reivindicou taxas de sucesso perto de 90 %. Mas o aplicativo também registra torneiras incorretas de tradução de proprietários céticos, que serve como um lembrete de que o gato pode estar pedindo algo totalmente diferente na realidade. Os escores de probabilidade podem simplesmente refletir a similaridade do padrão – não necessariamente a intenção exata do animal.
Sob o capô, esses sistemas de aprendizado de máquina tratam faixas de áudio de gatos como fotografias. Um miau se torna um espectrograma: um eixo representa o tempo, o outro indica pitch e cores ou brilho mostram volume. Assim como os sistemas de IA podem escolher os bigodes de um gato em uma fotografia, eles podem classificar imagens sonoras que distinguem sutilmente tipos específicos de matos. No ano passado, os pesquisadores da Universidade Duzce, em Türkiye, atualizaram a câmera: eles alimentavam espectrogramas em um transformador de visão, um modelo que os extrai em ladrilhos e atribui pesos a cada um para mostrar quais partes do som dão ao miau seu significado.
E em maio de 2025, o empresário Vlad Reznikov enviou uma pré -impressão para a rede social Researchgate sobre o que ele chama de classificação felina Glossário 2.3, um sistema que explode categorizações de vocabulário de gatos para 40 tipos distintos de chamadas em cinco grupos comportamentais. Ele usou um sistema de aprendizado de máquina para encontrar as formas dentro de cada som e outro para estudar como essas formas mudam ao longo de uma única vocalização. Os uivos se estendem, os ronronos pulsam e muitas outras vocalizações distintas se juntam de maneiras variadas. De acordo com a pré-impressão de Reznikov, o modelo teve uma precisão superior a 95 % no reconhecimento em tempo real dos sons de gatos. Os revisores de pares ainda não afiaram seus lápis, mas se o sistema pode distinguir de forma confiável uma usa usa entediada de um “onde está meu salmão?” Warble, pode, se nada mais, economizar muitos tapetes.
Quanto ao Baidu, o plano de sua patente diz que sua abordagem adiciona novos tipos de informação, em vez de uma análise sonora mais profunda. Imagine um gato com um rastreador de fitness e um monitor de bebê, além de um assistente de IA para explicar o que tudo isso significa. A combinação desses dados tornará a mensagem do animal mais clara ou adicionará confusão.
O aprendizado de máquina está sendo cada vez mais usado para entender outros aspectos do comportamento animal. Brittany Florkiewicz, um psicólogo comparativo e evolutivo, o usa para identificar como os gatos imitam as expressões faciais uns dos outros e para rastrear a distância física entre eles para inferir relacionamentos. “De um modo geral, o aprendizado de máquina ajuda a agilizar o processo de pesquisa, tornando -o muito eficiente e preciso, desde que os modelos sejam devidamente guiados”, diz ela. Ela acredita que o surgimento de aplicativos para donos de animais mostra o quanto as pessoas estão pensando em maneiras inovadoras de cuidar melhor de seus animais de estimação. “É positivo ver a comunidade de pesquisa e os donos de animais cotidianos que abraçam essa tecnologia”, diz ela.
O interesse pela vocalização animal se estende não apenas aos gatos, mas a um de seus itens favoritos do menu: ratos. A Deepsqueak, um sistema de aprendizado de máquina criado pelo psicólogo Kevin Coffey e sua equipe, faz para os roedores o que os outros sistemas fazem pelos gatos. “O namoro de ratos é realmente interessante”, diz Coffey – particularmente “as músicas completas que eles cantam que os humanos não conseguem ouvir, mas que são músicas realmente complexas”. Os ratos e os ratos normalmente se comunicam em uma faixa ultrassônica, e o aprendizado de máquina decodifica esses chirps e assobios inaudíveis e os vincula a circunstâncias em que ocorrem no laboratório.
Coffey ressalta, no entanto, que “o espaço de comunicação animal é definido pelos conceitos que são importantes para (os animais) – as coisas que importam em suas vidas … um rato ou um mouse ou gato estão interessados em comunicar que desejam interação social ou brincadeira ou comida ou sexo, que estão assustados ou feridos”. Por esse motivo, ele é cético em relação às reivindicações grandiosas feitas pelas empresas de IA “de que podemos sobrepor o espaço semântico conceitual das línguas animais e depois traduzir diretamente – o que é, eu acho, meio que absurdo total. Mas a idéia que você pode gravar e categorizar vocalizações de animais, relacioná -las ao comportamento e aprender mais sobre suas vidas e como serem complexas. E embora ele ache que um aplicativo poderia ajudar realisticamente as pessoas a reconhecer quando seu gato está com fome ou quer ser acentuado, ele duvida que seja necessário. “Já somos muito bons nisso. Os donos de animais já se comunicam com seu animal nesse nível.”
Animais domesticados também se comunicam entre as espécies. Um estudo de 2020 descobriu que cães e cavalos jogando juntos rapidamente imitavam as expressões faciais de boca aberta um do outro e a auto-prostituta, colocando-se em situações desvantajantes ou vulneráveis para manter o jogo bem equilibrado. Florkiewicz acredita que isso pode ser parcialmente resultado da domesticação: os humanos selecionaram quais animais levantar com base em características comunicativas que facilitaram a vida compartilhada.
Pensa -se que a história mútua de seres humanos e gatos tenha começado há 12.000 anos – quando os gatos selvagens caçavam roedores nos primeiros lojas de grãos de aldeias agrícolas neolíticas no crescente fértil – então houve tempo para nos adaptarmos um ao outro. Por pelo menos 7500 aC, em Chipre (uma ilha sem felinos nativos), um humano havia sido enterrado com um gato. Mais tarde, os egípcios os reverenciaram; comerciantes, marinheiros e eventualmente vikings os carregavam pelo mundo em navios; E agora os cientistas adaptaram a tecnologia mais sofisticada dos seres humanos para tentar compreender suas vidas internas. Mas talvez os gatos tenham nos treinado o tempo todo, e talvez eles julguem nosso software com a mesma indiferença legal que se reservam para novos brinquedos. A afinal, o discurso não é apenas um rótulo, mas um significado negociado – e os gatos, como mestres da ambiguidade, pode preferir um pouco de mistério.