A inteligência artificial (IA) já é capaz de diagnosticar doenças, escrever poesias e até dirigir carros — mas ainda tem dificuldade com uma palavra simples: “não”. Essa limitação pode ter consequências sérias em aplicações do mundo real, especialmente em sistemas de IA voltados para a saúde.
De acordo com um novo estudo liderado por Kumail Alhamoud, doutorando do MIT, em colaboração com a OpenAI e a Universidade de Oxford, a falha em compreender “não” e “não é” pode ter consequências profundas, especialmente em ambientes médicos.
A negação (por exemplo, “sem fratura” ou “não está aumentado”) é uma função linguística essencial, sobretudo em contextos críticos como o da saúde, onde interpretá-la de forma errada pode causar danos graves.
O estudo mostra que os modelos de IA atuais — como o ChatGPT, Gemini e Llama — frequentemente falham ao processar declarações negativas corretamente, tendendo a associá-las de forma positiva.
O problema central não está apenas na falta de dados, mas em como a IA é treinada. A maioria dos grandes modelos de linguagem é desenvolvida para reconhecer padrões, e não para raciocinar logicamente. Isso significa que eles podem interpretar expressões como “não é bom” como levemente positivas, pois associam a palavra “bom” a algo positivo.
Especialistas argumentam que, a menos que os modelos sejam ensinados a raciocinar logicamente — e não apenas a imitar a linguagem —, continuarão cometendo erros sutis, porém perigosos.
“A IA é muito boa em gerar respostas semelhantes às que viu durante o treinamento. Mas é muito ruim em criar algo realmente novo ou fora dos dados com os quais foi treinada”, disse Franklin Delehelle, engenheiro-chefe de pesquisa da empresa de infraestrutura de conhecimento zero Lagrange Labs, ao Decrypt.
“Se os dados de treinamento não tiverem exemplos fortes de negação ou de sentimentos negativos, o modelo pode ter dificuldade para gerar esse tipo de resposta.”
No estudo, os pesquisadores descobriram que modelos de linguagem visual — projetados para interpretar imagens e textos — demonstram um viés ainda maior em favor de declarações afirmativas, frequentemente falhando em distinguir entre legendas positivas e negativas.
“Com dados sintéticos de negação, oferecemos um caminho promissor para modelos mais confiáveis”, disseram os pesquisadores. “Embora nossa abordagem com dados sintéticos melhore a compreensão da negação, ainda enfrentamos desafios, especialmente com diferenças sutis de negação.”
Apesar do progresso contínuo no raciocínio, muitos sistemas de IA ainda enfrentam dificuldades com o raciocínio semelhante ao humano, principalmente ao lidar com problemas abertos ou situações que exigem uma compreensão mais profunda ou “bom senso”.
“Todos os LLMs — o que agora chamamos comumente de IA — são influenciados, em parte, pelo prompt inicial. Quando você interage com o ChatGPT ou sistemas similares, o sistema não está apenas usando a sua entrada. Existe também um prompt interno, definido pela empresa, sobre o qual você, o usuário, não tem controle”, explicou Delehelle.
Delehelle destacou uma das principais limitações da IA: sua dependência de padrões encontrados nos dados de treinamento, uma restrição que pode moldar — e às vezes distorcer — suas respostas.
Falha nos modelos de linguagem
Kian Katanforoosh, professor adjunto de Deep Learning da Universidade de Stanford e fundador da empresa de inteligência de habilidades Workera, afirmou que o desafio com a negação decorre de uma falha fundamental no funcionamento dos modelos de linguagem.
“A negação é mais complexa do que parece. Palavras como ‘não’ e ‘não é’ invertem o sentido de uma frase, mas a maioria dos modelos de linguagem não está raciocinando logicamente — eles estão prevendo o que parece provável com base em padrões”, disse Katanforoosh. “Isso os torna propensos a perder o sentido quando há negação.”
Katanforoosh também apontou, reforçando a fala de Delehelle, que o problema está na forma como os modelos de IA são treinados.
“Esses modelos foram treinados para associar, não para raciocinar. Então, quando você diz ‘não é bom’, eles ainda associam fortemente a palavra ‘bom’ ao sentimento positivo”, explicou. “Diferente dos humanos, eles nem sempre conseguem superar essas associações.”
Katanforoosh alertou que a incapacidade de interpretar corretamente a negação não é apenas uma falha técnica — pode ter consequências sérias no mundo real.
“Entender a negação é fundamental para a compreensão”, afirmou. “Se um modelo não consegue captar isso com confiabilidade, há o risco de erros sutis, mas críticos — especialmente em áreas como aplicações jurídicas, médicas ou de recursos humanos.”
E embora aumentar o volume de dados de treinamento possa parecer uma solução simples, ele argumenta que o problema está em outro lugar.
“Resolver isso não é uma questão de mais dados, mas de melhor raciocínio. Precisamos de modelos que saibam lidar com lógica, e não apenas com linguagem”, disse. “Esse é o verdadeiro desafio agora: unir o aprendizado estatístico ao pensamento estruturado.”
* Traduzido e editado com autorização do Decrypt.
- Você costuma enviar dinheiro para o exterior? O MB está estudando uma solução de pagamentos que promete tornar as transferências com cripto muito mais simples. Clique aqui para responder uma pesquisa e ajudar a construir algo que faça sentido para você!
O post Inteligência artificial ainda não entende a palavra “não”, revela estudo do MIT apareceu primeiro em Portal do Bitcoin.
Deixe um comentário