banner

Notícias

Mar 14, 2024

A tendência dos AI Chatbots de divulgar falsidades apresenta desafios

A questão dos chatbots de inteligência artificial (IA), como o ChatGPT, que geram informações falsas é uma preocupação crescente para empresas, organizações e indivíduos. Esse problema afeta vários campos, desde a psicoterapia até a redação de resumos jurídicos. Daniela Amodei, cofundadora do chatbot de IA Claude 2, reconhece que todos os modelos hoje sofrem de algum grau de “alucinação”, uma vez que são concebidos principalmente para prever a próxima palavra e muitas vezes o fazem de forma imprecisa. Desenvolvedores como Anthropic e OpenAI, que criaram o ChatGPT, estão trabalhando ativamente para resolver esse problema e melhorar a veracidade de seus sistemas de IA.

No entanto, especialistas na área sugerem que a erradicação completa deste problema pode não ser viável. A professora de linguística Emily Bender explica que a incompatibilidade entre a tecnologia de IA e os casos de uso propostos apresenta limitações inerentes. A fiabilidade da tecnologia de IA generativa tem uma importância significativa, com contribuições projetadas de 2,6 biliões a 4,4 biliões de dólares para a economia global. Por exemplo, o Google pretende fornecer produtos de IA para redação de notícias para organizações de notícias, enfatizando a necessidade de precisão.

As implicações de informações falsas vão além dos textos escritos. O cientista da computação Ganesh Bagler, em colaboração com institutos de gestão hoteleira na Índia, tem aproveitado os sistemas de IA para inventar receitas. Resultados imprecisos podem fazer uma diferença substancial no sabor e na qualidade de uma refeição, ressaltando a necessidade de precisão na IA generativa.

Embora o CEO da OpenAI, Sam Altman, permaneça optimista quanto à melhoria da tendência dos sistemas de IA para produzir informações falsas, céticos como Bender argumentam que as melhorias podem não ser suficientes. Os modelos de linguagem são projetados principalmente para prever sequências de palavras com base em dados de treinamento, e o resultado que eles geram é essencialmente uma escrita criativa, em vez de informações factuais. Esses modelos tendem a falhar de maneiras sutis que são difíceis de serem identificadas pelos leitores.

Apesar das preocupações, algumas empresas veem a tendência dos chatbots de IA de gerar informações falsas como um recurso valioso. Empresas de marketing, como a Jasper AI, aproveitam os resultados criativos da IA ​​para gerar ideias exclusivas para propostas de clientes. No entanto, a procura por conteúdos precisos continua elevada e empresas como a Google estão a envidar esforços para resolver o problema.

Bill Gates e outros defensores da IA ​​expressam otimismo de que melhorias podem ser feitas para ajudar os modelos de IA a distinguir entre facto e ficção. No entanto, resta saber se a precisão total poderá ser alcançada no texto gerado por IA no futuro.

COMPARTILHAR