Como chatbots estão sendo usados para enganar milhões de pessoas
Vários sites estão disseminando notícias falsas usando chatbots. Conheça as táticas usadas e como identificar essas informações enganosas.
Um recente relatório divulgado pela NewsGuard chama a atenção para uma nova tendência preocupante no cenário das fake news.
Segundo o documento, diversos sites com aparência jornalística estão se utilizando de chatbots de IA para disseminar informações falsas.
O relatório revela que, desde o início deste ano, pelo menos 49 sites de notícias factuais, lifestyle e entretenimento têm publicado artigos contendo informações falsas, sem deixar explícito que o conteúdo é gerado por chatbots.
Os perigos das informações falsas disseminadas por chatbots
No mundo digital atual, a disseminação de informações falsas tornou-se uma preocupação crescente. E agora, um novo perigo emerge com a utilização de chatbots de IA para propagar fake news.
Essa prática, identificada em um relatório da NewsGuard, revela as consequências nefastas desse tipo de desinformação para a sociedade.
As informações falsas disseminadas por meio de chatbots podem influenciar negativamente a opinião pública, distorcendo fatos e gerando pânico ou conflitos desnecessários.
A disseminação em larga escala dessas notícias fraudulentas compromete a confiança nas fontes de informação e mina a credibilidade do jornalismo, além de prejudicar a tomada de decisões informadas por parte do público.
Diante desse cenário, é crucial compreender os riscos envolvidos na disseminação de informações falsas por chatbots e buscar soluções para combater essa prática prejudicial à sociedade.
Características reveladoras: como identificar o uso de chatbots nos textos dos sites
No universo complexo da desinformação online, identificar a presença de chatbots nos textos dos sites se torna essencial para distinguir conteúdos confiáveis de informações falsas.
O relatório da NewsGuard aponta algumas características reveladoras que podem ajudar a identificar o uso desses chatbots e combater a propagação de notícias fraudulentas.
Uma das características distintivas é a presença de erros flagrantes nos textos, que podem incluir frases como “minha data limite era setembro de 2021” ou “não consigo concluir este prompt”.
Essas falhas revelam a natureza automatizada da produção de conteúdo e indicam a participação de chatbots na geração das notícias.
Além disso, alguns sites podem apresentar declarações explícitas sobre o uso de IA, como “Desculpe pela confusão, sou um modelo de linguagem de IA…” em suas manchetes.
Essas revelações diretas indicam a falta de autenticidade do conteúdo e alertam para a presença de chatbots envolvidos na criação das notícias.
Ao reconhecer essas características reveladoras, os usuários podem estar mais preparados para identificar e evitar o compartilhamento de informações falsas disseminadas por chatbots.
A polêmica em torno do uso de IA e a responsabilidade das plataformas
O crescente uso de IA, como chatbots, para criar e disseminar notícias falsas levanta uma polêmica sobre a responsabilidade das plataformas e empresas por trás dessas tecnologias.
Enquanto alguns argumentam que as plataformas devem tomar medidas mais rigorosas para combater a propagação de desinformação, outros afirmam que a presença de conteúdo gerado por IA não viola as políticas existentes.
O Google, por exemplo, afirma que a presença de conteúdo gerado por IA não viola sua política de anúncios, mas ressalta que o uso de automação para manipular resultados de pesquisa é contra suas políticas de spam.
A empresa afirma monitorar regularmente as tendências de abuso no ecossistema de anúncios e ajustar suas políticas e sistemas de aplicação de forma regular.
A OpenAI, por sua vez, utiliza revisores humanos e sistemas automatizados para identificar e combater o uso indevido de seus modelos de IA.
Dependendo da gravidade do caso, a organização pode emitir advertências ou até mesmo banir usuários que se envolvam em atividades fraudulentas.
Diante dessa polêmica, é evidente que a questão da responsabilidade em relação ao uso de IA para disseminação de fake news precisa ser abordada e debatida em profundidade.
É essencial que as plataformas e empresas desenvolvam políticas e mecanismos eficazes para lidar com a desinformação online, preservando a integridade do jornalismo e protegendo a sociedade dos danos causados por informações falsas.
Créditos das imagens: Freepik.