Como chatbots estão sendo usados para enganar milhões de pessoas

Vários sites estão disseminando notícias falsas usando chatbots. Conheça as táticas usadas e como identificar essas informações enganosas.

Um recente relatório divulgado pela NewsGuard chama a atenção para uma nova tendência preocupante no cenário das fake news.

Segundo o documento, diversos sites com aparência jornalística estão se utilizando de chatbots de IA para disseminar informações falsas.

O relatório revela que, desde o início deste ano, pelo menos 49 sites de notícias factuais, lifestyle e entretenimento têm publicado artigos contendo informações falsas, sem deixar explícito que o conteúdo é gerado por chatbots.

Os perigos das informações falsas disseminadas por chatbots

Robô escrevendo em um laptop

No mundo digital atual, a disseminação de informações falsas tornou-se uma preocupação crescente. E agora, um novo perigo emerge com a utilização de chatbots de IA para propagar fake news.

Essa prática, identificada em um relatório da NewsGuard, revela as consequências nefastas desse tipo de desinformação para a sociedade.

As informações falsas disseminadas por meio de chatbots podem influenciar negativamente a opinião pública, distorcendo fatos e gerando pânico ou conflitos desnecessários.

A disseminação em larga escala dessas notícias fraudulentas compromete a confiança nas fontes de informação e mina a credibilidade do jornalismo, além de prejudicar a tomada de decisões informadas por parte do público.

Diante desse cenário, é crucial compreender os riscos envolvidos na disseminação de informações falsas por chatbots e buscar soluções para combater essa prática prejudicial à sociedade.

Características reveladoras: como identificar o uso de chatbots nos textos dos sites

No universo complexo da desinformação online, identificar a presença de chatbots nos textos dos sites se torna essencial para distinguir conteúdos confiáveis ​​de informações falsas.

O relatório da NewsGuard aponta algumas características reveladoras que podem ajudar a identificar o uso desses chatbots e combater a propagação de notícias fraudulentas.

Uma das características distintivas é a presença de erros flagrantes nos textos, que podem incluir frases como “minha data limite era setembro de 2021” ou “não consigo concluir este prompt”.

Essas falhas revelam a natureza automatizada da produção de conteúdo e indicam a participação de chatbots na geração das notícias.

Além disso, alguns sites podem apresentar declarações explícitas sobre o uso de IA, como “Desculpe pela confusão, sou um modelo de linguagem de IA…” em suas manchetes.

Essas revelações diretas indicam a falta de autenticidade do conteúdo e alertam para a presença de chatbots envolvidos na criação das notícias.

Ao reconhecer essas características reveladoras, os usuários podem estar mais preparados para identificar e evitar o compartilhamento de informações falsas disseminadas por chatbots.

A polêmica em torno do uso de IA e a responsabilidade das plataformas

O crescente uso de IA, como chatbots, para criar e disseminar notícias falsas levanta uma polêmica sobre a responsabilidade das plataformas e empresas por trás dessas tecnologias.

Enquanto alguns argumentam que as plataformas devem tomar medidas mais rigorosas para combater a propagação de desinformação, outros afirmam que a presença de conteúdo gerado por IA não viola as políticas existentes.

O Google, por exemplo, afirma que a presença de conteúdo gerado por IA não viola sua política de anúncios, mas ressalta que o uso de automação para manipular resultados de pesquisa é contra suas políticas de spam.

A empresa afirma monitorar regularmente as tendências de abuso no ecossistema de anúncios e ajustar suas políticas e sistemas de aplicação de forma regular.

A OpenAI, por sua vez, utiliza revisores humanos e sistemas automatizados para identificar e combater o uso indevido de seus modelos de IA.

Dependendo da gravidade do caso, a organização pode emitir advertências ou até mesmo banir usuários que se envolvam em atividades fraudulentas.

Diante dessa polêmica, é evidente que a questão da responsabilidade em relação ao uso de IA para disseminação de fake news precisa ser abordada e debatida em profundidade.

É essencial que as plataformas e empresas desenvolvam políticas e mecanismos eficazes para lidar com a desinformação online, preservando a integridade do jornalismo e protegendo a sociedade dos danos causados por informações falsas.

Créditos das imagens: Freepik.

Paulistano de nascimento e de coração, sou formado em Contabilidade Financeira, pai de pet (do gato Quintino) e me arrisco como redator sobre os mais variados assuntos em minhas horas vagas.
Veja mais