O artigo da CNN — “Investigação: são falsas 58% das contas no X que promovem o Chega” — baseado num estudo que, como se demonstrará ao longo desta análise, apresenta erros graves de verificação, regressou recentemente ao debate público depois de ter sido citado pelo Polígrafo como fonte credível no artigo: “Pedro Frazão diz que PS ‘gastou 40 mil euros em perfis falsos’. Mas é verdade que 58% das contas que promovem o Chega nas redes sociais também são falsas?”
Em vez de proceder à validação independente da credibilidade do relatório, o Polígrafo optou por utilizá-lo como premissa factual, sustentando conclusões com base num estudo que contém falhas verificáveis — algo que será demonstrado ponto por ponto neste artigo.
Se não tiveres disponibilidade para ler este artigo , podes avançar diretamente para o final do mesmo, onde encontras um vídeo de cerca de 8 minutos, publicado a 23/06/2025 pela página PoliticamenteIncensurável no YouTube, no qual são expostos vários erros que comprometem a fiabilidade do estudo enquanto fonte credível.
![]() |
| Polígrafo partilhou estudo falso que foi divulgado pela CNN |
Estudo partilhado pela CNN com falhas inadmissíveis;
No dia 16 de maio de 2025, dois dias antes das eleições legislativas portuguesas, a CNN Portugal divulgou um artigo baseado no relatório da empresa Cyabra intitulado:
“Vozes falsas, votos reais: Como perfis falsos estão a influenciar as eleições de 2025 em Portugal.”
O estudo — desenvolvido para a CNN Portugal e TVI — analisou a atividade de
- 2.274 perfis
- Responsáveis por 3.821 unidades de conteúdo
- Publicadas na rede social X
- Entre 14 de abril e 14 de maio de 2025
Segundo a Cyabra, o objetivo da investigação foi:
“Descobrir comportamentos inautênticos coordenados, especialmente campanhas falsas destinadas a manipular a opinião pública, seja desacreditando rivais políticos ou amplificando artificialmente o apoio a partidos e candidatos específicos nas suas contas oficiais no X.”
A empresa acrescentou ainda que:
“As conclusões oferecem uma visão crítica sobre como esses esforços de manipulação podem estar a moldar as perceções políticas e a influenciar o sentimento dos eleitores na corrida para as eleições.”
Divulgação pública sem relatório técnico integral
Apesar da apresentação das conclusões gerais, não foi disponibilizado publicamente um relatório técnico completo que permitisse escrutínio independente aprofundado.
Não foram tornados públicos:
- Metodologia algorítmica detalhada
- Critérios técnicos de classificação
- Taxas de erro do sistema de IA
- Margens de confiança
- Revisão humana das contas sinalizadas
- Base de dados integral da amostra
A divulgação assentou essencialmente em sínteses, exemplos selecionados e capturas de ecrã de perfis classificados como bots.
Foi precisamente a partir desses exemplos que começaram a surgir as primeiras verificações independentes.
As contas apresentadas como exemplo de bots
Entre os perfis divulgados publicamente encontravam-se:
@Gaudropedino
@DiogoMorgado200
@Rqueroz54715
@Patria_PT
@pmbcbf
@Demonio_SLB_CM
@in_80s
@PrimerRX
@PedroLAfonso67
@farto2025
@AndreSLB1988
@CarlosC58975930
@epilif99
@Lusogundi
@Tino382607Tino
@swiss_proud
@Riseup251175 (já não está incluído no artigo, dado que foi alterado - ver explicação abaixo)
Inicialmente eram 17 contas. Atualmente existem registos públicos no artigo da CNN de 16, após edição posterior do artigo.
Direito de resposta expôs o primeiro erro
A conta @Riseup251175, incluída na lista original, solicitou o direito de resposta.
Após contestação, o artigo foi editado e o perfil removido dos exemplos públicos — confirmando a primeira classificação errada.
Foi também a única conta a quem foi concedido direito de resposta, apesar de outras contas que foram identificados como bots terem pedido o direito de resposta via rede social, o qual não foi concedido pela CNN.
Vídeo elaborado pela página PI para analisar apenas alguns dos perfis considerados como bots
No dia 23/06/2025, foi publicado um vídeo pela página PoliticamenteIncensurável (PI) — vídeo disponível no final do artigo — com um objetivo simples: analisar apenas alguns dos exemplos de contas que a CNN apresentou como sendo bots no estudo divulgado dois dias antes das eleições legislativas.
Nesse vídeo faço uma análise direta ao próprio artigo, desmascaro a narrativa construída em torno do estudo e exponho factos que a comunicação social preferiu omitir — ou que nem sequer se deu ao trabalho de verificar quanto à credibilidade do relatório que estava a divulgar em pleno período eleitoral.
As contas analisadas nesse vídeo foram: RiseUp, Gaudropedino, Patria_PT, PrimerX, PedroLAfonso67, AndreSLB1998, PMBCBF e Farto2005.
A verificação direta da atividade destes perfis permitiu demonstrar que se tratavam de contas reais, com interações humanas, linguagem natural e histórico orgânico de utilização da plataforma. Ou seja, dentro dos próprios exemplos usados para sustentar a narrativa do estudo, já existia um número significativo de classificações erradas.
No total, 8 contas que tinham sido classificadas como bots — dentro das 17 utilizadas como amostra pública do estudo — revelaram-se contas reais, expondo falhas evidentes na credibilidade das conclusões divulgadas.
Reativação do estudo em 2026
Dado que, agora, em 2026, o artigo voltou a ser partilhado nas redes sociais como sendo verdadeiro — desta vez pelo Polígrafo — tornou-se mais do que necessário analisar o restante da amostra disponibilizada, de forma a perceber quantas das contas ainda não verificadas (9 perfis dentro da amostra pública) poderão efetivamente corresponder a bots ou, pelo contrário, a contas humanas classificadas erradamente.
Caso analisado: @DiogoMorgado200
Embora a observação atual do perfil revele uma baixa frequência de publicações e uma quebra de atividade após o período eleitoral de 2025, a análise das duas imagens abaixo — retiradas diretamente da conta — permite perceber que se trata de um perfil humano.
O estilo de linguagem utilizado é natural, espontâneo e emocional, algo incompatível com padrões automatizados. Para além disso, como é visível na primeira imagem, o tema abordado nem sequer era de natureza política, mas sim uma polémica relacionada com uma alegada agressão ocorrida no programa Big Brother.
Este tipo de interação contextual, fora de narrativa política e reagindo a acontecimentos mediáticos momentâneos, não corresponde ao comportamento típico de bots, que tendem a limitar-se a conteúdos para os quais foram programados ou coordenados.
![]() |
| Print 1 |
![]() |
| Print 2 |
Conclusão: perfil com comportamento humano.
Caso analisado: @RQueroz54715
Relativamente à conta @RQueroz54715, a análise do perfil revela um padrão de comportamento distinto dos casos anteriores. Pelo estilo de linguagem utilizado — marcado por abreviações constantes para sintetizar mensagens — bem como pela repetição sistemática das mesmas imagens em resposta a diferentes publicações, identificam-se indícios consistentes de automatização.
Acresce ainda o uso recorrente de expressões padronizadas como “VTNC” e “MORTADELA”, "HELP BOLSONARO" e "ANDRE VENTURA PRESIDENTE" replicadas em múltiplas interações, o que reforça a perceção de um padrão mecânico e pouco contextualizado de participação na rede social X.
Este conjunto de fatores — linguagem abreviada, repetição de conteúdo visual e uso de expressões fixas — configura indicadores típicos de contas automatizadas ou semi-automatizadas, como é possível verificar através das imagens apresentadas abaixo.
![]() |
| Print 3 |
![]() |
| Print 4 |
![]() |
| Print 5 |
![]() |
| Print 6 |
![]() |
| Print 7 |
![]() |
| Print 8 |
![]() |
| Print 9 |
![]() |
| Print 10 |
Conclusão: perfil com grande probabilidade de ser bot
Caso analisado: @Demonio_SLB_CM
Como é possível verificar pelas imagens abaixo, esta conta apresenta interações tipicamente humanas, tanto pelo tipo de conteúdos a que reage — maioritariamente temas ligados ao futebol e à política — como pela diversidade contextual das suas intervenções.
A linguagem utilizada é natural e opinativa, incluindo referências ao processo Casa Pia e à alegada ligação política a Ferro Rodrigues, bem como comentários sobre diferentes medidas e figuras políticas, tanto em Portugal como nos Estados Unidos.
O discurso mantém uma linha ideológica consistente, posicionada à direita, algo que se reflete na forma como enquadra temas políticos e figuras públicas. Este padrão de opinião estruturada, contextual e ideologicamente coerente é característico de participação humana e não de automatização.
![]() |
| Print 11 |
![]() |
| Print 12 |
![]() |
| Print 13 |
| Print 14 |
Conclusão: perfil com comportamento humano.
Caso analisado: @in_80s
No decorrer da investigação segui a conta com o objetivo de entrar em contacto direto, tendo a mesma retribuído o follow. Foi enviada mensagem privada e aguardo resposta, o que, a existir, aumentará a probabilidade de se tratar de uma conta real.
Ainda assim, a análise do perfil levanta dúvidas. Como se verifica pelas imagens abaixo, a conta partilha repetidamente as mesmas fotografias, um padrão frequentemente associado a automatização. No entanto esta conta é a que levanta mais dúvidas dado que existe desde 2013 e apresentar tweets diversificados, respondendo de forma diferente nos comentários que desenvolve.
Até resposta em contrário, é nesta fase classificada como possível bot, dado as imagens constantemente iguais que partilha, embora realço que o seu carácter linguístico pareça humano.
Conclusão: perfil com alguma probabilidade de ser bot
Caso analisado: @Tino382607Tino
![]() |
| Print 17 |
Caso analisado: @swiss_proud
![]() |
| Print 18 |
Caso analisado: @CarlosC58975930
Caso analisado: @epilif99
Caso analisado: @Lusogundi
Conclusão - 4 possíveis contas bot em 17
Assim sendo, das 17 contas que foram partilhadas pela CNN como exemplo público do estudo, verifica-se que apenas 4 poderão ser consideradas falsas, ou seja, poderão ser consideradas bots. Isto representa cerca de 23,5% da amostra divulgada.
Se extrapolarmos esta proporção para o universo total analisado — os 2.274 perfis referidos no relatório — isso significaria que não seriam 58% das contas classificáveis como bots, que dá (1319 contas) , mas sim aproximadamente 23,5%, o que corresponderia a cerca de 534 perfis, um valor muito distante dos cerca de 1.319 que resultariam da percentagem apresentada no estudo.
Dado não ser possível estatisticamente fazer esta proporção, desafia-se a CNN Portugal a divulgar o estudo completo, para perceber a dimensão total de erro do estudo.
Independentemente do estudo vir a ser divulgado ou não, a verdade e que se comprova com este artigo é só uma - Este estudo não é válido e não pode ser usado como um dado credível, porque o sistema de deteção de IA falhou por completo e usou parâmetros errados para a respectiva avaliação.

























