O aumento de vídeos falsos gerados por IA nas redes sociais mina a confiança nas notícias reais
Brief news summary
Após os recentes ataques dos EUA à defesa do Irã, vídeos falsos gerados por IA, mostrando eventos falsos — como um porta-aviões dos EUA sendo destruído ou o Burj Khalifa em chamas — proliferaram nas plataformas de mídias sociais como o X. Antes uma fonte confiável de notícias em tempo real, a credibilidade do X diminuiu drasticamente desde a aquisição por Elon Musk, devido à moderação mais fraca, algoritmos orientados pelo engajamento e ênfase em sua própria ferramenta de IA, a Grok. Esses fatores facilitaram a rápida disseminação de conteúdo político enganoso criado por IA. Os vídeos têm propósitos variados: alguns celebram ações militares, enquanto outros visam confundir e minar a compreensão pública. Preocupantemente, até mesmo a Grok já cometeu erros ao identificar falsas criações por IA como imagens autênticas. Especialistas alertam que essas deepfakes prejudicam severamente a confiança em material genuíno, tornando cada vez mais difícil para o público distinguir a verdade da mentira. Nesse ambiente, manter uma consciência precisa exige maior vigilância, visto que nossa capacidade de confiar em informações visuais enfrenta desafios sem precedentes.Uma porta-aviões dos EUA destruída por mísseis iranianos. Bombas americanas abatendo uma usina nuclear. O Burj Khalifa consumido pelas chamas. Nenhum desses eventos realmente aconteceu, mas isso não impediu as pessoas de compartilharem vídeos falsos online. Desde os ataques de Trump no fim de semana contra o Irã, vídeos gerados por IA que mostram cenários completamente fabricados, mas realistas, têm se espalhado rapidamente pelo X e outras plataformas de mídia social. Por anos, o X (antigo Twitter) foi uma ferramenta vital para informações em tempo real durante notícias de última hora. No entanto, esse papel parece estar desaparecendo. Desde que Elon Musk assumiu, a confiabilidade da plataforma como fonte de notícias vem diminuindo constantemente. A moderação foi severamente enfraquecida, o algoritmo prioriza o engajamento em detrimento da precisão, e recursos foram desviados para a própria plataforma problemática de IA—o Grok. Já testemunhamos conteúdos de IA carregados de conotação política na plataforma, como um vídeo fabricado de Jake Paul em protestos no Irã. Mas os recentes ataques na Venezuela e agora no Irã desencadearam uma enxurrada de vídeos enganosos gerados por IA. As razões por trás desse conteúdo variam.
Alguns criadores parecem celebrar, usando IA para glorificar as ações militares de Trump e Netanyahu. Outros buscam semear dúvidas sobre o conflito, erodindo a confiança do público americano e contaminando o espaço de informações a ponto de a verdade se tornar incerta. Alarmantemente, o Grok—ferramenta nativa de IA do X—tem rotulado incorretamente vídeos gerados por IA como sendo autênticos. (Um porta-voz do X não respondeu imediatamente às solicitações de comentários, mas indicou postagens recentes da equipe de segurança da empresa. ) No mês passado, Arianna Coghill, da Mother Jones, conversou com o especialista em conteúdo de IA Jeremy Carrasco sobre essa questão. Carrasco considera o conteúdo falso preocupante, mas enfatiza que o maior dano está na forma como essa enxurrada de conteúdo de IA afeta nossa confiança em vídeos reais. Quando imagens falsas se tornam convincentes e difundidas, as pessoas começam a duvidar de tudo—inclusive de vídeos autênticos de eventos verdadeiros. Essa é a dura realidade que enfrentamos agora. Estar bem informado é mais importante do que nunca, mas, nesses tempos, exige cautela extra sobre o que se aceita como verdade—mesmo quando parece ter sido capturado diante dos seus olhos.
Watch video about
O aumento de vídeos falsos gerados por IA nas redes sociais mina a confiança nas notícias reais
Try our premium solution and start getting clients — at no cost to you