
Google anunció el lunes que había eliminado casi 11,000 canales junto con cuentas relacionadas en el segundo trimestre para enlaces a campañas de información errónea respaldadas por el gobierno de Rusia, China y otras naciones.
La mayoría de las mudanzas , más de 7.700 canales, estaban vinculados a China. Esos canales, transmitiendo en inglés y chino, empujaban regularmente mensajes favorables a la República Popular de China, elogiaron a Presi dent Xi Jinping y intervino en los asuntos diplo matic .
Más de 2.000 canales estaban conectados a las operaciones de influencia rusa. Su contenido, entregado en varios idiomas diferentes, se puso del lado de los puntos de vista de Moscú y denunció a los gobiernos de la OTAN, Ucrania y el oeste.
En un barrido separado anteriormente, Google retiró 20 canales de YouTube adicionales, cuatro cuentas de Google Ads y una sola página de blogger que se tracde RT, el brazo mediático controlado por el estado de Rusia.
RT ha enfrentado acusaciones de compensar a destacados comentaristas conservadores para producir material de las redes sociales antes de la votacióndentde los Estados Unidos en 2024.
Según NBC News, Tim Pool, Dave Rubin y Benny Johnson, todos conocidos por su apoyo aldent Donald Trump, crearon videos para la compañía Tenent Media, un atuendo con sede en Tennessee citado en una acusación federal.
YouTube comenzó a bloquear los canales oficiales de RT en marzo de 2022, poco después de que las fuerzas de Rusia se mudaron a Ucrania.
Estas mudanzas forman el trabajo en curso del grupo de análisis de amenazas de Google para contrarrestar las "operaciones de influencia coordinadas" y las redes de desinformación global.
En su informe, la compañía también señaló que desmanteló las campañas de propaganda originarias de Azerbaiyán, Turquía, Rumania, Israel, Ghana e Irán, todas las cuales tenían como objetivo influir en rivales políticos.
Varias de estas operaciones se centraron en difundir historias competidoras sobre el conflicto de Palestina-Israel, con cada lado promoviendo su propia perspectiva.
"Los hallazgos de la actualización más reciente están en línea con nuestras expectativas de este trabajo regular y continuo", dijo un portavoz de YouTube.
A principios de este año, durante el primer trimestre, Google ya había eliminado más de 23k cuentas por razones similares.
En las imágenes más amplias, Meta reveló la semana pasada que había purgado aproximadamente 10 millones de cuentas hasta mediados de 2025. Esos perfiles fueron acusados de disfrazarse de creadores bien conocidos, parte del esfuerzo de Meta para reducir el contenido "spam" y aumentar la autenticidad de sus feeds de Facebook e Instagram.
Por lo tanto, Facebook también suspendió alrededor de medio millón de cuentas marcadas por comportamiento no auténtico o spam. La compañía dijo que degradó los comentarios y limitó la distribución de contenido de las cuentas para reducir su capacidad de monetizar.
de Meta defi como imágenes o clips reutilizados sin dar crédito al creador. Ahora emplea tecnología para detectar videos que son duplicados y restringir su alcance.
Esta represión contra el contenido falso y repetitivo coincide con la inversión intensificada de Meta en inteligencia artificial.
El lunes, el CEO Mark Zuckerberg anunció planes para invertir "cientos de miles de millones de dólares" en la capacidad informática de IA, con el objetivo de lanzar el primer Supercluster AI de la compañía el próximo año.
Mientras tanto, YouTube actualizó sus reglas de elegibilidad de AD este mes para excluir videos que son producidos en masa o demasiado repetitivos al obtener ingresos.
Algunos usuarios interpretaron mal el cambio como una prohibición del contenido generado por AI, pero YouTube aclaró que la política está diseñada únicamente para dirigirse a videos poco originales, en forma de spam, en lugar de un trabajo de IA en general.
Academia Cryptopolitan: ¿Quieres hacer crecer tu dinero en 2025? Aprenda cómo hacerlo con DeFi en nuestra próxima clase web. Guarda tu lugar