Home TecnologíaX: China controla millones de cuentas spam para censurar la plataforma

X: China controla millones de cuentas spam para censurar la plataforma

by Editor de Tecnologia

La semana pasada, Nikita Bier, jefe de producto de X, realizó una alegación de enorme trascendencia con una sorprendente naturalidad: China controla millones de cuentas de spam utilizadas para censurar la plataforma durante períodos de agitación política.

En respuesta a las quejas de los usuarios sobre la inutilidad de la búsqueda en chino en X, Bier afirmó que el gobierno chino había inundado la plataforma con contenido publicitario pornográfico durante períodos de disturbios políticos, ahogando deliberadamente la información en tiempo real. Añadió que X creía que Pekín controlaba una reserva de entre 5 y 10 millones de cuentas, creadas antes de que la compañía endureciera los controles de registro. Esta reserva le daría a Pekín una capacidad lista para usar para manipular los resultados de búsqueda a gran escala.

Fue una afirmación impactante, no solo por su magnitud, sino también por la forma en que llegó: no a través de un informe de transparencia, una sesión informativa técnica o una presentación regulatoria, sino en una publicación de respuesta. Para muchos usuarios de habla china, marcó el momento en que una experiencia diaria de interferencia, sospechada desde hace tiempo como dirigida por el Estado, fue reconocida por la propia plataforma.

No deberíamos tener que depender de los tuits ocasionales de los ejecutivos de X, por sinceros que sean, para comprender cómo se manipula uno de los ecosistemas de información más importantes del mundo. Las declaraciones casuales de los ejecutivos están reemplazando los mecanismos formales de transparencia, una peligrosa regresión que exige atención urgente. Si la interferencia a nivel estatal de esta magnitud está ocurriendo, requiere una divulgación estructurada, una verificación independiente y un escrutinio regulatorio, no reconocimientos improvisados ​​transmitidos a través de las redes sociales.

A pesar de sus muchas deficiencias, X todavía juega un papel desproporcionado en varias comunidades de información globales. Para aquellos que rastrean los avances en la IA, por ejemplo, sigue siendo casi indispensable. Otro grupo que depende mucho de ella es la comunidad china disidente y de la diáspora, que ha tallado un frágil refugio más allá del Gran Cortafuegos, incluso cuando los propagandistas del partido-estado y las redes nacionalistas los persiguen a través de él.

leer más  IA y crianza: límites saludables para niños

Durante años, X ha sido una de las pocas plataformas importantes donde los internautas y activistas chinos podían discutir temas políticos y sociales delicados fuera del alcance directo del sistema de censura de Pekín. Con el tiempo, el discurso político de habla china migró allí en masa, formando un ecosistema transnacional grande que vincula a personas dentro de China con periodistas, investigadores y responsables políticos fuera de ella.

Ese ecosistema demostró ser fundamental durante el período de tolerancia cero de China frente al COVID. Wang Zhi’an, un ex periodista de CCTV que ha pasado años informando desde Japón, observó que la aparición casi simultánea de consignas de protesta idénticas en ciudades chinas solo podría haber ocurrido porque los manifestantes recurrían a Twitter en chino como un espacio de información compartido más allá del sistema de censura de Pekín, permitiendo una rápida difusión nacional a pesar de la ausencia de cobertura mediática nacional.

Durante más de una década, Twitter en chino ha sido un espacio disputado en lugar de uno neutral. Un importante cuerpo de investigación, incluidas varias investigaciones detalladas de ASPI, ha documentado operaciones de información vinculadas al Estado y acoso coordinado a disidentes y actividad inauténtica a gran escala originada en China.

Durante las protestas de 2022 contra la política de tolerancia cero, los usuarios de habla china en Twitter se quejaron repetidamente de que las búsquedas de nombres de ciudades y términos relacionados con las protestas se veían abrumadas por spam pornográfico y de juegos de azar, enterrando imágenes y relatos de primera mano. En ese momento, no estaba claro si esto reflejaba una táctica de censura coordinada o spam oportunista que explotaba las palabras clave de tendencia.

En 2023, el periodista Wenhao Ma documentó un patrón relacionado de extorsión sexual y spam pornográfico dirigido a cuentas de habla china políticamente sensibles. Si bien los activistas que entrevistó no creían que la actividad fuera dirigida directamente por el Estado, sus efectos fueron funcionalmente represivos: silenciar voces destacadas, expulsar a los usuarios de la plataforma y degradar los flujos de información.

leer más  Warhammer: El éxito inesperado de un gigante británicoGames Workshop: El auge de los juegos de mesa y miniaturasWarhammer: De nicho a imperio de 6.000 millones de librasEl secreto del éxito de Games Workshop y WarhammerWarhammer: La historia de un fenómeno cultural y económico

Las declaraciones de Bier sugieren que X ahora interpreta esta actividad como una negación deliberada de la información a nivel estatal: censura por saturación en lugar de eliminación. Lo que destaca es la respuesta de la plataforma. Cuando los usuarios e investigadores plantearon preguntas detalladas en ese momento, Twitter no ofreció ninguna explicación pública. Años después, X ha optado por un tuit de un ejecutivo que afirma la intención y la escala sin pruebas, contexto o divulgación estructurada.

La intervención de Bier es importante porque marca una rara atribución pública por parte de un ejecutivo de plataforma de alto nivel. También plantea preguntas importantes. Fue explícito sobre la intención, al enmarcar el spam como una táctica de censura, y sobre la escala, al citar el número de cuentas. No fue explícito sobre las pruebas. X no ha publicado datos, explicado cómo se calculó la cifra, identificado las cuentas involucradas ni descrito las contramedidas que se están tomando más allá de la afirmación de que la empresa es “consciente y está trabajando en ello”.

La falta de detalle es notable porque se aparta de las prácticas anteriores. Antes de su adquisición por Elon Musk y su cambio de nombre a X, Twitter publicaba rutinariamente informes de transparencia detallados y trabajaba con investigadores externos, incluido ASPI, para documentar las operaciones de información vinculadas al Estado. Esas divulgaciones permitieron un escrutinio independiente y una formulación de políticas informada. Hoy, los usuarios e investigadores se quedan con publicaciones esporádicas en las redes sociales de los ejecutivos.

Esta opacidad no es solo un fracaso de transparencia; es potencialmente un problema legal. En virtud de la Ley de Servicios Digitales (DSA) de la Unión Europea, X, como plataforma en línea muy grande designada, debe evaluar y mitigar los riesgos sistémicos, incluidos los que surgen de la manipulación intencional a través de actividades inauténticas o automatizadas.

leer más  Parker: Condenan a hombre por agresión sexual tras denuncia en Facebook

La Comisión Europea ya está investigando los sistemas de recomendación y las implementaciones de IA de X en virtud de este marco. Si X cree que un gobierno extranjero puede movilizar millones de cuentas para degradar la funcionalidad de búsqueda, esa afirmación debe examinarse como parte del mismo perfil de riesgo sistémico que la DSA está diseñada para detectar. X ha publicado evaluaciones de riesgos de la DSA, pero aún no existe una divulgación pública y con pruebas que respalde la afirmación de Bier sobre la escala, la metodología o la mecánica de la supuesta degradación de la búsqueda.

El episodio también destaca lo que falta en Australia. Las reformas de desinformación y desinformación abandonadas por el gobierno, archivadas a finales de 2024 tras la oposición del Senado, habrían fortalecido la capacidad de la Autoridad Australiana de Comunicaciones y Medios para exigir una mayor transparencia y elaboración de informes estructurados de las principales plataformas, incluso en relación con los riesgos de interferencia extranjera. En cambio, Australia depende de una combinación de informes de transparencia voluntarios y comentarios de los reguladores que han quedado repetidamente por debajo de la divulgación oportuna y detallada, dejando a los usuarios e investigadores para reconstruir episodios clave a partir de capturas de pantalla y comentarios ocasionales de los ejecutivos.

Esto no es sostenible, especialmente cuando estas plataformas desempeñan un papel fundamental en el seguimiento de los acontecimientos en entornos cerrados o autoritarios.

Independientemente de que la afirmación de Bier sea finalmente precisa o no, el problema subyacente es claro. Plataformas como X han ocupado durante mucho tiempo una posición central en los flujos de información geopolíticos. Cuando alegan interferencia a nivel estatal a gran escala, la transparencia no es opcional; es el requisito mínimo para la confianza pública.

Si las plataformas no están dispuestas o no pueden cumplir con ese estándar voluntariamente, entonces la transparencia no puede ser discrecional. Debe ser obligatoria mediante la regulación, en lugar de dejarse a aserciones ocasionales y sin contexto realizadas por ejecutivos en las redes sociales.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.