viernes, 2 de agosto de 2024

Algoritmos, clickbait y odio en las redes sociales

 


Así es el ciclo del caos que potencia la desinformación en las plataformas digitales para monetizar la atención de los usuarios

     Ascenso de la ultraderecha en las redes sociales, teorías conspirativas, polarización política, cancelación cultural… Desde hace años, ando reflexionando sobre el papel que tienen en este contexto las plataformas y redes sociales. He intentado ordenar las ideas a través de un flujo muy presente en el que se conjugan la polémica, el clickbait, la atención, el consumo de contenidos y la monetización de dichos contenidos y los modelos de negocio de estas plataformas digitales.

El atentado contra Donald Trump, en este sentido, nos pone delante del espejo sobre la conspiranoia, en el mismo momento que con el ascenso de Kamala Harris surgen nuevas fake news.

 


En la era digital, las redes sociales y las plataformas digitales han transformado la forma en que consumimos información y entretenemos. Ya no es solo que se incremente el desinterés por las noticias, sino la forma en la que consumimos la información (o la desinformación).

Este cambio ha dado lugar a una economía de la atención, donde captar y mantener la atención del usuario se ha convertido en el objetivo principal de las plataformas (y en gran parte, del sistema de medios de comunicación).

Para entender cómo estas plataformas logran este objetivo, es crucial analizar el ciclo de interacción que las alimenta, compuesto por los elementos de polémica, clickbait, atención, consumo y monetización.

Lo veremos más tarde ejemplificado después del atentado de Donald Trump y qué pasa con TikTok en Alemania.

¿Cómo funciona este ciclo?

  1. Polémica. Las plataformas optimizan sus algoritmos para potenciar el compromiso, sin una distinción clara entre información verídica y desinformación. Esto no solo influye en la percepción pública y la formación de opiniones, sino que también puede exacerbar la polarización social y política. La controversia genera interés y divide opiniones, lo que es el punto de partida para atraer la atención de los usuarios.

  2. Clickbait. Para capitalizar la polémica, se utilizan titulares llamativos o engañosos (clickbait) que prometen contenido impactante o revelador. Estos titulares están diseñados para atraer clics y visitas a las plataformas.

  3. Atención. Los usuarios, atraídos por el clickbait, hacen clic en los enlaces y consumen el contenido. Esta fase se centra en capturar la atención de los usuarios y mantenerlos enganchados en la plataforma.

  4. Consumo. Durante esta fase, los usuarios consumen el contenido, ya sea leyendo artículos, viendo vídeos, o interactuando de alguna manera con la plataforma. El consumo constante de contenido aumenta el tiempo que los usuarios pasan en la plataforma.

  5. Monetización. Finalmente, el tráfico y la atención generada por el consumo de contenido se monetizan. Esto puede ser a través de publicidad, suscripciones, ventas de productos, o datos de los usuarios. La monetización es el objetivo que retroalimenta este ciclo.

    Medidas más transparentes

    El origen del mal. El ciclo del caos fomenta el odio y la desinformación al priorizar contenido polémico y sensacionalista, que genera fuertes reacciones emocionales y maximiza la atención y el tráfico, creando un entorno informativo tóxico (acordaos cuando hablábamos de los paramedios) que perpetúa la desinformación y la división social. En un contexto donde la información errónea puede tener consecuencias significativas, es crucial que las plataformas de redes sociales adopten medidas más transparentes y responsables para moderar el contenido y proteger la integridad de la información que difunden. La evolución futura de estas plataformas dependerá de su capacidad para equilibrar la economía de la atención con la responsabilidad ética y social.


Hace unos días, el Centro para la Lucha contra el Odio Digital advertía que las plataformas de redes sociales deben abordar el odio en línea. Y es que el intento fallido de asesinato a Donald Trump ha incrementado la viralización de desinformación. En particular hay algunas cifras a tener en cuenta:

Casi nueve millones de personas vieron teorías de conspiración antisemitas después del intento fallido de asesinato del expresidente Donald Trump

Por su parte, el periodista y analista Brian Fung escribe en CNN ‘Chaos on social media platforms after Trump shooting is a mess of their own making’ en el que analiza cómo las plataformas de redes sociales han manejado la desinformación tras el intento de asesinato del ex presidente Donald Trump. El artículo destaca varios puntos clave:

Respuesta débil de las plataformas.

A diferencia de la acción decidida que tomaron en 2021 tras el ataque al Capitolio, las plataformas de redes sociales han adoptado un enfoque más pasivo frente a las teorías de conspiración que surgieron después del intento de asesinato de Trump.

Grandes empresas como Meta, Twitter (ahora X), y YouTube no han tomado medidas significativas para controlar la difusión de información falsa.

Propagación de teorías de conspiración. Las plataformas han sido invadidas por afirmaciones infundadas tanto de la izquierda como de la derecha. Estas teorías van desde que el incidente fue "montado" por Trump para beneficiarse políticamente, hasta sugerencias de que agentes del "estado profundo" o el presidente Biden estaban involucrados en el ataque. La realidad es que el Servicio Secreto de lo ha descrito como un intento de asesinato, y el departamento de Seguridad Nacional lo ha reconocido como una falla de seguridad.

Cambio en la política de las plataformas. En los últimos años, muchas plataformas han reducido su inversión en equipos de confianza y seguridad. Esto se debe en parte a condiciones macroeconómicas difíciles y a una creciente presión para equilibrar la libertad de expresión con la seguridad en línea y la neutralidad política.

Impacto de la compra de Twitter por Elon Musk. Desde que Musk adquirió Twitter, ha hecho cambios que han degradado la capacidad de los usuarios para confiar en la información que ven. X ha reducido significativamente el equipo de confianza y seguridad, y las publicaciones más inflamatorias y atractivas, sin importar su veracidad, son las que se recompensan económicamente.

Desafíos para el futuro. La forma en que se manejó la desinformación tras el intento de asesinato es indicativa de lo que se puede esperar en el futuro, especialmente en el contexto de las próximas elecciones. La combinación de decisiones empresariales internas y presiones externas ha creado un entorno más tóxico para la información.

Un ejemplo europeo: TikTok, aliado de la extrema derecha en Alemania


Por otra parte, en el torbellino de la política digital, TikTok se ha convertido en un inesperado aliado para la extrema derecha en Alemania. Según un informe exclusivo compartido con WIRED.

Objetivo, jóvenes votantes. La plataforma ha jugado un papel crucial en la promoción del partido "Alternativa para Alemania" (AfD) entre los jóvenes votantes. A pesar de que los usuarios buscaban información sobre otros partidos, TikTok frecuentemente redirigía sus búsquedas hacia contenido relacionado con el AfD, revelando una inquietante tendencia en el algoritmo de la aplicación.

Amplificar los mensajes. El estudio, realizado por las organizaciones AI Forensics y Interface, descubrió que en una cuarta parte de las búsquedas realizadas por jóvenes usuarios alemanes, las sugerencias de búsqueda de TikTok favorecían desproporcionadamente al AfD. Este partido, etiquetado como "extremista" por un tribunal alemán, ha aprovechado las características de TikTok para amplificar su mensaje y atraer a una audiencia más joven.

En muchos casos, los usuarios que buscaban partidos como los Verdes o la CDU, encontraban en su lugar contenido del AfD, mientras que búsquedas directas del AfD no mostraban resultados de otros partidos.

La reacción de TikTok ante estos hallazgos ha sido tibia. Aunque no disputaron las conclusiones del informe, la plataforma afirmó haber restringido ciertas cuentas del AfD en el pasado debido a violaciones de contenido. Sin embargo, los investigadores encontraron que estas medidas no eran aplicadas de manera consistente.

Búsquedas. La influencia de las sugerencias de búsqueda en TikTok es poderosa. Los usuarios no solo reciben recomendaciones basadas en sus intereses, sino que también se enfrentan a términos de búsqueda sensacionalistas y conspirativos que permanecen en su memoria. Por ejemplo, buscar contenido relacionado con los Verdes podría generar sugerencias como "la esposa de Habeck se va", una afirmación sin fundamento que insinúa un escándalo. Este tipo de estrategias no solo desinforman, sino que también perpetúan narrativas extremas y divisivas.

Contexto democrático. La situación es un recordatorio de los desafíos que enfrentan las democracias en la era digital. Mientras las plataformas buscan equilibrar la libertad de expresión con la seguridad en línea, los algoritmos continúan influyendo en la opinión pública de maneras impredecibles y, a menudo, peligrosas. Con la creciente dependencia de las redes sociales como fuente de información, la necesidad de una moderación consistente y transparente se vuelve cada vez más urgente.

Fuente: Substack

No hay comentarios:

Publicar un comentario