Durante la última campaña presidencial estadounidense, un grupo multidisciplinario de universidades de Estados Unidos llevó adelante un experimento centrado en la relación entre redes sociales y polarización política.

La iniciativa se desarrolló en la plataforma X, donde más de mil usuarios participaron sin saberlo de una prueba diseñada para evaluar los efectos de la exposición al contenido extremista.

Según los resultados publicados en la revista Science, la intervención se propuso observar cómo la modificación del flujo informativo podía incidir en las percepciones políticas de los participantes.Los investigadores partieron del reconocimiento de que las redes sociales se convirtieron en una fuente creciente de información política.

En ese marco, señalaron que “los algoritmos influyen en el contenido que ve el usuario, dirigiendo sutilmente sus pensamientos, emociones y comportamientos”. Ese funcionamiento, explicaron, contribuye a profundizar la polarización social al priorizar mensajes que generan reacciones intensas, lo que ha sido señalado desde hace años por especialistas en comunicación digital y académicos dedicados al análisis del impacto de los sistemas algorítmicos.

El estudio reunió a especialistas de las universidades de Stanford, Washington, Nueva York y Johns Hopkins, quienes buscaban precisar cómo operan los algoritmos y qué efectos producen en los usuarios.

La dificultad central era la falta de acceso a los mecanismos internos de las plataformas, que mantienen un control absoluto sobre el ordenamiento del contenido.

Los autores indicaron que las empresas tecnológicas brindan “poca o nula información sobre su gestión”, lo que históricamente obstaculizó evaluaciones externas rigurosas sobre su funcionamiento.Para superar esa limitación, el equipo desarrolló un método que permitió reordenar en tiempo real las publicaciones que una persona veía en X.

La herramienta operó mientras cada participante navegaba por la red social, sin necesidad de autorización de la plataforma. Este enfoque proporcionó un entorno controlado para medir el impacto de la exposición reducida a mensajes extremistas, con particular énfasis en la campaña electoral estadounidense de 2024, un periodo caracterizado por una intensa actividad política en línea.

TECNOLOGÍA Y FILTRADO DE CONTENIDOS

La segunda sección del estudio se centró en la creación de una herramienta basada en inteligencia artificial capaz de identificar y bloquear lenguaje antidemocrático o expresiones que promovieran violencia contra partidos o grupos políticos.

El dispositivo, desarrollado íntegramente por el equipo académico, no eliminaba publicaciones, sino que impedía que ciertos contenidos aparecieran en el feed del usuario, sin modificar el resto de su experiencia.La prueba se llevó a cabo con 1.256 personas durante un periodo de 10 días.

Los participantes no fueron informados de que estaban interactuando con un sistema que filtraba selectivamente mensajes extremistas, con el fin de evitar sesgos derivados del conocimiento del experimento. El diseño se inscribió en metodologías ya utilizadas en estudios de ciencias sociales que buscan medir comportamientos espontáneos en entornos digitales reales.

Los investigadores confirmaron que la ausencia de contenidos que promovían la confrontación disminuyó las percepciones negativas asociadas al partido político contrario.

De acuerdo con los resultados, los participantes mostraron un descenso en los niveles de tensión política y una reducción del rencor partidista.

En algunos casos, incluso expresaron opiniones más favorables hacia quienes se identificaban con posturas opuestas.

Uno de los autores, Tiziano Piccardi, investigador en la Universidad Johns Hopkins, explicó que “el impacto de la polarización fue claro. Cuando los participantes estuvieron expuestos a menos contenido extremo o verbalmente violento, fueron más empáticos y tolerantes con las personas del partido contrario”.

Los datos también mostraron que el efecto alcanzó tanto a usuarios de tendencias progresistas como conservadoras, lo que los autores definieron como un impacto “bipartidista”.

REDUCCIÓN DE LA TENSIÓN POLÍTICA

La tercera sección del estudio analizó el alcance emocional de la intervención. Los investigadores observaron que la reducción de contenidos agresivos no solo modificó actitudes políticas, sino también las emociones asociadas al conflicto partidario.

Piccardi sostuvo que disminuir la exposición al lenguaje antidemocrático “no solo disminuyó la polarización de los participantes, sino también sus sentimientos personales de ira y tristeza”, lo que sugiere que los algoritmos pueden moldear estados emocionales además de percepciones políticas.

El equipo destacó que estos hallazgos pueden ser útiles para diseñar intervenciones orientadas a moderar los niveles de polarización en el debate público. Señalaron que la herramienta podría contribuir al desarrollo de entornos digitales más estables, donde la confrontación extrema no sea un componente dominante de la experiencia informativa cotidiana.

La propuesta se enmarca en discusiones globales sobre transparencia algorítmica y sobre el rol de las plataformas en la configuración del discurso público.Los investigadores advirtieron que la iniciativa no propone censura ni restricciones al contenido disponible, sino una redistribución temporal destinada a evaluar efectos sociales.

El enfoque, remarcaron, se centra en comprender cómo la exposición constante a mensajes polarizantes influye en percepciones individuales y colectivas durante momentos de alta sensibilidad política, como campañas electorales presidenciales.

El estudio concluyó que el control sobre el flujo de información puede incidir directamente en el clima emocional y político de una sociedad.

En un contexto marcado por el uso intensivo de redes sociales, los autores sostuvieron que estos hallazgos ofrecen una base para futuras investigaciones destinadas a desentrañar la relación entre tecnología, comportamiento y democracia, con el fin de promover espacios de deliberación más equilibrados.