Un nuevo estudio de la Universidad de Salamanca ha logrado demostrar que es posible anticipar el incremento de delitos de odio en España utilizando sólo datos de redes sociales. La investigación modeló los datos de denuncias policiales de crímenes de odio reportados en España entre 2016 y 2018, con mensajes tóxicos y de odio publicados en las mismas fechas en X (anteriormente Twitter) y Facebook. Los resultados muestran no sólo una correlación temporal entre ambos fenómenos, sino que ha podido generar una serie de modelos predictivos que permiten anticipar con cierta precisión cuándo aumentarán las denuncias.
La investigación, publicada esta semana por la prestigiosa revista del grupo Nature ‘Humanities and Social Sciences Communications’, utilizó técnicas de inteligencia artificial para analizar de forma masiva y automatizada los mensajes para luego incluirlos en hasta 48 modelos matemáticos para pronosticar dos tipos de crímenes de odio: dirigidos hacia migrantes y hacia la comunidad LGBT. El mejor modelo permitía explicar hasta en un 64% el número de denuncias agregadas por día por motivos racistas o xenófobos.
“Aunque el estudio no establece una relación de causalidad directa, creemos que el lenguaje inflamatorio en redes sociales podrá ser un indicador clave para detectar potenciales actos de crímenes de odio”, explica Carlos Arcila Calderón, profesor titular de la Universidad de Salamanca e investigador principal del trabajo financiado por la Unión Europea, en el que participan profesores del Observatorio de los Contenidos Audiovisuales (OCA), miembros de la Oficina Nacional de Lucha Contra los Delitos de Odio (ONDOD) del Ministerio del Interior, así como investigadores de las universidades de Malmo, Rey Juan Carlos y Autónoma de Madrid.
Los resultados de este estudio pionero en España también revelaron que los modelos funcionan mejor al utilizar datos nacionales y no locales, con agregaciones semanales y no diarias, y con datos relacionados con los delitos hacia migrantes en comparación con los dirigidos hacía la comunidad LGTB. Sorprendentemente, los indicadores básicos del denominado lenguaje tóxico (amenazas, insultos, ataques, etc.) también dieron mejores resultados que los indicadores específicos de odio en los modelos.
Según Tomás Fernández Villazala, director de la ONDOD y firmante del estudio, la monitorización de los mensajes tóxicos y del discurso de odio en redes sociales podría jugar un papel crucial en la identificación de riesgos de violencia. Explica que, aunque en este estudio los datos de Facebook aportaron más información que los de X, la monitorización de diferentes fuentes puede permitir tener un panorama más claro sobre el posible aumento de denuncias en las comisarías por personas vulnerables.
El estudio evita hablar de causalidad entre un fenómeno y otro, pero sí indica que, en la mayoría de los casos, los mensajes con lenguaje inflamatorio precedieron temporalmente a los las denuncias policiales, lo que podría sugerir que los contenidos propagados por redes sociales serían el caldo de cultivo para la perpetración de actos violentos en entornos físicos.
Según Arcila Calderón, estos hallazgos coinciden con estudios similares en Estados Unidos y Alemania, pero son inéditos por la calidad de los datos procesados. Específicamente, se refiere al acuerdo entre investigadores de la Universidad de Salamanca con la ONDOD para el acceso a datos localizados de los crímenes denunciados, así como al análisis computacional de los mensajes con grandes modelos del lenguaje y al uso de algoritmos avanzados para generar los modelos predictivos que se ejecutaron en el Centro de Supercomputación de Castilla y León (SCAYLE).
Tienes que iniciar sesión para ver los comentarios