Asier Moneva: “Hay que evitar que una persona concreta publique mensajes radicales para no ‘contagiar’ al resto”

Asier Moneva Pardo en los estudios de Radio UMH

El investigador de Crímina, centro dedicado a la Investigación y Formación Criminológica de la UMH, Asier Moneva Pardo, ha sido galardonado con el Premio Nacional al Investigador Novel 2018 en Criminología por la Sociedad Española de Investigación Criminológica (SEIC). Este premio, destinado a promover la investigación en Criminología entre los investigadores más jóvenes, ha recaído en Moneva por su trabajo ¡El odio está en el aire! Pero, ¿dónde? El estudio, perteneciente al proyecto Pericles en el que se ha involucrado el Centro Crímina, pretende desarrollar un enfoque integral para prevenir y combatir la radicalización violenta y el extremismo. El investigador analiza en este trabajo los patrones digitales de los mensajes radicales publicados en redes sociales, concretamente en Twitter, para mejorar los algoritmos de detección de este tipo de contenido.

Pregunta: En su trabajo ¡El odio está en el aire! Pero, ¿dónde? se estudian los diferentes mensajes radicales en la red para mejorar la detección de este contenido, pero, ¿qué motivo le ha llevado a investigar esta conducta extremista?

Respuesta: Últimamente, se habla mucho de los mensajes ofensivos en redes sociales, concretamente en Twitter, y de cómo ciertas personas se han podido sentir atacadas o discriminadas por otros. Nosotros queríamos identificar qué tipos de mensajes están relacionados con niveles de radicalización más altos para detectar quiénes son los que emiten este tipo de contenido y sobre todo qué características tienen esos mensajes. De esta forma se pueden detectar a tiempo y reportarlos al administrador de la red social para que se retiren o se eleve el nivel de alerta.

P: En cuanto a los resultados, ¿cuáles han sido más llamativos durante el proceso de estudio?

R: Esperábamos que hubiera un nivel de prevalencia bastante alto, es decir, que hubiera muchos mensajes de odio en función del total que se publican en Twitter y el resto de redes sociales. Sin embargo, lo que encontramos en uno de los análisis descriptivos iniciales es que la prevalencia del odio en internet ronda entre el 2-5%. En general, es un fenómeno que sigue siendo extraño y que se sobredimensiona por el impacto que tienen las redes sociales.

P: ¿Influye el anonimato en el fomento de los mensajes radicales?

R: Hemos estudiado si el anonimato era un factor clave en la diseminación del odio en redes sociales, pero no hemos obtenido resultados concluyentes. Parece que el anonimato en internet sí que es un factor que predispone para ejercer ciertas conductas, pero no es algo determinante. La mayoría de los usuarios de Twitter tienen un grado de anonimato medio y no predomina esta característica en la mayoría de mensajes de odio. Muchos usuarios publican contenido radical de forma totalmente abierta dando su nombre real, poniendo su foto de perfil y una descripción de donde trabajan, pero no hay un patrón concreto en este aspecto.

 P: ¿Cómo se consigue detectar la radicalización en redes sociales?

R: Normalmente, se utilizan técnicas de datamining o machine learning. Son enfoques basados en bolsas de palabras que detectan determinados términos dentro de un mismo mensaje para definir si su contenido es radical. Si un tweet, por ejemplo, incluye las palabras “islam”, “musulmán” y “mezquita” el algoritmo detecta que se trata de un mensaje radical. Estos enfoques pueden tener ciertos problemas a la hora de detectar contenido humorístico o irónico y arrojan falsos positivos así que pensamos en un enfoque que dejara un poco de lado el contenido del mensaje y se centrara más en los patrones ambientales que se encuentran en los metadatos. Estos son datos que van asociados al dato principal. En este caso, el dato principal sería el tweet y los datos asociados serían los retweets, número de likes, hashtag, si tiene urls

 P: ¿Qué consecuencias tendría que esta tendencia de fomentar el odio en las redes sociales si se alarga en el tiempo?

R: Es importante detectar pronto cuando un individuo está radicalizado o en el proceso para tratar de reducir la incidencia de los factores que puedan estar incidiendo en esta radicalización. Sabemos que, en Twitter, por ejemplo, la publicación de contenido radical está fomentando que otras personas publiquen más contenido por lo que hay que tratar de evitar que una persona concreta publique mensajes radicales para no ‘contagiar’ al resto.

 P: Estamos hablando ahora mismo de Twitter porque su investigación se centra en esta red social. ¿Cree que le falta alguna herramienta de seguridad para evitar este tipo de mensajes?

R: Twitter y otras redes sociales como Facebook y Youtube tienen sus propios mecanismos de detección de contenido radical. El problema entra con la política de cada empresa. Facebook, por ejemplo, muchas veces no las habilita porque considera que la libertad de expresión prima y se mantienen los mensajes a pesar de que puedan resultar ofensivos para cierto grupo de personas. Por lo tanto, creo que no es tanto que no tengan la herramienta si no que es más un tema de política de empresa.

P: ¿Conocer y analizar este tipo de mensajes puede evitar futuras acciones violentas?

R: Pienso que no vamos a llegar a un punto en el que consigamos violencia cero, pero lo que sí se puede hacer es reducirla con intervenciones tempranas, con detección… En definitiva, con programas preventivos y herramientas que nos ayuden. Un incidente violento aislado, casual, influenciado por un montón de factores incluida la suerte, es algo imposible de evitar.

P: ¿Tiene pensado continuar con esta investigación? ¿Cuáles serán las próximas líneas del estudio?

R: Principalmente, queremos darle un formato muy aplicado a la herramienta que estamos diseñando en forma de software. No queremos que esta investigación se quede simplemente dentro de los muros de la academia, pretendemos que tenga una utilidad real.

Nuestra idea es que las unidades de policía que están dedicadas a la detección de contenido radical tengan una herramienta para localizar mejor el odio pero que a la vez no sirva para señalar individuos de forma poco ética, sino que se centre en el contenido del mensaje. Ahora mismo nos queda depurar un poco la herramienta, darle forma de software para que sea utilizable, fácil de acceder y ponerla al servicio de la policía.

 P: ¿Para cuándo será posible el lanzamiento de esta herramienta?

R: El proyecto Pericles acaba en 2020 y para este año esperamos que al menos las policías que están implicadas ya dispongan de la herramienta y también que nos den feedback para saber si cumple las funciones pertinentes. Estamos en constante comunicación con ellos y nos van comentando sus necesidades.

Tamara García Roca.

También te podría interesar

LEAVE YOUR COMMENT

Tu dirección de correo electrónico no será publicada.