FAQ

¿Qué es un Twitter bot?

Un Twitter bot es una cuenta controlada por un algoritmo o script y utilizada normalmente para realizar tareas repetitivas. Algunas de las tareas pueden ser, por ejemplo, retuitear contenido con palabras clave específicas, constestar a nuevos seguidores y enviarles mensajes directos. Twitter bots más complejos pueden participar en conversaciones en línea y, en algunos casos, tienen un comportamiento muy parecido al humano. Hay que resaltar que un bot no es inherentemente bueno o malo, sino que el uso de automatización puede tener efectos positivos o negativos según su empleo. Bots creadas para mejorar la interacción entre usuarios y organizaciones - sea del sector privado o público - por ejemplo, facilitan la utilización de determinados servicios y les atribuyen más transparencia o rapidez.

¿Qué son trollbots?

El término troll, en inglés, significa el que “trollea” a alguién, o sea, publica contenido no relacionado a una discusión, causa algún tipo de desacuerdo, calienta esa discusión o incluso ataca directamente a un usuario en la red. Los trollbots, por lo tanto, son un tipo de bot, muchas veces controlados por humanos, que actúan en las redes sociales con el objetivo específico de “trolear” a una persona, perfil, marca, empresa o figura pública, causando desacuerdo, manipulación de discurso e incitando a la violencia.

¿Atrapabot funciona con todas las redes sociales?

Por ahora no. Facebook, Instagram, WhatsApp y otras redes sociales imponen más barreras de acceso a la API (Interfaz de Programación de Aplicaciones), por lo tanto, Atrapabot apenas funciona en Twitter. Hay otras metodologías y herramientas que verifican el uso de automatización en las demás plataformas.

¿Quién desarrolla Atrapabot?

ATRAPABOT está desarrolado por el Instituto de Tecnología y Sociedad de Río de Janeiro (ITS Rio) en colaboración con el Instituto Equidad & Tecnología. El motor de análisis es un software libre y puede ser libremente utilizado, estudiado, modificado y redistribuido. Su código está disponible en Github.

¿Por qué es importante que se construya un sistema de detección de bots en software libre?

Los sistemas de software libre conceden al usuario la libertad de modificar un código. Entendemos que al tener un código abierto, se permite que la sociedad participe en su construcción y perfeccionamiento como forma de producir un conocimiento más democrático a las tecnologías libres. Además de posibilitar que las personas cambien informaciones de manera horizontal, fortalecen acciones junto a las plataformas digitales y sus políticas de uso. Por fin, ayudan a identificar cómo las redes de desinformación pueden funcionar, para que de esa manera puedan combatir su multiplicación utilizando esas técnicas.

Esa iniciativa también está alineada a White Paper “Recomendaciones Sistémicas para combatir a la desinformación en las elecciones de Brasil”, realizado por el Instituto Equidad & Tecnología (IT&E).

En el tema 5 del documento, se encuentra la información: CREAR NUEVOS CICLOS DE FEEDBACK DE AJUSTE - en Recomendaciones 2019-2020. En ese tema, el Instituto considera " Demanda a la Autoridad y a los Institutos de Investigación: desarrollo de tecnologías libres para la detección de robots, perfiles falsos, haters y desinformación" un ponto de apalancamiento al combate a los desequilibrios presentados en el sistema electoral.

No hay estudios definitivos sobre algoritmos de detección de bots y ningún método está exento de errores. En este sentido, la inteligencia colectiva y la posibilidad de colaboración son los mejores caminos para que podamos mantener nuestra herramienta actualizada y eficaz. Puedes colaborar de diversas formas, míralo acá.

¿Quién financia Atrapabot?

ATRAPABOT está financiado por la Unión Europea, a través del proyecto “Exposing Bot Disinformation in Brazil”, seleccionado en el alcance de la convocatoria “Instrumento para la Democracia y Derechos Humanos” lanzado en 2018. Trás haber sido sometido a un riguroso procceso de evaluación, el proyecto ha sido elegido para recibir recursos para desarrollarse. Además, la versión en español de la herramienta, “Atrapabot”, ha sido finanaciada por National Democratic Institute a tarvés de una convocatoria.

Antes de obtener ese financiamiento, el proyecto ha sido costeado de manera independiente, a partir de recursos proprios del Instituto de Tecnología y Sociedad de Río de Janeiro (ITS Rio) y del Instituto Equidad & Tecnología .

¿Qué significan los resultados?

El algoritmo de Atrapabot utiliza informaciones públicas de los perfiles en Twitter para realizar sus análisis. El objetivo es identificar características que ayuden a determinar si el perfil es más o menos bot. En este momento, Atrapabot se basa en los patrones de comportamiento para identificar la probabilidad de que un determinado perfil sea utilizado por un humano o por un robot. Utilizamos los siguientes criterios:

  • Perfil de Usuario : Algunas de las informaciones públicas de los perfiles consideradas en el análisis de Atrapabot son: el nombre del perfil de usuario y cuantos caracteres posee, la cantidad de perfiles seguidos (following) y seguidores (followers), texto de la descripción del perfil, número de publicaciones (tuits) y favoritos. Elementos como la ausencia de imagen de perfil y descripción, por ejemplo, incrementan la probabilidad de que la cuenta sea un robot.
  • Número de Tuits: Perfiles que tuitean mucho en un breve intervalo de tiempo reciben una calificación mayor, una vez que este comportamiento se asemeja al comportamiento de los bots. Un breve intervalo de tiempo entre cada publicación, 2 segundos por ejemplo, puede indicar que ésta ha sido realizada por un robot. La frecuencia y la aletoriedad en el tiempo que se suben las publicaciones también señalan características de comportamiento: publicaciones subidas siempre en el mismo horario, a las 10 de la mañana, por ejemplo, pueden haber sido realizadas por un robot.
  • Red:El algoritmo de AtrapaBot recopila una muestra de línea del tiempo, identificando hasgtags utilizados y menciones al perfil, para realizar sus análisis. El objetivo es identificar caracteristicas de distribución en la red de la cuenta analizada.
  • Análisis de sentimiento: Los algoritmos de Atrapabot seleccionan una muestra de hasta los 100 tuits más recientes publicados por el perfil analizado. El objetivo es identificar palabras que hacen con que la publicación del usuario sea más o menos negativa (sentimiento).

Para una explicación completa a cerca de los criterios, accede a la página Transparencia.

¿Cómo debería interpretar los resultados?

Cuanto mayor la calificación, mayor la probabilidad de ser un bot. Cada perfil investigado ocupa una zona del medidor: morada, amarilla o verde. Si el perfil de búsqueda está en la zona morada, la probabilidad de que sea un bot (bot-likeness) es alta. Muchos resultados se clasifican en la zona amarilla, lo que significa que existen elementos suficientes para que se sospeche de la utilización de automatización, pero en menor nivel. En este caso, puede ser que sea un perfil usado con poca frecuencia, que tenga un uso humano muy repetitivo o que sea un perfil institucional que utiliza plataformas para programar tuits. Si es verde, probablemente es humano, o sea, el índice de comportamiento similar al de un robot (bot-likeness) es bajo.

¿Cómo puedo evaluar el resultado?

Al tener un indicador de que una cuenta puede ser o no un bot, es importante que hagas un análisis subjetivo del perfil que intentas analizar. Esto incluye analizar los posibles fines que el detemrinado perfil intenta alcanzar, la forma como hace búsquedas en la red (si sólo retuitea, por ejemplo, puede ser un indicador de comportamiento semajante a de un robot) . Si identificas que el perfil sólo funciona para divulgar mensaje de otra persona o que en general existe para atacar a alguién o a un grupo específico, se incrementan las posibilidades de que ese perfil sea un bot. En ese caso, es valedero cuestionarse sobre los posibles beneficiarios de la acción de ese bot, si el perfil realmente es un bot, y por qué la persona beneficiada se está utilizando de ese recurso. Si es un político, por ejemplo, le pregunte directamente si sabe que hay un bot trabajando para él y si cree correcta la manera que el bot se comporta.

¡El resultado está incorrecto!

La precisión de los resultados es un punto de perfeccionamiento continuo. De toda manera, puedes presentar ese error para que nuestro equipo lo analice y lo corrija. Dicho eso, detectar bots de hecho es una tarea compleja (si fuera sencillo las empresas de medios sociales ya habrían solucionado todo el problema). Nuestra plataforma trabaja reconociendo patrones comportamentales. Por lo que los resultados deben servir para complementar, no para sustituir tu propia opinión. Descubre cómo reportar um error en los análisis de AtrapaBot acá.

¿No has encontrado una respuesta a tu pregunta?

Contáctanos para que puedas obtener detalles sobre el proyecto y sacar dudas específicas.

Ponerse en contacto