FAQ

¿Qué es un Twitter bot?

Un Twitter bot es una cuenta controlada por un algoritmo o script y se utiliza normalmente para realizar tareas repetitivas. Algunas de las tareas pueden ser, por ejemplo, retuitear contenido con palabras clave particulares, responder a nuevos seguidores y enviar mensajes directos a nuevos seguidores. Twitter bots más complejos pueden participar en conversaciones en línea y, en algunos casos, tienen un comportamiento muy parecido al humano. Las cuentas bot comprenden entre el 9 y el 15% de todas las cuentas activas en Twitter. Otros estudios indican que este porcentaje puede ser aún mayor debido a la dificultad de identificar los bots complejos. Los bots de Twitter generalmente no se crean con intención maliciosa: a menudo se utilizan para mejorar la interacción en línea o en la prestación de servicios por empresas, gobiernos y otras organizaciones, por lo que es importante separar los buenos bots de los malos.

O que são trollbots?

O termo troll, em inglês, significa aquele que “trolla” alguém, ou seja, publica conteúdo não relacionado à uma discussão, causa um desentendimento, inflama essa discussão ou mesmo ataca diretamente um usuário na rede. Os trollbots, então, são um tipo de bot, muitas vezes controlado por humanos, que atua nas redes sociais com o objetivo específico de “trollar” alguma pessoa, perfil, marca, empresa, figura pública, causando discórdia, manipulação de discurso e incitando violência.

¿Atrapabot funciona con todas las redes sociales?

Por ahora no. En este primer lanzamiento, solamente tenemos acceso a Twitter. Facebook, WhatsApp y otras redes sociales imponen más barreras de acceso a la API, por lo que todavía estamos trabajando para que las próximas versiones de Atrapabot estén integradas a otras plataformas.

¿Quién desarrolla Atrapabot

Atrapabot (PEGABOT) ha sido desarrollado por el Instituto de Tecnología & Equidad (IT & E) y el Instituto de Tecnología y Sociedad de Río de Janeiro (ITS Rio). Para los análisis no lingüísticos utilizamos la API de Botometer, un proyecto desarrollado entre Indiana University Network Science Institute (IUNI) y el Center for Complex Networks and Systems Research (CNetS). La marca, así como los códigos fuente de la API, son propiedad de IUNI y CNetS y Atrapabot no tiene acceso ni proporciona ninguna parte del código propietario en nuestro repositorio público de github. Nuestro repositorio contiene SOLAMENTE LOS CÓDIGOS FUENTE REFERENTES A LA CAMA DE FRONT-END de Atrapabot, el cual puede ser libremente estudiado, alterado, distribuido y utilizado para cualquier fin.

NUESTRAS EVALUACIONES DE PERFILES ROBOTS UTILIZAN LOS RESULTADOS OBTENIDOS A TRAVÉS DEL SERVICIO OFRECIDO POR EL SERVICIO BOTOMETER, PERO NO SE LIMITARÁ a ellos PARA PRESENTAR EL RESULTADO FINAL, PODIENDO INCLUIR NUEVOS CRITERIOS Y AJUSTAR LOS RESULTADOS DE CONFORMIDAD CON EL CONTEXTO REGIONAL Y LINGÜÍSTICO.

Por que é importante um sistema de detecção de bot ser construído em software livre?

Os sistemas em software livre concedem ao usuário a liberdade de modificar um código. Entendemos que ter um código aberto permite a participação da sociedade na sua construção e melhoria como forma de produzir um conhecimento mais democrático às tecnologias livres. Além de possibilitar que as pessoas troquem informações de forma horizontal, fortalece ações junto às plataformas digitais, suas políticas de uso e principalmente como redes de desinformação podem funcionar com uso dessas técnicas.

Essa iniciativa também está alinhada ao White Paper “Recomendações Sistêmicas para combater a desinformação nas eleições do Brasil”, realizado pelo Instituto Tecnologia e Equidade (IT&E).

No tópico 5 do documento, há a informação: CRIAR NOVOS CICLOS DE FEEDBACK DE AJUSTE - em Recomendações 2019-2020. Nesse item, o Instituto acredita que “Demandar das Academias e dos Institutos de Pesquisa: desenvolvimento de tecnologias livres para detecção de robôs, perfis falsos, haters e desinformação” é um ponto de alavancagem ao combate dos desequilíbrios apresentados no sistema eleitoral.

Não há estudos definitivos sobre algoritmos de detecção de bots e nenhum método é isento de falhas. Neste sentido, a inteligência coletiva e a possibilidade de colaboração são os melhores caminhos para mantermos nossa ferramenta atualizada e eficaz. Você pode colaborar de várias formas, veja como aqui.

¿Quién financia Atrapabot?

Atrapabot (PEGABOT) es una iniciativa del Instituto Tecnología y Sociedad de Río y del Instituto Tecnología & Equidad. Ambas organizaciones vienen utilizando recursos propios para el desarrollo de ese proyecto, por entender que la puesta a disposición de una herramienta como ésta es fundamental para la democracia latinoamericana. Si también desea apoyar el proyecto, escriba a doacoes@PEGABOT.com.br. Para su versión en español, Enjambre Digital y el proyecto Openlabs se han ocupado de apoyar la habilitación.

¿Qué significan los resultados?

Atrapabot analiza el historial de mensajes del perfil de la red social que usted solicita analizar. En este momento Atrapabot se basa en patrones de comportamiento para identificar si es más probable que un humano utilice ese perfil o un robot. Los criterios para hacer esta evaluación son el intervalo de tiempo entre cada entrada (un intervalo pequeño entre cada entrada, 2 segundos por ejemplo, pueden indicar que la entrada fue hecha por un robot); la frecuencia y la aleatoriedad en el tiempo en que se efectúan las entradas (las entradas hechas siempre a la misma hora, a las 10 de la mañana, por ejemplo, pueden haber sido hechas por un robot); y la personalidad dada a los textos publicados (textos repetidos o extraídos de otras publicaciones, preformateadas, son un indicativo de haber sido hecho por un robot). Con base en el promedio general de las entradas del perfil, Atrapabot da una calificación, que indica la probabilidad de que ese perfil sea o no un robot.

Características para la identificación de bots
Contenido (publicaciones) Se basa en claves lingüísticas a través del procesamiento del lenguaje natural. Incluye frecuencia de verbos, sustantivos y adverbios en los tuits. El sistema analiza la longitud y la entropía del contenido del tuit. Los mensajes engañosos generalmente exhiben un lenguaje informal y frases cortas.
Sentimiento (emocional) Se extraen los diversos estados emocionales a partir del análisis de sentimiento de los tuits. Un humano suele expresar una variedad de estados emocionales, mientras un bot no.
Usuario Las características del usuario están basadas en metadatos relacionados con la cuenta. Esto datos incluyen el número de amigos y seguidores, el número de tuits producidos por los usuarios, la descripción del perfil y las configuraciones de la cuenta (lenguaje, ubicación, momento de creación de la cuenta).
Amigos Incluye estadísticas relativas a los contactos sociales, como la media, los momentos y la entropía de la distribución del número de seguidos, seguidores y posts. Se analizan las relaciones seguido-seguidores, los retuits y las menciones. Para cada campo se extraen las características sobre el uso el lenguaje, tiempo local, popularidad.
Red La estructura de la red muestra varias dimensiones de los patrones de difusión de la información. El sistema reconstruye tres tipos de redes: retuits, menciones y co-ocurrencia de hashtags. Todas las redes se pesan de acuerdo con la frecuencia de la interacción o las co-ocurrencias.
Tiempo La característica del tiempo captura los patrones relacionados con la actividad del usuario. Incluye el periodo promedio en la generación de contenido (tuits) y el consumo (retuits), el tiempo entre dos publicaciones.

Ferrara, E., Varol, O., Davis, C., Menczer, F. & Flammini, A. (2016) The Rise of Social Bots. Communications of the ACM. DOI: 10.1145/2818717.

Varol, O., Ferrara, E., Davis, C., Menczer, F. & Flammini, A. (2017). Online Human-Bot Interactions: Detection, Estimation, and Characterization. arXiv preprint arXiv:1703.03107.

¿Cómo debería interpretar los resultados?

Cuanto mayor es la calificación, mayor es la probabilidad de que la cuenta sea un bot. Cada perfil investigado ocupa una zona del medidor: morada, amarilla o verde. Si el perfil de búsqueda está en la zona morada, la probabilidad de que sea un bot es alta. Muchos resultados se clasifican en la zona amarilla, lo que significa que existen elementos suficientes para sospechar el uso de bots, pero en menor nivel. Puede ser también que sea un perfil usado con poca frecuencia o un uso humano muy repetitivo. Si es verde, probablemente es humano.

¿Cómo puedo evaluar el resultado?

Al tener un indicador que una cuenta puede ser o no un bot, es importante que usted haga un análisis del perfil que está tratando de analizar. Esto quiere decir que es necesario que compruebe los posibles fines que el determinado perfil está tratando de alcanzar. Si usted identifica que el perfil solamente sirve para divulgar el mensaje de otra persona o que la mayoría de las veces este perfil existe para atacar a alguien o a un grupo específico, se incrementan las posibilidades de que ese perfil sea un bot. En ese caso, vale cuestionarse sobre los posibles beneficiarios de la acción de ese bot si el perfil realmente es un bot y por qué la persona beneficiada está utilizando de ese recurso. Si es un político, por ejemplo, pregunte directamente al político si él sabe que hay un bot trabajando para él y si él cree correcto el comportamiento que el bot está teniendo.

¡El resultado es incorrecto!…

Atrapabot se encuentra en fase piloto. La precisión de los resultados mejorará con el tiempo. En breve, podrá enviar los errores para ser analizados y corregidos. Dicho esto, detectar bots es incluso una tarea difícil (si fuera fácil, las empresas de medios sociales ya habrían solucionado todo el problema). Nuestra plataforma funciona reconociendo patrones de comportamiento. Por eso, los resultados deben servir para complementar, y no sustituir, su propia opinión.

Não encontrou uma resposta para sua pergunta?

Entre em contato conosco para obter detalhes sobre o projeto e para tirar suas dúvidas personalizadas.

Entrar em contato