El ataque de los bots en Chile

  1. Introducción.

Se ha especulado en relación al uso de botnets en Chile para desinformar y condicionar a la opinión pública, en el contexto de los sucesos que están acaeciendo desde el 18 de octubre. Se ha planteado que esto formaría parte de una operación desde el extranjero, para contribuir a derrocar al gobierno e implantar una agenda específica.

Por un lado esto se ha calificado como paranoia ridícula, por otro, tal posibilidad se considera un intervencionismo inaceptable. Ante esto, es interesante plantearse si quienes utilizan tales argumentos saben qué es una botnet, si efectivamente se pueden usar para persuadir y cuán fácil o difícil es detectarlas.

De eso se trata esta columna.

  1. ¿Qué son los bots y las botnets?

Los bots son software para controlar autónomamente cuentas de redes sociales, para realizar ciertas tareas como generar mensajes o interactuar con otras cuentas. Cuando varios de ellos (pueden ser desde algunos pocos hasta cientos o miles) son programados para interactuar entre sí con un fin específico, se da forma a una red de bots o botnet.

Los bots y las botnets pueden hacer que ciertos hashtags, palabras, temas o usuarios parezcan con una mayor preponderancia de la que realmente tienen. Como toda tecnología, pueden usarse para fines inocuos como campañas de marketing, para dar noticias e incluso para difundir mensajes inofensivos; pero, también para atacar o desinformar con el propósito de amplificar contenidos, normalizar temas, distorsionar el debate, crear narrativas y manufacturar el consenso.

Ahora bien, independiente de los fines, la ventaja de usar bots es que estos actúan permanentemente y son muy rápidos, por lo que pueden generar un volumen enorme y constante de contenido. Es por eso que en Twitter, por ejemplo, se observan bots programados para retuitear el contenido de una cuenta específica, así como otros para replicar tuits con palabras o hashtags específicos.

En el contexto de una campaña de desinformación con fines políticos, las botnets son útiles para la repetición y persistencia de un contenido, lo que contribuye a su amplificación, repetición y persistencia; elementos claves de la persuasión. Su fin último es convencer personas, aprovechando el poco juicio crítico que la gran mayoría de los usuarios de RR.SS. demuestra al interactuar con estas tecnologías.

  1. ¿Se han estado usando botnets para manipular a las personas en Chile? [1]

En el contexto de los sucesos que han afectado al país en las últimas semanas, son pocos los análisis que han abordado con objetividad la posibilidad del empleo de botnets manipulados desde el extranjero con fines de persuasión manipulativa, uno de ellos es el trabajo de Tomás Pollak (2019) publicado en Twitter.

En base a la selección de los hashtags que él consideró más relevantes[2], Pollak identificó 441 usuarios que los mencionaron tres o más veces, creando una base de datos con el “ID, la fecha de creación de la cuenta, la ubicación, el número de seguidores y tuits, y varias cosas más” (Pollak, 2019).

Una de las primeras conclusiones que planteó es que la mayoría de las 441 cuentas son chilenas, aspecto que él mismo señala como un dato no muy revelador en consideración a que un usuario puede registrar el país y ciudad que prefiera y, además, cambiarlo en cualquier momento.

Luego hace un análisis cualitativo analizando el contenido de los tuits, señalando que el uso de los hashtags no necesariamente indica un contenido a favor de las marchas.

En cuanto al idioma, indica que las cuentas extranjeras que utilizaron los hashtags seleccionados lo hacían en su idioma nativo y no en español, por lo cual no tendrían el fin de generar contenido dirigido a las audiencias en Chile. Por otro lado, agrega que “la gran mayoría de los extranjeros tuitea inglés” por lo que no puede atribuirse “al aparato venezolano o ruso”.

En resumen, Pollak concluye que con los datos que analizó no hay evidencia de intervención extranjera ni presencia de una botnet con fines de persuasión manipulativa en Twitter, porque de los 441 usuarios que analizó menos del 1% parecen originarse de Rusia o Venezuela, ese poco de cuentas no dan para formar una botnet, la mayoría son de habla hispana y casi todos los usuarios extranjeros que usaban los hashtags lo hacían en inglés.

  1. ¿Se puede hacer más para detectarlos[3]?

Es posible detectar algunos patrones de comportamiento que permiten identificar la actividad de bots y la presencia de botnets. Pueden usarse herramientas automatizadas sofisticadas y gratuitas, contratar servicios o hacer un trabajo algo más artesanal que combina software y capacidad de análisis; sin embargo, hay que tener claro que una cosa es detectar bots, otra es detectar botnets, otra es identificar una campaña de desinformación y muy distinto a lo anterior es atribuir estas a un actor determinado o asumir las intenciones detrás; para esto último se necesitan buenos analistas humanos con experiencia y conocimientos pertinentes.

Una de las características más evidente de un bot es, aunque suene obvio, que no se trata de una persona, por lo que cualquier actividad que indique un comportamiento no humano o automatización, dará cuenta de su presencia; por ejemplo, un alto volumen de actividad en muy poco tiempo o permanente actividad nocturna son indicios de automatización.

Como ya se ha dicho, en una campaña de desinformación los bots son utilizados como medio de propaganda para la amplificación de contenidos; por lo mismo, una cuenta que solo retuitea contenido de otras cuentas o que publica periódicamente contenido copiado literalmente de otros medios es probablemente un bot.

Por otro lado, si esa cuenta publica contenidos y recibe una cantidad similar de likes y retuit es probable que además forme parte de una botnet. Es por eso que la repetición de contenido, por lo general de manera textual y simultánea en varias cuentas, es indicio de una botnet.

Una cuenta sin identidad es sospechosa, pues el anonimato es otro de los indicadores de una cuenta bajo control de un bot; sin embargo no siempre es así porque muchas personas usan cuentas ocultando su identidad. Es interesante aquí mencionar a los cyborgs, personas que combinan su gestión personal de la cuenta, con aplicaciones que realizan parte de las actividades más rutinarias.

En general, mientras menos datos personales presenta una cuenta, más probabilidad hay que sea un bot, si además la cuenta sospechosa sigue, es seguida o replica contenido de muchas otras cuentas con las mismas características de anonimato, lo más probable es que formen parte de una botnet. Otras características que a veces presentan las cuentas bots son el uso de fotos de perfil de otras personas, nombres que combinan aleatoriamente caracteres o  incoherencias entre sus datos de perfil.

El idioma no es problema para un bot y el hecho que publique en varios de ellos puede ser otro de los indicadores que los delate; hay que recordar que su uso busca llegar a audiencias amplias y diversas, por lo que al hacerlo en varios idiomas se contribuye a ese objetivo. Esto tampoco debe descartarse en una campaña de desestabilización, ya que en ellas uno de los fines buscados es producir desprestigio o presión internacional sobre el país que sufre tal campaña.

Uno de los indicadores más interesantes en Twitter es el de la alta efectividad de cuentas poco activas o de poca interacción. Por ejemplo, si una cuenta tiene pocos seguidores o poca actividad, pero aun así sus contenidos son replicados muchas veces, más de lo esperable, es probable que no solo dicha cuenta sea un bot, sino que además forme parte de una botnet.

Finalmente, aun cuando la ubicación en una cuenta de Twitter puede ser cambiada muy fácilmente, si la botnet tiene el objetivo de influenciar a las personas de un lugar en particular, probablemente sus creadores registrarán muchas cuentas bots asociadas a ese lugar, para así dar más credibilidad a sus contenidos y aumentar el grado de compromiso con las cuentas locales.

  1. Conclusiones

Bots y botnets son herramientas de uso habitual en RR.SS. y, por lo tanto, lo más seguro es que si se estén usando, y mucho, en el contexto de la actual crisis en Chile.

Se concuerda con Pollak (2019) que con los datos que él aporta, no se puede confirmar el uso de estos mecanismos para persuasión manipulativa en esta crisis.

Sin embargo, tampoco bastan para descartarlo, pues eso requiere el análisis de aspectos como la automatización de las actividades, la intensidad de las relaciones entre cuentas u otros indicados en la sección 4.

Gracias por visitar el blog.

Notas:

[1] El autor agradece a Tomás Pollak la revisión de esta sección.

[2] Los hashtags los seleccionó utilizando la herramienta Get Days Trends (https://getdaytrends.com/), para el período del 19 al 26 de octubre, agregando otros que le parecieron pertinentes.

[3] Para esta sección se utilizaron como referencia una serie de artículos publicados en el sitio del Digital Forensic Research Lab de Atlantic Council.

Bibliografía y referencias:

Bandeira, L.; Ponce de León, E. (2019). Is this granny a bot? The challenges of detecting automation. Atlantic Council´s Digital Forensic Research Lab. Obtenido el 3 de noviembre de 2019 desde https://medium.com/dfrlab/is-this-granny-a-bot-the-challenges-of-detecting-automation-115a2082b410

Barojan, Donara. (2018). #TrollTracker: Bots, Botnets, and Trolls. Atlantic Council´s Digital Forensic Research Lab. Obtenido el 3 de noviembre de 2019 desde https://medium.com/dfrlab/trolltracker-bots-botnets-and-trolls-31d2bdbf4c13

Morgus, R. Fonseca, B. Green, K. Crowther, A. (2019). Are China and Russia on the cyber Offensive in Latin America and the Caribbean? New America y Florida International University. Obtenido el 6 de noviembre de 2019 desde newamerica.org/cybersecurity-initiative/reports/russia-china-cyber-offensive-latam-caribbean/

National threat intelligence consortium. (2019). How to Detect Disinformation Campaigns. Product N°2019-05-047. Disponible el 9 de noviembre 2019 en https://docs.wixstatic.com/ugd/b19005_e34595bd95724c97ac6bc18538124b12.pdf

Nimmo, B. (2017). #BotSpot: Twelve Ways to Spot a Bot. Atlantic Council´s Digital Forensic Research Lab. Obtenido el 3 de noviembre de 2019 desde https://medium.com/dfrlab/botspot-twelve-ways-to-spot-a-bot-aedc7d9c110c

OSOME. (2019). BotSayer. Observatory on Social Media at Indiana University. Obtenido el 9 de noviembre de 2019 desde https://osome.iuni.iu.edu/tools/botslayer/

Pollak, Tomás [@tomaspollak]. (2019, Noviembre 1). Acabo de terminar de recopilar los tweets asociados a los hashtags más importantes de las protestas, desde que empezó todo hasta el 26 de Octubre. Ahora veremos si es cierto lo de Venezuela o Rusia. [Twitter post]. Recuperado de https://twitter.com/tomaspollak/status/1190328763202101249

Shaffer, Kris. (2017). Spot a Bot: Identifying Automation and Disinformation on Social Media. Data for democracy. Obtenido el 3 de noviembre de 2019 desde https://medium.com/data-for-democracy/spot-a-bot-identifying-automation-and-disinformation-on-social-media-2966ad93a203

2 Comentarios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s