
Facebook está construyendo una plataforma oculta, sólo para bots, para aprender sobre los trolls y estafadores.
No hay «interacciones inesperadas» entre los robots y los humanos
Facebook quiere evitar que la gente abuse de su sistema, así que está haciendo un mundo de robots que pueden imitarlos. Los investigadores de la compañía han publicado un artículo sobre una «Simulación habilitada para la web» (WES) para probar la plataforma – básicamente un Facebook en la sombra donde los usuarios inexistentes pueden gustar, compartir y hacer amigos (o acosar, abusar y estafar) lejos de los ojos humanos.
Facebook describe la construcción de una simulación a escala y tapiada de su plataforma poblada por usuarios falsos que modelan diferentes tipos de comportamiento real. Por ejemplo, un robot «estafador» puede ser entrenado para conectarse con bots «objetivo» que exhiben comportamientos similares a los de las víctimas de estafas de Facebook en la vida real. Otros bots podrían ser entrenados para invadir la privacidad de los usuarios falsos o buscar contenido «malo» que rompa las reglas de Facebook.
Las simulaciones de software son obviamente comunes, y Facebook está expandiendo una herramienta de pruebas automatizadas llamada Sapienz. Pero llama a los sistemas WES distintos porque ponen a muchos bots sueltos en algo muy cercano a una plataforma de medios sociales real, no una maqueta que imita sus funciones. Mientras que los bots no hacen clic en una aplicación o página web literal, envían acciones como solicitudes de amistad a través del código de Facebook, activando el mismo tipo de procesos que un usuario real haría.
Eso podría ayudar a Facebook a detectar errores. Los investigadores pueden crear usuarios de WES cuyo único objetivo es robar información de otros bots, por ejemplo, y liberarlos en el sistema. Si de repente encuentran maneras de acceder a más datos después de una actualización, eso podría indicar una vulnerabilidad para que los estafadores humanos la exploten, y ningún usuario real se vería afectado
BOT ESTAFADOR, CUMPLE CON EL BOT OBJETIVO
Algunos bots podían tener acceso de sólo lectura al «verdadero» Facebook, siempre y cuando no accedieran a datos que violaran las reglas de privacidad. Entonces podrían reaccionar a esos datos en una capacidad de sólo lectura. En otros casos, sin embargo, Facebook quiere construir un gráfico social paralelo completo. Dentro de esa red falsa a gran escala, pueden desplegar «bots totalmente aislados que pueden exhibir acciones y observaciones arbitrarias», y pueden modelar cómo los usuarios podrían responder a los cambios en la plataforma – algo que Facebook a menudo hace desplegando pruebas de manera invisible a un pequeño número de personas reales.
Sin embargo, los investigadores advierten que «los bots deben estar adecuadamente aislados de los usuarios reales para asegurar que la simulación, aunque se ejecute en el código de la plataforma real, no conduzca a interacciones inesperadas entre los bots y los usuarios reales».
Facebook llama a su sistema WW, que el Protocolo plausiblemente coloca como una abreviatura de «WES World». Pero como esa frase lo deja claro, Facebook no está construyendo el mundo occidental aquí en absoluto. Está haciendo un simulacro: un mundo de unidades de personalidad artificial diseñadas para enseñarnos más sobre nosotros mismos. Mientras que los investigadores presumiblemente están limitando estas interacciones por el bien de los usuarios reales, también están ayudando a prevenir cualquier crisis existencial catastrófica entre los bots. Lo cual es muy cortés, porque si estás construyendo un falso universo lleno de seres diminutos que no conocen su verdadera naturaleza, básicamente has garantizado que estás protagonizando un remake de World on a Wire y viviendo en una simulación tú mismo.