MENLO PARK, California.- En un rincón del enorme complejo de Facebook en Silicon Valley, una puerta tiene un cartel que dice “War Room”. Detrás de esa puerta se encuentra el comando central desde el cual la red social se propone detectar cuentas y noticias falsas en la antesala de las elecciones de mitad de término en Estados Unidos.

Decenas de empleados miran fijamente sus computadoras mientras circula información por un tablero gigantesco. En las paredes hay pósters como los que usa Facebook, para recordar cosas importantes a sus empleados. Uno dice, “Para Facebook, nada es problema de otros”.

Ese lema puede sonar irónico, dado que ese comando fue creado para contrarrestar amenazas que casi nadie en la empresa, y menos que nada su director ejecutivo Mark Zuckerberg, tomaron en serio hace dos años. Y que para algunos representan una amenaza para la democracia.

Días después de la sorpresiva victoria de Donald Trump en las elecciones presidenciales del 2016, Zuckerberg desestimó denuncias de que en el resultado habían incidido noticias ficticias difundidas por Facebook. Describió esa idea como algo “bastante loco”.

Pero la actitud de Facebook fue cambiando a medida que llovían las críticas de todos lados, incluido el Congreso. Ese mismo año, admitió haber encontrado miles de avisos con información falsa, colocados por agentes rusos. Zuckerberg decidió finalmente que corregir esos problemas iban a ser su prioridad del 2018.

El “war room” es parte de esa campaña. Su tecnología se nutre del sistema de inteligencia artificial que Facebook usa para identificar posts “inauténticos” y analizar el comportamiento del usuario. Facebook permitió a la Associated Press y a otros medios dar un vistazo rápido a su comando central antes de las elecciones del 28 de octubre en Brasil y de las del 6 de noviembre en Estados Unidos.

“No hay sustituto para el contacto físico, en el mundo real”, dijo Samidh Chakrabarti, director de una unidad abocada a las elecciones. “Lo más importante que hemos aprendido es lo efectivo que resulta tener a la gente en una misma sala”.

Una veintena de equipos coordinan los esfuerzos de más de 22.000 personas --en su mayoría contratistas-- que tienen la misión de bloquear toda noticia y cuenta falsas y evitar otros abusos en Facebook y sus otros servicios. Como parte de la campaña, Facebook contrató personal para verificar la veracidad de la información, incluida la AP, el cual puede vetar noticias se aparecen en la red social.

Facebook dice que su “war room” y otras iniciativas de vigilancia del contenido que circula detectaron 1.300 millones de cuentas falsas en el último año y eliminaron cientos de páginas creadas por otros gobierno y elementos empeñados en generar confusión.

No está claro si Facebook está haciendo lo suficiente, según Angelo Carusone, presidente de Media Matters For America, una organización liberal que está pendiente de las informaciones falsas. Señaló que la información sensacionalista falsa puede mantener a la gente pegada a Facebook, lo que a su ver le permite a la red atraer más avisos, que son su principal fuente de ingresos.

“Pareciera que lo que están haciendo es tratar de prevenir otro fiasco en el campo de las relaciones públicas y no necesariamente buscar soluciones importantes al problema”, opinó Carusone. “En términos generales, diría que les falta mucho”.

No se sabe demasiado acerca del comando central y de su funcionamiento como para decir si realmente ayuda a Facebook a detectar y bloquear mejor el contenido indeseado o si es simplemente “una sala de conferencias temporal con un montón de computadoras”, expresó Molly McKew, investigadora de New Media-Frontier, que estudia el flujo de contenido en las redes sociales.

McKew cree que Facebook enfrenta un dilema cuando encuentra contenido que sabe es sospechoso “porque mantiene a la gente en su plataforma al generar una respuesta emocional. Les gustan las cosas controversiales. Siempre tendrán que pensarlo mucho a la hora de retirar contenido radical, loco, porque es lo que le gusta a la gente, lo que quieren”.

Facebook asegura que su “war room” es una herramienta efectiva contra la desinformación, por más que todavía no funcione a plenitud. Chakrabarti, por ejemplo, admitió que algunos “virus” le impidieron a Facebook tomar ciertas medidas no especificadas para evitar manipulaciones en la primera ronda de las elecciones presidenciales brasileñas a comienzos del mes. No dio más detalles.

El “war room” se concentra en estos momentos en la segunda ronda de los comicios brasileños y en las elecciones de mitad de término de Estados Unidos. En las paredes hay banderas de Brasil y Estados Unidos con los horarios de ambos países.

Facebook no permitió a los periodistas visitantes observar las pantallas de las computadoras de sus empleados y pidió que no se mencionase en sus notas parte del equipo que hay allí. Cuando están de turno, los empleados salen del salón solo para ir al baño o buscar comida, que comen en sus escritorios.

Es posible que el “war room” pase a ser algo permanente, según Katie Harbath, directora de política mundial y contactos con gobiernos de Facebook.

“Es como una carrera armamentística constante”, manifestó. “Esto es lo normal ahora”.