Las intimidades de un apagón catastrófico
WhatsApp dejó de funcionar a las 12,39 del lunes último. Media hora después, se nos encendieron todas las alarmas; al parecer estábamos frente a un incidente grave
- 5 minutos de lectura'
Una cobertura casi nunca empieza en el momento en que ocurre un hecho noticioso. Empieza antes. En ocasiones, mucho antes. El conglomerado Facebook-WhatsApp-Instagram sufrió el lunes último un catastrófico corte de siete horas. Y, les guste o no a estos colosos de apariencia infalible, la cuestión nunca es si un incidente así puede ocurrir, sino cuándo va a ocurrir.
Eso era lo que tenía en mente en 2016, cuando me reuní a tomar un café con un alto ejecutivo de Facebook. El hombre, de paso por la Argentina, me preguntó, en un momento, cómo podía la compañía ayudarme en mi trabajo. Una pregunta de rigor, siempre la hacen.
–¿Dime, Ariel, tú qué necesitas?
–Un número –le respondí, y se hizo un largo silencio.
De suyo, la relación entre un periodista y estos gigantes informáticos está teñida de una suave (y diría que sana) tensión. Por lo tanto, mi enigmática respuesta causó cierta perplejidad.
–Necesito un número –insistí–. Tu número. Y me gustaría explicarte por qué. Tarde o temprano, Facebook va a tener un problema, uno muy grande, a escala mundial, y en ese caso voy a necesitar llamarte por teléfono. Tengo a quién llamar en IBM, Microsoft, Google, Intel, y muchos más, pero no en Facebook.
Rápido de reflejos, el ejecutivo le pidió a su asistente que me pasara ahí mismo su celular. Seis meses después, explotó el escándalo de Cambridge Analytica, que le costaría a Mark Zuckerberg una visita al Congreso estadounidense, y esa fue la primera vez que llamé a ese ejecutivo, y, nobleza obliga, debo decir que me atendió de inmediato. LA NACION fue el único medio de la Argentina que habló con Facebook en esa ocasión.
La siguiente vez fue el lunes pasado. Las plataformas como WhatsApp, Facebook e Instagram pueden cortarse durante unos minutos, es normal y no tiene sentido salir corriendo detrás de cada síntoma. Pero luego de media hora se me encendieron todas las alarmas y volví a llamar a ese teléfono. Solo que ahora no me atendió. Tres minutos después se comunicaron de Facebook para explicarme que no me había atendido porque estaba en una reunión, y que todavía no tenían ninguna información para darme sobre el incidente. Así que teníamos un incidente, estaba confirmado.
Ahora, si teníamos un incidente, teníamos una noticia. Si teníamos una noticia, teníamos una nota, y en esa nota debía sugerirse la causa más probable del corte. El problema es que ninguna fuente, ni siquiera un ejecutivo de alto rango, puede responder algo así tan pronto. Las infraestructuras de estos gigantes están entre las más complejas que haya creado la civilización. De modo que no debía esperar una respuesta. Con todo, me hicieron saber que eran conscientes del pedido del diario. “Sos el primero en la lista”, me escribieron.
No importaba si era cierto. Son las reglas del juego; ahora estaba solo, y cuando escribiera la nota para el diario, cuando saliera en LN+ o me llamaran de las radios, me iban a preguntar: “¿Qué pasó con WhatsApp?” Por supuesto, es lícito responder con un “todavía no se sabe”. Pero el lector espera más, porque sospecha –con razón– que los ingenieros de Facebook ya tienen un culpable en la mira. Solo que a Facebook le llevaría al menos 24 o 48 horas confirmar y comunicar las causas del incidente. En un diario no hay tanto tiempo.
Cuatro días antes, me habían preguntado en la tele por un apagón de internet que supuestamente ocurriría el 30 de septiembre. Anticipé que no iba a pasar nada grave. Y, en efecto, no hubo tal apagón. La forma en que llegamos a estas respuestas hipotéticas que a la vez deben ser lo más acertadas posible es uno de los aspectos menos conocidos de la cobertura de un incidente tecno. Cierto, hablás con gente del ambiente, te dan ideas, cambiás figuritas, mirás métricas, lees papers, pero a la hora de cierre hay que tomar una decisión. De todos los sospechosos, ¿cuál era el culpable más verosímil? ¿El sistema de nombres de dominio (DNS)? ¿Una red de distribución de contenidos (CDN)? ¿El Border Gateway Protocol (BGP)? ¿Una ruta anómala propagada por los sistemas autónomos (algo que pasó en 2009)? ¿Un ataque informático?
Imposible verificarlo. Pero advertí algo, luego de horas de darle vueltas al asunto: ya había visto esta película muchas veces antes, y los DNS seguramente estaban involucrados. Pero el principal sospechoso tenía que ser BGP, el protocolo que los sistemas autónomos usan para intercambiar rutas válidas. Fue lo que publicamos al día siguiente, y lo que Facebook confirmó horas más tarde en un meduloso post de su blog corporativo.
De todo, este post fue lo más destacable. Que recordemos, es la primera vez que la altiva red social muestra cómo funciona su relojería, y con esto parece haber aprendido la lección: si tanta gente depende de tu operación, no podés sino ser transparente. Aunque ahí todavía les falta un largo trecho por recorrer.