Algunos temen que el presidente de Rusia, Vladimir Putin (I) y su ministro de defensa Sergei Shoigu (D) puedan desencadenar una catástrofe nuclear. FOTO: EFE/EPA/MIKHAIL METZEL / KREMLIN POOL / SPUTNIK MANDATORY CREDIT.

Es fácil saber cuándo hemos fallado en evitar una catástrofe, pero es mucho más difícil recordar las muchas que hemos conseguido esquivar.

La mayoría de la gente, si sabe algo sobre altruistas eficaces, piensa que son personas que se preocupan principalmente por cómo hacer el mayor bien posible a través de donaciones benéficas.  Esto los lleva a dar prioridad a la promoción de políticas de eficacia comprobada, como los mosquiteros anti-malaria, las iniciativas de desparasitación y las transferencias de efectivo - en vez de a enfoques más experimentales -, y a rechazar el tradicional argumento de que las organizaciones benéficas deben tener pocos gastos generales, ya que les preocupa que de ser así se dificulta medir la utilidad de las mismas.

Sin embargo, los altruistas eficaces también se preocupan por cómo hacer el bien minimizando los riesgos, sobre todo los existenciales, definidos por el filósofo Toby Ord como aquellos "que son tan graves que no podemos permitir que ocurra ni uno solo".  Esto no acabaría necesariamente con la vida humana — la humanidad podría sobrevivir a un intercambio nuclear a gran escala o a un cambio climático catastrófico —, pero limitaría permanentemente su potencial.  Se puede sobrevivir en un mundo posnuclear asolado por cosechas echadas a perder y enfermedades y que no tenga desagües adecuados, estado de derecho, restaurantes decentes o la posibilidad de vuelva una vida normal, pero ¿realmente hay alguien que quiera vivir así?

En su libro El Precipicio, Ord mantiene que la humanidad ha llegado a un momento peligroso de su existencia.  Un momento en el cual ha desarrollado los medios para someterse a una catástrofe existencial, pero que aún no ha alcanzado la sabiduría o el conocimiento para decir con seguridad que la evitaremos.  Ord dice que la probabilidad de experimentar una catástrofe es una de seis: una guerra nuclear, el cambio climático, el choque de un asteroide y una pandemia cultivada en un laboratorio figuran en su lista de posibles catástrofes, pero la inteligencia artificial ocupa el primer lugar.  A los altruistas eficaces les preocupa que una inteligencia artificial (IA) pueda cumplir su programación de forma que tenga consecuencias que no nos gusten.

Esto hace que el aparente fracaso del Índice de Seguridad de Salud Global sea especialmente deprimente.  Creado en 2019 por el Centro John Hopkins para la Seguridad Sanitaria, la Iniciativa de Amenaza Nuclear y Economist Impact, el índice clasificó la preparación para pandemias y otras amenazas sanitarias de 195 países.  Aunque, según advirtieron los fundadores del índice, no se puede decir que ningún país esté totalmente preparado para una pandemia, sí se elaboró una lista de los más avanzados en el proceso. Los 10 primeros fueron Estados Unidos, Reino Unido, Alemania, Australia, Canadá, Tailandia, Suecia, Dinamarca, Corea del Sur y Finlandia.

Desafortunadamente, unos meses más tarde el índice tuvo su primera prueba de resistencia al enfrentar el Covid-19, y no salió muy bien parado. La posición de los países no tiene ninguna correlación con lo bien o mal que hayan manejado la pandemia.

¿Una derrota para el índice? Bueno, es un poco más complicado que eso: se puede tener toda la capacidad y preparación estatal que uno quiera, pero la capacidad para aprovecharla puede depender de otras variables más difíciles de medir, como la cultura científica de la clase política o lo polarizado que esté un país.  Y lo que es más importante, el aparente fracaso del índice fue un recordatorio de una verdad deprimente sobre los asuntos humanos: no parece que seamos tan buenos para identificar los problemas antes de que surjan.  A menudo ponemos orden después, y no antes de las catástrofes, y a veces ese orden crea sus propias catástrofes.

Una gran razón para deprimirse por el aparente fracaso del índice es que se podría pensar que sugiere que es muy poco probable que evitemos futuras catástrofes existenciales. Tarde o temprano alguna ocurrirá. Mejor disfrutar de los buenos desagües, el estado de derecho y los restaurantes mientras duren.

¿De acuerdo? Probablemente sea demasiado fácil descartar nuestros intentos de evitar todas las catástrofes simplemente por las que sabemos que sí tuvieron lugar.  A menos que se tenga muy mal ojo para las relaciones públicas, ningún político o líder va a salir durante una crisis y señalar que, sí, puede haber una catástrofe financiera o corporativa ahora mismo, pero no la hubo el año pasado.  Pero sigue siendo cierto: si bien podemos decir con certeza cuándo no hemos logrado esquivar un desastre, nunca sabremos cuántos hemos logrado evitar.

En cierto modo, la afición de los altruistas eficaces a reducir cada acontecimiento futuro a una cifra porcentual puede ser su peor enemigo. Podríamos ver una probabilidad de una entre seis de que se produzca una catástrofe existencial y pensar que la probabilidad no es lo suficientemente grande como para preocuparse, o podríamos considerar el índice de preparación para la pandemia como un ejercicio de predicción más que como un marco útil para la preparación del estado.

Eso puede significar que, cuando no logramos predecir los problemas, es fácil caer en la desesperación sobre nuestra capacidad de evitar catástrofes muy, muy grandes.  Sin embargo, aunque siempre debemos aprovechar estos momentos para revisar si nuestras defensas contra futuras catástrofes son tan fuertes como desearíamos, por ahora no debemos caer en la desesperación sobre nuestra capacidad para evitar el precipicio.

Stephen Bush

Derechos de Autor - The Financial Times Limited 2021.

© 2021 The Financial Times Ltd. Todos los derechos reservados.  Por favor no copie y pegue artículos del FT que luego sean redistribuidos por correo electrónico o publicados en la red.

Lea el artículo original aquí.

ÚLTIMAS NOTICIAS