Existen diferentes iniciativas a nivel global dedicadas a identificar riesgos existenciales para el ser humano.
¿Y qué esto de «riesgo existencial»?
Pues muy sencillo.
Algo que provoque un efecto adverso que aniquile nuestra especie ☠️, o que la reduzca drásticamente 📉.
En definitiva, están pensando qué es aquello más probable que suponga la causa de nuestra extinción.
Dentro de estas iniciativas mi favorita es Future of Life Institute (FLI), próximo al MIT y liderada por Max Tegmark.
Y, ¿sabes qué?
Sí, la IA está considerada como un riesgo existencial
La Inteligencia Artificial es uno de esos riesgos existenciales. Junto a otros sospechosos habituales, como el cambio climático, las armas nucleares o la biotecnología.

Según el FLI, estos 4 riesgos existenciales son el top 4 a vigilar para evitar problemas y pasar a acompañar a los dinosaurios en la historia de nuestro planeta.
En este punto siempre me gusta recordar a Carl Sagan y su calendario cósmico. Pensar en nuestra décima de segundo siempre ayuda.
Y no solo para el FLI, también para el FHI de Oxford y el Centro para el Estudio del Riesgo Existencial de Cambridge
Como te decía antes, son varias las plataformas o iniciativas de pensamiento dedicadas a los riesgos existenciales.
Además del FLI, está el Future of Humanity Institute de la Universidad de Oxford, y el Centro para el Estudio del Riesgo Existencial de Cambridge.
Como ellos dicen, se dedican al estudio y la mitigación de los riesgos que podrían llevar a la humanidad a su extinción, o a un colapso en nuestra civilización.
Interesante, ¿no?
¿Quieres conocer cómo piensa alguno de sus integrantes?
Para mí los más representativos son Max Tegmark, del MIT y autor de Vida 3.0, y Nick Bostrom, de Oxford, y autor de Superinteligencia.
Te dejo a Bostrom contándote qué sucede cuando nuestras computadores se vuelven más inteligentes que nosotros, y a Tegmark sobre cómo obtener el poder con IA sin ser dominados por ella.
Espero que te gusten. Seguiré compartiendo aquí iniciativas sobre riesgos existenciales.