Articulo invitado. Fuente de RT
El investigador
científico de la Universidad de Oxford (Reino Unido), Anders Sandberg, ha
presentado la lista de cinco amenazas para la existencia de la humanidad.
En su artículo
publicado en el portal 'The Raw
Story' Sandberg señala
que la gente ha estado hablando sobre el apocalipsis durante milenios, pero
pocos han tratado de buscar la manera de evitarlo, al contrario, durante el
último siglo solo hemos descubierto o creado nuevos riesgos
existenciales.
Guerra nuclear
La amenaza más peligrosa para todos los seres humanos, según el científico, es
la guerra nuclear.
Sandberg afirma que mientras que sólo dos armas nucleares se han utilizado en combate hasta ahora, en
Hiroshima y Nagasaki durante la Segunda Guerra Mundial, los arsenales nucleares están a punto
de llegar a una guerra fría global y es un error pensar que la
guerra nuclear es imposible.
De acuerdo con el científico, si suponemos que el calentamiento de la situación
en esta área podría tener lugar cada 69 años, teniendo en cuenta la crisis de
los misiles de Cuba, con una de cada tres posibilidades de que podría haber una
guerra nuclear, la posibilidad de una catástrofe aumenta a una de cada 200 por
año.
Sin embargo, pese a que una guerra nuclear a gran escala entre las grandes
potencias mataría a cientos de millones de personas en forma o a través de sus
efectos secundarios, no será suficiente para que sea un riesgo
existencial.
La verdadera amenaza, según el investigador, es el invierno nuclear, en otras
palabras, una increíble cantidad de hollín lanzada a la estratosfera que
causaría un enfriamiento y sequía del mundo entero en unos años. Las
simulaciones climáticas modernas indican que esto podría impedir la agricultura
en gran parte del mundo. Si ocurre esta situación miles de millones de personas
morirían de hambre, dejando solo supervivientes dispersos por todo el planeta
que, por su parte, serían interceptados por otras amenazas, como diferentes
enfermedades.
Bioingeniería
pandémica o armas químicas
Las pandemias naturales han matado a más personas que las guerras, pero es poco
probable que pudieran convertirse en una amenaza existencial, ya que siempre
hay algunas personas resistentes al patógeno.
Sin embargo, ahora el propio ser humano puede hacer las enfermedades más
irresistibles y peligrosas. Uno de los ejemplos es el famoso gen mousepox,
introducido en un ratón con viruela, que hizo la enfermedad mucho más letal y
capaz de infectar a los individuos vacunados. Los últimos trabajos sobre
la gripe aviar también han demostrado que es
posible fomentar deliberadamente el contagio de la enfermedad.
De acuerdo con Sandberg, está capacidad y el hecho de que la biotecnología sea
cada día más barata permitió a los gobiernos en busca de nuevas herramientas de
control desarrollar un nuevo tipo de armas de destrucción masiva: armas químicas o biológicas.
El científico destaca que aunque acabar con la humanidad no es militarmente
útil, siempre aparece alguien que quiere hacer las cosas porque puede. Y
hasta existen grupos de personas que creen que la Tierra sería mejor sin el ser
humano.
Superinteligencia
La inteligencia es muy poderosa y cada día ayuda más a los individuos y
diferentes organizaciones en el logro de sus objetivos, pero si las metas se
fijan mal este poder puede llevar la humanidad a extremos desastrosos.
De acuerdo con el investigador, la forma de inteligencia más poderosa de las
existentes hasta la fecha es el 'software' y cuando se vuelva lo
suficientemente potente como para hacer una forma mejor de sí misma provocará
una "explosión de inteligencia" que llevaría a una gran diferencia en
el poder potencial entre el sistema inteligente (o las personas que le indican
lo que debe hacer) y el resto del mundo. Esto, según Sandberg, tiene un enorme
potencial para el desastre si las metas se fijan mal.
Sin embargo, el científico admite que es muy difícil razonar acerca de la tecnología del futuro que todavía no tenemos, o
inteligencias más grandes que nosotros, por los que esta teoría podría ser
el desastre más masivo o simplemente un espejismo.
Nanotecnología
La nanotecnología es el control sobre la materia con precisión atómica o
molecular y en sí misma no es peligrosa, al contrario, podría convertirse en
una solución para muchos problemas que hoy en día no dejan dormir a los
científicos. Sin embargo, según afirma Sandberg, su problema, al igual que el
de la biotecnología, es que su aumento de potencia también aumenta la
posibilidad de sus abusos, que son difíciles de diferenciar.
El riesgo más evidente de la fabricación de precisión atómica parece ideal para
la fabricación rápida y barata de cosas como las armas. Así en el mundo donde
cualquier gobierno podría "imprimir" grandes cantidades de armas
autónomas las carreras de armamentos podrían llegar a ser muy rápidas y por lo
tanto inestables. En esta situación atacar primero antes de que tu enemigo
alcance la cantidad más grande de armas pudiera ser la mayor
tentación.
De acuerdo con Sandberg, el desarrollo de la nanotecnología "podría actuar
como un gas nervioso, que busca a las víctimas con el fin de mantener las
poblaciones obedientes" y además conseguir la proliferación nuclear y la
ingeniería climática en manos de cualquiera que lo desee.
La incertidumbre
Mencionando a la amenaza para la humanidad más inquietante de todas, Sandberg
indica la existencia de algo desconocido y muy mortal de lo que todavía no
tenemos ni idea.
El científico señala que "el silencio en el cielo podría ser evidencia de
esto" y se cuestiona ¿si la ausencia de los extraterrestres se debe al
hecho de que la vida y la inteligencia son excepcionales o a que tienden a ser
aniquiladas? Sandberg supone que si de verdad existe un gran filtro, debe haber
funcionado con otras civilizaciones también.
El investigador también señala que los riegos mencionados en la lista tienen
mucha más probabilidad de llevar a la humanidad a la extinción que, por
ejemplo, el cambio climático o el impacto de un asteroide, los cuales, por su
parte, aparecen mucho más a menudo en los medios de comunicación, quienes
sobrevaloran su potencia.
0 comentarios:
Publicar un comentario