Skip to main content
Somos niños con capacidad tecnológica de adultos.
Están confluyendo diversas reflexiones de expertos y también mensajes sobrenaturales sobre una nueva etapa en la que está entrando la tecnología, en la cual está adquiriendo la capacidad para modificar profundamente la biología humana y los sistemas que sustentan la vida sobre la Tierra, que tiene altos riesgos de terminar con la especie. 

 

peligro de la biotecnologia

 

Los riesgos de extinción de la humanidad que preocupan más a los expertos no son derivados de enfermedades, hambre, inundaciones, depredadores, persecución, terremotos, cambios ambientales, porque la humanidad ya sobrevivió a catástrofes de ese tipo. Los mayores riesgos de extinción se relacionan con las nuevas tecnologías que se están internando en un campo que supone la modificación de nuestra biología humana o la construcción de organismos que nos pueden destruir.  

¿Cuáles son las mayores amenazas globales a la humanidad?

Un equipo internacional de científicos, matemáticos y filósofos en el Instituto del Futuro de la Humanidad de la Universidad de Oxford está investigando los mayores peligros. Y argumentan en un trabajo de investigación, Riesgos Existenciales como una Prioridad Global, que las autoridades internacionales deben prestar seria atención a la realidad de los riesgos de la extinción de las especies.

El director de origen sueco del instituto, Nick Bostrom, dice que lo que está en juego no podría ser mayor. Si lo hacemos mal, esto podría ser último siglo de la humanidad.

¿CUÁLES SON LOS MAYORES PELIGROS?

Primero las buenas noticias. Las pandemias y los desastres naturales pueden causar pérdidas colosales y catastróficas de la vida, pero el doctor Bostrom cree que la humanidad sería probable que sobreviva.

Esto se debe a una especie que ya ha sobrevivido a muchos miles de años de enfermedad, hambre, inundaciones, depredadores, persecución, terremotos y cambio ambiental. Así que las probabilidades siguen estando en nuestro favor.

Y en el plazo de un siglo, se dice que el riesgo de extinción por los impactos de asteroides y erupciones volcánicas sigue siendo «extremadamente pequeño».

Incluso las pérdidas infligidas a sí misma por la propia humanidad, sin precedentes en el siglo XX en las dos guerras mundiales, y la epidemia de la gripe española, no lograron detener el aumento de la población humana global.

La guerra nuclear podría causar una destrucción terrible, pero suficientes individuos podrían sobrevivir para que la especie pudiera continuar.

Si eso es así, ¿de qué debemos realmente preocuparnos?

El Dr Bostrom cree que hemos entrado en un nuevo tipo de era tecnológica con la capacidad de poner en peligro nuestro futuro como nunca antes. Se trata de «amenazas que no tenemos historial de sobrevivir».

LA FALTA DE CONTROL

Comparándolo con un arma peligrosa en manos de un niño, él dice que el avance de la tecnología ha superado nuestra capacidad para controlar las posibles consecuencias.

Los experimentos en áreas como la biología sintética, la nanotecnología y la inteligencia artificial están precipitándose hacia adelante en un territorio de lis imprevisto y lo impredecible.

La biología sintética, donde la biología se encuentra con la ingeniería, promete grandes beneficios médicos. Pero el doctor Bostrom está preocupado por las consecuencias imprevistas de la manipulación de los límites de la biología humana.

La nanotecnología, que trabaja en un nivel molecular o atómico, también podría llegar a ser muy destructiva si se usa para la guerra, argumenta. Se ha escrito que los futuros gobiernos tendrán un reto importante para controlar y restringir su mal uso.

También hay temores sobre cómo la inteligencia artificial o la máquina interactúe con el mundo exterior.

Tal «Inteligencia» dirigida por computador puede ser una herramienta poderosa en la industria, la medicina, la agricultura o la gestión de la economía.

Pero también puede ser completamente indiferente a cualquier daño incidental.

LAS CONSECUENCIAS NO INTENCIONALES

Seán O’Heigeartaigh, un genetista del Instituto, establece una analogía con los algoritmos utilizados en la bolsa de comercio automatizada.

Estas cadenas matemáticas pueden tener consecuencias directas y destructivas para las economías reales y la gente real.

Estos sistemas informáticos pueden «manipular el mundo real», dice el Dr. O’Heigeartaigh, que estudió la evolución molecular en el Trinity College de Dublín.

En cuanto a los riesgos de la biología, se preocupa por las buenas intenciones equivocadas, como los experimentos que levan a cabo modificaciones genéticas, el desmontaje y la reconstrucción de las estructuras genéticas.

«Es muy poco probable que ellos quisieran hacer algo dañino», dice.

Sin embargo, siempre hay el riesgo de una secuencia de eventos no deseados o algo que se convierta en perjudicial cuando se transfiere a otro medio ambiente.

«Estamos desarrollando cosas que podrían salir mal en una manera profunda», dice.

«Con cualquier nueva tecnología poderosa debemos pensar con mucho cuidado sobre lo que sabemos – pero podría ser más importante saber sobre lo que no tenemos certeza».

Y él dice que esto no es una carrera de alarmismo, sino que está motivado por la seriedad de su trabajo.

REACCIÓN EN CADENA

Este ecléctico grupo de investigadores habla de ordenadores capaces de crear más y más poderosas generaciones de computadoras.

No se supone que estas máquinas de repente desarrollen una línea de mala conducta. Pero el investigador Daniel Dewey habla de una «explosión de inteligencia», donde el poder de aceleración de las computadoras se vuelve menos predecible y controlable.

«La inteligencia artificial es una de las tecnologías que pone más y más poder en paquetes más y más pequeños» dice el Sr. Dewey, un experto de EE.UU. en super-inteligencia de las máquinas que trabajó anteriormente en Google.

Junto con la biotecnología y la nanotecnología, él dice:

«Ud. puede hacer cosas con estas tecnologías, efectos de tipo de reacción en cadena, por lo que a partir de muy pocos recursos se podrían llevar a cabo proyectos que puedan afectar a todo el mundo.»

Lord Rees, el astrónomo real, y el ex presidente de la Royal Society, está respaldando los planes para un Centro para el Estudio de Riesgo Existencial.

«Este es el primer siglo de la historia del mundo cuando la mayor amenaza proviene de la humanidad», dice Lord Rees.

Él dice que mientras nos preocupamos acerca de los riesgos individuales más inmediatos, como el transporte aéreo y la seguridad alimentaria, parece que tenemos muchas más dificultades para reconocer los peligros más grandes.

‘ERROR O TERROR’

Lord Rees también pone de relieve las preocupaciones sobre la biología sintética.

«Con cada nueva tecnología en alza, también hay riesgos», dice.

La creación de nuevos organismos para la agricultura y la medicina podría tener imprevistos efectos secundarios ecológicos, sugiere.

Lord Rees plantea preocupaciones sobre la fragilidad social y la falta de resiliencia en nuestra sociedad dependiente de la tecnología.

«Es una cuestión de escala. Estamos en un mundo más interconectado, más viajes, noticias y rumores difundidos a la velocidad de la luz. Por lo tanto las consecuencias de un error o de terror son mayores que en el pasado«, dice.

¿DEBERÍAMOS ESTAR PREOCUPADOS POR UN INMINENTE FIN DEL MUNDO?

Esto no es una ficción distópica.

El Dr Bostrom dice que hay una brecha real entre la velocidad de los avances tecnológicos y la comprensión de sus implicaciones.

«Estamos en el nivel de niños en la responsabilidad moral, pero con la capacidad tecnológica de adultos», dice.

Como tal, la importancia del riesgo existencial «no está en los radares de las personas».

Pero argumenta que el cambio está llegando estemos o no estemos preparados para ello.

«Hay un cuello de botella en la historia humana. La condición humana va a cambiar. Podría ser que acabemos en una catástrofe o que seamos transformados mediante la adopción de un mayor control sobre nuestra biología«.

«No es ciencia ficción, doctrina religiosa o una conversación nocturna en el pub».

Fuentes: BBC, Signos de estos Tiempos

Haga click para ver las otras noticias

Entre su email para recibir nuestra Newsletter Semanal en modo seguro, es un servicio gratis: