martes, 30 de abril de 2013

¿Nos acercamos al fin de la humanidad?

¿Cómo podemos saberlo? ¿Qué está sucediendo o que podría suceder?

Si el mayor peligro  para el fin de la humanidad a mediados y finales del siglo XXI, era el de una guerra nuclear, hoy a comienzos del siglo XXI, aparecen otros problemas que se presentan como más posibles y catastróficos.  

Hoy son dos los escenarios que pone en peligro a la raza humana: la degradación del planeta y el desarrollo acelerado de las tecnologías, que cada vez responde menos al desarrollo humano, y parece escapar  a todo control. Siendo la aceleración tecnológica representa un mayor peligro que el deterior del planeta.

Afirmación que parece confirmar el equipo de científicos que trabajan en el Instituto del Futuro de la Humanidad de la Universidad de Oxford,   quienes están investigando cuál es el mayor peligro para la supervivencia del Hombre como especie. Los mismos han llegado a la conclusión que la supervivencia de la humanidad está en riesgo, y no por la amenaza de una pandemia, un bombardeo nuclear, meteorito u otro tipo de catástrofe natural; el mayor riesgo proviene de nosotros mismo. 

El director del instituto, el filósofo sueco Nick Bostrom, en el documento Riesgo existencial como prioridad global, argumenta que los dirigentes internacionales tienen que prestarle mucha atención a una serie de amenazas y advierte: “lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad”. A lo que insiste “Son amenazas sobre las que no tenemos historial de supervivencia”.

¿En qué consiste esa amenaza? Veamos las opiniones de los expertos y del propio Bostrom
Experimentos en áreas como biología sintética, nanotecnología e inteligencia artificial se están precipitando hacia el territorio de lo accidental e imprevisto.

La biología sintética, en la que la biología se encuentra con la ingeniería, promete importantes beneficios médicos. A Bostrom le inquietan las secuelas inesperadas de la manipulación de las fronteras de la biología humana.

La creación de nuevos organismos, por ejemplo, puede tener efectos secundarios ecológicos desconocidos.
 Vivimos en un mundo más interconectado: más noticias y rumores se difunden a la velocidad de la luz. Por ello, las consecuencias de un error o terror son más desmedidas que en el pasado”.

Nos preocupamos por riesgos individuales más inmediatos, como los vuelos aéreos o seguridad alimentaria, tenemos más dificultad en reconocer peligros más serios.

Seán O’Heigeartaigh, un genetista del instituto y experto en evolución molecular, desconfía de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones genéticas, desmantelando y reconstruyendo las estructuras genéticas. Siempre existe el peligro de que se dispare una secuencia de eventos no anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente.

“Estamos desarrollando cosas que pueden resultar profundamente mal”, declara O’Heigeartaigh. Estos no son conceptos abstractos, asegura. “Con cualquier nueva poderosa tecnología –opina O’Heigeartaigh–, debemos pensar detenidamente en qué sabemos, pero quizás es más importante en este momento estar conscientes de lo que no estamos seguros de saber”.

·La nanotecnología, trabaja a nivel molecular o atómico, también podría tornarse en algo altamente destructivo si se usa para la guerra”, apunta Bostrom. “Por ello, escribió que los gobiernos futuros enfrentarán el gran reto de controlar y restringir su mal uso”.

La manera en la que la inteligencia artificial interactuará con el mundo exterior es otro de los temores del grupo de expertos reunidos en Oxford. Esa “inteligencia” informática puede ser una herramienta poderosa para la industria, medicina, agricultura o el manejo de la economía. Pero también es completamente indiferente a cualquier perjuicio fortuito.

Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una “explosión de inteligencia” en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable. “La inteligencia artificial es una de las tecnologías que pone más y más poder en paquetes más y más pequeños”, dice, quien antes trabajó en Google. “Así como con la biotecnología y la nanotecnología, se pueden hacer cosas que resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender proyectos que pueden afectar a todo el mundo”.

¿Debemos aplicar todo el avance tecnológico? ¿Qué posición asumir?

“Ésta no es una ficción distópica: la brecha entre la velocidad del avance tecnológico y nuestro conocimiento de sus implicaciones es real”, recalca Bostrom.

Ya Van R. Potter, el bioeticista norteamericano, hacía referencia a la necesidad de alcanzar los conocimientos necesarios para poder manejarnos con las tecnologías y de la necesidad de crear un puente entre las humanidades y las ciencias. 

Bostrom no parece estar muy seguro de la tecno-utopia de una singularidad tecnológica, donde basta con acelerar a las tecnologías a toda costa y dice: “el avance en la tecnología ha rebasado nuestra capacidad de controlar las posibles consecuencias. Y agrega: “Estamos al nivel de los niños en términos de responsabilidad moral, pero con la capacidad tecnológica de adultos”. 

Hasta ahora hemos apostado por el progreso tecnológico y se ha ignorado el progreso humano, de ahí las consecuencias que se vislumbran hacia una tecnología fuera de control. Podemos afirma que vamos a ciegas hacia el futuro y significativo, que un pionero de la ideología transhumanista, como Nick Bostrom, comience a preocuparse de las consecuencias imprevista de la aplicación sin control de las tecnologías.

Coincido con Bostrom en que el cambio está próximo y que no se dado la importancia que merece. No podemos ignorar que Bostrom es un defensor del tranhumanismo, del cual hemos estado hablando en artículos anteriores. De ahí sus conclusiones.

 “Hay un cuello de botella en la historia de la humanidad. La condición humana va a cambiar. Puede ser que termine en una catástrofe o que nos transformemos tomando más control de nuestra biología”.

No hay comentarios: