lunes, 25 de agosto de 2008

¿Podemos evitar la extinción de la especie humana? (3)

Si en la anterior nos referíamos a una extinción por accidentes humanos, en las guerras nucleares estamos hablando de una de las formas de auto extinción donde la lucha por el poder llega a límites extremos.

Aquí estamos considerando los escenarios que tienen que ver con la acción humana, por eso no se tienen en cuenta otros como los supervolcanes, tsumani, choque con un meteoritos, etc. En el caso de las pandemias estas pueden ser productos de la mala manipulación humana de los virus, de experimentos no seguros.

Dentro de los riesgos de Bostron esta que solo un grupo pueda alcanzar la posthumanidad, lo cual seria lo natural, dada los desequilibrios insostenibles y las desigualdades existentes, que siguen creciendo y si hoy hablamos de brecha digital, mañana hablaremos de una brecha tecnológica que dará lugar a una tecnocracia que se asuma el papel de una raza superior y tome el control del mundo

Una inteligencia artificial (IA) que por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no seria extraño que la IA respondiera a fines hegemónicos y fuera herramienta en manos de políticos cuyo interés se basa en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador.

Ya hay algunos que al morir están congelando sus cuerpos, los que pueden pagarlo, otros congelan sus cabezas, con el fin de que cuando la tecnología haya madurado, los revivan y puedan disfrutar de una vida posthumana. De momento es solo un negocio donde ya algunas compañías están recibiendo sus ganancias. Esto según Bostrom podría crear una sobrepoblación, para la que no se estaría preparado, de hecho ya estamos ante un crecimiento incontrolado de la población.

Una de las mayores preocupaciones de Bostrom creador del transhumanismo, del transhumanismo hablaremos después es que no se llegue a alcanzar la posthumanidad, de ahí su preocupación a que surjan leyes que prohíban ciertas investigaciones o aplicaciones que limiten o frenen el camino hacia una transhumnidad, para el única solución viable para la humanidad,. Dentro de esta línea esta que existan problemas tecnológicos, que no permitan llevarla a la practica y aquí surge una de las hipótesis mas importantes, la acelerada degradación del planeta, calentamiento global, contaminación, consumo de recursos no llevara a corto plazo a la muerte del planeta y convertirlo en un lugar inhóspito sin dar tiempo a que la tecnología se desarrolle lo suficiente y no se pueda alcanzar la meta de una posthumanidad. De ahí la tesis de los tecnofuturistas de apostar por la aceleración a toda costa de la tecnología con el fin de tener alternativas artificiales que sustituyan la vida actual.

Bostrom, al final de sus hipótesis sobre los riesgos reconoce, por fin, que muchas estrategias a largo plazo se deben delegar (al igual que un jefe delega a un subordinado) a las generaciones futuras ya que no hay nada que podamos hacer

miércoles, 20 de agosto de 2008

¿Podemos evitar la extinción de la especie humana? (2)

Las amenazas

Las amenazas son los efectos que estamos sufriendo de las acciones humanas dado nuestro contexto actual de dominio que ha provocado el crecimiento acelerado de dos parámetros: la degradación del planeta y el desarrollo de la tecnología con fines hegemónicos.

Dentro de las amenazas que enfrenta la humanidad esta las del presente, las que ya estamos sintiendo sus efectos y las futuras, las que producto de nuestro sistema social y económico, estructurado sobre la base del poder, podrían conducirnos a una mala utilización de las tecnologías, ya sea por errores o con fines destructivos. A las amenazas futuras, el filósofo y tecnofuturista norteamericano Nick Bostrom, las llama riesgos existenciales.

Vamos a ver los algunos de los riesgos existenciales que menciona Nick Bostron (aquellos que tienen que ver con la acción humana,

1. Mal uso de las tecnologías.
2. Guerras nucleares.
3. Pandemias.
4. Aristocracia posthumana.
5. Mala programación de una superinteligencia.
6. Superintenligencia autónoma que asume los valores de poder.
7. Criogenización y superpoblación.
8. Control del estado, de instituciones, ONG, movimientos religiosos, etc. Que no permitan ciertas aplicaciones para el mejoramiento humano (transhumanidad).
9. Dificultades tecnológicas. Que la transhumanidad no se pueda llevar a la practica
10. Agotamiento de los recursos naturales antes de que puedan ser creados artificialmente.

El mal uso de la tecnología, con fines hegemónicos, el consumismo y el militarismo entre otros factores, ha traído como consecuencia, la contaminación, la degradación de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnologías, también se considera los errores humanos, que un virus se escape de un laboratorio.

miércoles, 13 de agosto de 2008

¿Podemos evitar la extinción de la especie humana? (1)

"Asi pues la nueva revolución industrial es un arma de dos filos. Podrá utilizarse en beneficio de la humanidad, pero sólo si esta sobrevive tanto tiempo como para llegar a un periodo en el que sus ventajas sean posibles. Podrá utilizarse para destruir a la humanidad y, si no se le usa inteligentemente, llegará muy lejos en esa dirección... "
Norbert Wiener (el padre de la cibernética)

I. Introducción

Hoy nuestras sociedades están tomando conciencia de los peligros que amenazan al planeta y de los riesgos que enfrenta la humanidad debido a la explotación desmedida, al mal uso de las tecnologías y la falta de compromiso con las generaciones futuras y que son necesarios cambios urgentes en los sistemas educativos, políticos, tecnológicos… Y estos cambios se concretan en atacar a los efectos: disminuir la pobreza, disminuir el calentamiento global, disminuir los índices de mortalidad… Lo cual es totalmente lógico, dada la dificultad de encarar las causas, que se sustentan sobre; las injustas relaciones económicas, los problemas sociales y sus desigualdades, las expectativas de una tecnología redentora, la manipulación de la fe religiosa, la interpretación de lo ético para cada contexto y sobre todo los intereses políticos de las naciones dominantes; todo lo cual genera una variedad de justificaciones y de soluciones parciales a los problemas de nuestro tiempo, lo cual no deja otra alternativa que alargar la agonía de una humanidad que marcha hacia su extinción.

En esta época de crisis uno de los enfoques modernos que mas esta atrayendo la atención, radica en la importancia cada vez mayor que se le da a la tecnología como herramienta de cambio y de solución a los grandes problemas de la humanidad, incluso muchos científicos futuristas la ven como la única solución viable. Por lo tanto nuestro interés se centrara en el impacto social de las tecnologías y su convergencia.