lunes, 25 de agosto de 2008

¿Podemos evitar la extinción de la especie humana? (3)

Si en la anterior nos referíamos a una extinción por accidentes humanos, en las guerras nucleares estamos hablando de una de las formas de auto extinción donde la lucha por el poder llega a límites extremos.

Aquí estamos considerando los escenarios que tienen que ver con la acción humana, por eso no se tienen en cuenta otros como los supervolcanes, tsumani, choque con un meteoritos, etc. En el caso de las pandemias estas pueden ser productos de la mala manipulación humana de los virus, de experimentos no seguros.

Dentro de los riesgos de Bostron esta que solo un grupo pueda alcanzar la posthumanidad, lo cual seria lo natural, dada los desequilibrios insostenibles y las desigualdades existentes, que siguen creciendo y si hoy hablamos de brecha digital, mañana hablaremos de una brecha tecnológica que dará lugar a una tecnocracia que se asuma el papel de una raza superior y tome el control del mundo

Una inteligencia artificial (IA) que por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no seria extraño que la IA respondiera a fines hegemónicos y fuera herramienta en manos de políticos cuyo interés se basa en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador.

Ya hay algunos que al morir están congelando sus cuerpos, los que pueden pagarlo, otros congelan sus cabezas, con el fin de que cuando la tecnología haya madurado, los revivan y puedan disfrutar de una vida posthumana. De momento es solo un negocio donde ya algunas compañías están recibiendo sus ganancias. Esto según Bostrom podría crear una sobrepoblación, para la que no se estaría preparado, de hecho ya estamos ante un crecimiento incontrolado de la población.

Una de las mayores preocupaciones de Bostrom creador del transhumanismo, del transhumanismo hablaremos después es que no se llegue a alcanzar la posthumanidad, de ahí su preocupación a que surjan leyes que prohíban ciertas investigaciones o aplicaciones que limiten o frenen el camino hacia una transhumnidad, para el única solución viable para la humanidad,. Dentro de esta línea esta que existan problemas tecnológicos, que no permitan llevarla a la practica y aquí surge una de las hipótesis mas importantes, la acelerada degradación del planeta, calentamiento global, contaminación, consumo de recursos no llevara a corto plazo a la muerte del planeta y convertirlo en un lugar inhóspito sin dar tiempo a que la tecnología se desarrolle lo suficiente y no se pueda alcanzar la meta de una posthumanidad. De ahí la tesis de los tecnofuturistas de apostar por la aceleración a toda costa de la tecnología con el fin de tener alternativas artificiales que sustituyan la vida actual.

Bostrom, al final de sus hipótesis sobre los riesgos reconoce, por fin, que muchas estrategias a largo plazo se deben delegar (al igual que un jefe delega a un subordinado) a las generaciones futuras ya que no hay nada que podamos hacer

No hay comentarios: