jueves, 20 de agosto de 2015

¿Qué es inteligencia artificial general?


220px-John_searle2
John Searle
Hoy se habla de inteligencia artificial fuerte (IA fuerte), inteligencia artificial débil (IA débil), super inteligencia artificial (Super IA), inteligencia artificial estrecha (la IA clásica) y la nueva inteligencia artificial general (IA general). Cuando se habla de inteligencia artificial general se hace referencia a una IA de propósito general como una continuidad a la IA clásica (la que fue renombrada como IA estrecha).
Todos vienen del inglés: Strong Artificial Intelligence, Weak Artificial Intelligence, Super Artificial Intelligence, Narrow Artificial Intelligence y Artificial General Intelligence (AGI)
Aun no existe un acuerdo sobre la traducción de la AGI, yo prefiero llamarla Inteligencia Artificial general (IA general), otros nombre son inteligencia general artificial o general inteligencia artificial.
Una vez hecha la aclaración de términos comencemos con el artículo, que es una selección actualizada de otros artículos publicados en este blog.
En los primeros años de la IA luego del paradigma cibernético con su intento de construir una mente mecánica, le siguió el paradigma cognitivo y la idea de reproducir la mente por medio de algoritmos, ya que la mente no era otra cosa que estados mentales que se procesaban en el cerebro al igual que los programas en una computadora.
Lo cual llevó a muchos investigadores en el campo teórico a pensar que una vez que se descifraran los procesos de la mente era seguro desarrollar los algoritmos que representaban esos procesos, es obvio, ya que la mente lo que hace es manipular símbolos por medios algorítmicos. De ahí surgieron los métodos heurísticos, las reglas de producción, los mecanismos de resolución de problemas, etc.
También surgieron los primeros desacuerdos entre los investigadores quienes no se ponían de acuerdo, en, si esa representación simbólica, se basaba en la lógica (la sintaxis, cálculo de predicados) o en la semántica (estructuras semánticas, guiones). Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrapastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero, métodos a parte, ambos compartían un sueño: descubrir los programas que hacen funcionar la mente.
De todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.
Ahora, para que la máquina tenga todos los algoritmos que conforman la mente, primero, hay que ir descubriendo los mecanismos de la mente, traducirlos en algoritmos para incluirlos en la computadora, así sucesivamente hasta que se haya reproducido totalmente la mente humana, y pueda funcionar en una computadora. Fueron muchos investigadores en esa época, principio de los 50, dieron esto por hecho y afirmaron que en los anos 80s ya existirían máquinas con inteligencia humana, en ese entonces no se hablaba de superar la inteligencia humana, ni de singularidad tecnológica, etc.

IA fuerte e IA débil

Desde sus inicios podemos hablar de dos enfoques de la Inteligencia Artificial (IA), de una parte la IA fuerte y de la otra, memos categórica a la hora de interpretar los hechos: la IA débil.
La idea de una IA fuerte ha sido el sueño de casi todos los investigadores de ese campo. Sostiene que todas las operaciones mentales son manifestaciones sofisticadas de complicados procesos computacionales, y que es irrelevante si tales procesos son llevados a cabo por un sujeto humano, un objeto físico o un dispositivo electrónico. Por lo que acepta que la mente humana puede ser reproducida o copiada para otro medio, el cerebro se considera un soporte más.
La IA fuerte asume que la mente está formada por algoritmos altamente complejos que pueden ser descifrado y convertidos en programas de computadora, y de ahí llegan a la conclusión que la mente humana puede ser digitalizada en una computadora
En cambio para la IA débil (menos radical que la anterior, y también más extendida desde el fracaso del enfoque idealista de los primeros años) computación no supone consciencia, y la simulación artificial de actividades mentales en ningún caso da origen a fenómenos mentales como dolor, reconocimiento, entendimiento o intencionalidad.
La IA débil considera que la mente funciona diferente a los sistemas de computación y solo aspiran a desarrollar sistemas informáticos que tenga un comportamiento tan inteligente como el del ser humano. Se acepta la creación de un algoritmo suficientemente complejo que podría ser codificado a través de un programa computacional y controlar un robot de la misma forma que lo haría un ser humano.
Siguiendo las ideas de John Searle: “La IA débil tiene por único objetivo simular estados mentales sin pretender por ello que las computadoras tengan conciencia,… El objetivo de la IA fuerte, por el contrario, es una computadora con conciencia”.
Y aquí es cuando surgió una interrogante, que ha perdurado hasta nuestros días: ¿si somos capaces de reproducir la mente humana en una máquina, esta será consciente? Lo cual llevó a las siguientes definiciones.
1. La consciencia no se puede atribuir a procesos puramente físicos y, por lo tanto, es inaccesible incluso a un abordaje científico arbitrariamente avanzado (metafísico)
2. La consciencia surge de procesos puramente físicos del cerebro pero sostiene que estos son tan complejos o tan alejados de la comprensión científica, que prácticamente no hay esperanza de que podamos duplicarlos (físico/irreproducible).
3. Es posible que podamos comprender y duplicar los procesos que dan lugar a la consciencia, aunque esto quizás resulte una labor extremadamente difícil (físico/reproducible).
4. La consciencia no es algo tan especial y que una máquina a la que se haya provisto de suficiente inteligencia, con el tiempo adquirirá consciencia de manera más o menos automática (trivial).
Los defensores de la IA fuerte están convencidos de que se podrán reproducir todas las capacidades humanas, incluyendo la consciencia en una máquina. Y aunque esta idea ha ido variando con el tiempo, no ha cambiado en su esencia.

Inteligencia artificial general

En sus inicios la inteligencia artificial (IA), intentó de salirse del esquema cibernético demasiado abarcador y, precisamente, se trazó como línea de investigación, propósitos más concretos, como el de reproducir la inteligencia en una computadora. Quizás por inercia, influidos, aun, por la cibernética, muchos de los investigadores siguieron trabajando en líneas más generales como el demostrador general de problemas (GPS en inglés) o los primeros intentos con las redes neuronales (que no soportó las críticas de Minsky). Todas estas líneas se fueron abandonadas y sustituidas por investigaciones más concretas, en realidad se quería que la inteligencia artificial (IA) fuera una ciencia exacta, de ahí el uso del aparato matemática y la creación de laboratorios de IA.
En matemática se perfeccionaron los cálculos estadísticos, el análisis del razonamiento, el tratamiento de la incertidumbre, la lógica matemática y una de las líneas más promisorias: la lógica difusa de Zadeh. También se crearon nuevos lenguajes de programación siendo el Lisp (creado por MacCarthy, uno de los padres de la IA) y el Prolog. Pero como decía una ciencia no está completa sino cuenta con modelos experimentales y la IA creó sus propios laboratorios para modelar la inteligencia.

El mundo de bloques

El laboratorio consistía en un brazo mecanismo controlado por una computadora y una mesa sobre la que se colocaban varios bloques, para que la computadora realizara diferentes operaciones sobre los bloques, como cogerlo, ponerlo encima de otro, quitarlo, seleccionar entre diferentes figuras: triangulo, cuadrado, etc. Con este ingenioso método se podían simular varias acciones humanas, como el lenguaje natural, ya que la comunicación en muchos casos era por medio del lenguaje natural, permitía el estudio de la planificación de tareas y el uso de agentes inteligentes que cooperaban en la solución, el estudio de la visión por computadoras y la representación de patrones, etc. A pesar de que algunos de forma despectiva le llamaron mundo de juguetes y criticaron sus logros sin tener en cuenta el impacto que han tenido posteriormente, muchas de las investigaciones que allí nacieron.
Por supuesto ninguna ciencia escapa a sus crisis internas y la IA no podía ser una excepción (Crisis de la inteligencia artificial). Quizás el detonante fue el optimismo exagerado de sus desarrolladores que llegaron a predecir que en los años 80s la IA igualaría a la mente humana, la realidad fue otra, la IA continuaba atascada queriendo encontrar una solucionador general de problemas, que era capaz de resolver complejos problemas matemáticos pero fallaba estrepitosamente ante cualquier problema elemental que requería de un mínimo de sentido común, han sido famosos muchos de estos lapsos de las máquinas que después de profundos análisis a ignorado soluciones obvias que hasta un niño podía determinar a simple vista. El caso más reciente es el de Google con su servicio de Photos que clasificó como gorilas a dos afronorteamericanos.
La crisis de la IA llevó a un mayor estrechamiento de sus líneas de investigación al concentrarse en los llamados dominio de aplicación y abandonar la idea de encontrar soluciones generales para todos los casos y a buscar soluciones particulares que luego pudieran irse generalizando, esto condujo a los sistemas expertos. Y fueron muchos los que vieron no solo una línea de investigación sino un nuevo mercado que podría generar grandes ganancias. Lo sistemas expertos no cumplieron con las expectativas y sobre todo, su impacto comercial fue bastante pobre, uno de los problema radicaba en ¿Quién le daba mantenimiento a la base de conocimientos? Lo que llevaba a un compromiso de por vida, que los hacía poco rentables. Piensen en los sistemas de base de datos que solo hay que introducir datos numéricos y todos los problemas que se presentan, lo que dio lugar a unnuevo enfoque de la inteligencia artificial.

Nuevas tendencias en la IA

• Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus conexiones en lugar de los algoritmos de la mente.
• Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes agentes (con conocimientos parciales) que al integrarse logran resolver problemas complejos en lugar de grandes bases de conocimientos cerradas.
• Máquinas superinteligentes: Se cifra la esperanza en el hardware, máquinas cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software.
• Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos.
• Robots reactivos, se desarrollan pequeños robots capaces de interactuar con en el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma manual, de ahí que recibieran el mote de sistemas autistas.

Qué es la inteligencia general artificial (IA general)

Según sus creadores la IA general tiene las siguientes características
• Hace hincapié en el carácter del uso general de la inteligencia
• Asume un punto de vista holístico o integral de la inteligencia
• Cree que ha llegado el tiempo para construir una IA que sea comparable a la inteligencia humana.
Lo que nos acerca a la idea original de la IA que debido a sus tropiezos se fue separando de esos objetivos. Y retoma la idea de una IA fuerte (ver artículo anterior).
La IA general al igual que la llamada IA estrecha, se propone convertise en una ciencia exacta y define su línea teorica en tres campos
• Una teoría de la inteligencia,
• Un modelo formal de la teoría,
• Una implementación computacional del modelo.
El último punto me recuerda los laboratorios de IA donde se experimentaba con el mundo de bloques.
Hasta el momento, las principales técnicas utilizadas en proyectos IA general incluyen las técnicas de la IA clásica:
• Lógica matemática
• Teoría de la probabilidad (tratamiento de la incertidumbre)
• Sistema de producción (estrategias para las reglas)
• Base de conocimientos (representación del conocimiento)
• Algoritmos de aprendizaje (ahora se ha puesto de moda el aprendizaje profundo)
• Robótica (sistemas de planificación)
• Redes neuronales
• Computación evolutiva (algoritmos genéticos)
• Sistema multi-agente (agentes inteligentes)
La IA general, levanta cierto escepticismo, algunos creen que es más de lo mismo y se preguntan ¿Por qué ahora si? ¿Quién sabe?, tal vez se pueda aprender de los errores anteriores o a lo mejor las condiciones tecnológicas han cambiado tanto, que ahora si es posible. De esto seguiremos hablando en próximos artículos.
Recomendaciones:

martes, 21 de julio de 2015

Desafíos del futuro. ¿Se puede tener un plan?


Futuros-TurchinLa humanidad parece estar ante el dilema de escoger entre un futuro sostenible o un futuro posthumano, visto fríamente parece ser así, pero si tenemos en cuenta los tipos de simbiosis que se pueden producir entre humanos y tecnologías, la solución más inteligentes parece ser buscar una forma de convivencia entre todos los futuros posibles ante el acelerado progreso tecnológico.
Entonces, el gran desafío es como será en futuro en la era de las tecnologías. Podemos considerar que hemos pasado por dos grandes eras: la era natural y la era socio-cultural, en la que estamos inmersos. En la era actual, la evolución social predomina sobre la evolución natural, incluso la condiciona. La sociedad es la que fija las mutaciones más favorables al contexto social imperante, en lugar de los cambios climáticos como sucedía antes. Ahora nos acercamos a una nueva era condicionada, de alguna manera, por una forma de evolución artificial, para muchos, la singularidad tecnológica.

Desafíos del futuro

Detrás de cada desafío existe un paradigma que los sustenta y que de alguna forma representa una solución a los problemas existentes. Podemos agrupar los desafíos en cuatro, con sus respectivos sistemas opositores.
Desafío socio-económico: Capitalismo vs Socialismo
Desafío psico-religioso: Transhumanismo vs Bioconservadores
Desafío eco-sostenible: Sostenibilidad ecológica vs Neoliberalismo irresponsable
Desafío tecno-científico: Singularidad tecnológica vs Precaución tecnológica
No vamos a entrar en detalles, esto tema para un próximo libro, pero a grandes rasgos, podemos afirmar que no se pueden hacer planes sobre el futuro si no se tienen en cuenta los cuatros desafíos, los paradigmas que lo sustentan y a qué futuro nos conducen.
¿Puede el capitalismo con su ley del mercado y su consumismo desenfrenado, preservar a la vida y al planeta? ¿Puede el transhumanismo sustituir los grandes ideales de la religión de perfeccionamiento espiritual? ¿Es capaz la sostenibilidad ecológica de alentar la prosperidad y el progreso tecnológico? Y por ultimo. ¿Nos impondrá la singularidad tecnológica el precio de abandonar nuestra condición humana? Son preguntas que tenemos que comenzar a respondernos desde ahora o iremos a ciegas al futuro.
En este articulo nos proponemos hacer un análisis de la publicación de Alexei Turchin, Plan of Action to Prevent Human Extinction Risks, en el mismo afirma que sus planes siguen el enfoque de la singularidad tecnológica, por lo que quedan fuera el resto de los enfoques: socio-económico, pisico-religioso y eco-sostenible. Y aunque estos puntos se tocan, pero condicionados al enfoque tecno-científico. Veamos los planes de forma resumida pero solo teniendo en cuenta los primeros años 2015-2020.

Plan A1. Basado en un sistema de control internacional (2015-2020)

Parte de la idea de un sistema de control internacional dirigido por las naciones unidas. No sé en el futuro que pasará pero en el presente organizaciones mundiales están muy preocupadas con las crisis del presente para pensar en lo que va a suceder en el futuro. Si no miren los Objetivos de Desarrollo del Milenio de la ONU. Obviando las verdaderas preocupaciones de la ONU. Tuchin propone el siguiente plan a corto plazo.
• Propone comenzar con una investigación sobre los riesgos, la integración de los diferentes enfoques (¿Cuáles enfoques) así como una evaluación de las probabilidades y prevención ante los riesgos.
• Buscar apoyo social: Cooperación entre las comunidades científicas dirigidas por el Centro de Estudio para los Riesgos Existenciales (CSER, en ingles), la divulgación, el apoyo público, el apoyo político y lo que el llama atributos científico: wiki, foro, conferencias, etc.
• Transformación de valores: crecimiento del deseo público de extender la vida y de la seguridad mundial, reducción de los religiosos radicales y de los valores nacionalistas, popularidad del transhumanimo y cambio del modelo del futuro (¿Cuál modelo?).

Plan A2. Inteligencia artificial amistosa (2015-2020)

La idea de una Inteligencia Artificial (IA) amistosa es una abstracción tal como la de construir una IA dentro de un laboratorio siguiendo la idea de un mundo de juguetes. Al final repetimos el mismo error de querer definir los requerimientos de una IA programada, totalmente, para que sea amistosa con los humanos. Veamos la propuesta de Turchin a corto plazo.
Estudio y promoción
• Estudio de la teoría IA amistosa
• Promoción de la AI Amistosa (Bostrom y Yudkowsky)
• Recaudación de fondos, Instituto de Investigación de Máquinas Inteligentes (MIRI, en ingles)
• Racionalidad enseñanza (menos mala)
• Disminuir otros proyectos de IA (reclutamiento de científicos)
Aquí quedan algunas dudas, porque se disminuyen los proyectos y quien los disminuye, que persigue es educación menos mala. En fin, el futuro, incluso a corto plazo, sigue siendo incierto.

Plan A3. Robustez creciente (2015-2020)

A pesar de que Turchin lo pone como la tercera opción de plan realizable, en mi opinión es el más consecuente con la complejidad del futuro que se avecina. Al menos es el único que tiene en cuenta el problema de la sostenibilidad del planeta.
Mejorar sostenibilidad de civilización
• sistemas críticos de seguridad intrínseca
• La creciente diversidad de los seres humanos y hábitats
• métodos universales de prevención (estructura resistentes, medicina fuerte)
Importante, tener en cuenta la creciente diversidad de los seres humanos, es casi seguro que en el futuro convivan con los humanos, humanos mejorados genéticamente, ciborgs, humanos reconstruidos, entidades robóticas, etc., y sus posibles hábitats. Para mí aquí está la clave del problema, ¿cómo será la relación simbiótica que establecerán los humanos y las tecnologías? ¿Tendrá cada cual su propio espacio vital?

Plan A4. Colonización del espacio (2015-2020)

Las posiciones más duras de una singularidad tecnológica, defendida por Hans Moravec, lleva a la sustitución total de lo natural por lo artificial, estamos hablando de la desaparición de la especie humana y el surgimiento de una nueva especie artificial y como consecuencia de una vida y un planeta artificial. Siempre he dicho si la solución extrema es destruir el planeta natural por otro artificial, no es mejor desde el principio construir un planeta artificial fuera de la Tierra y los que lo deseen se van a vivir a ese planeta. En fin veamos las propuestas de Turchin a corto plazo
Asilos temporales en el espacio
• Estaciones espaciales como asilos temporales (ISS)
• Sistemas de lanzamiento baratos y seguros
• La creación de colonias espaciales en la Luna y Marte (Elon Musk)
Sin dudas, Elon Musk es uno de los grandes entusiasta y financista de la colonización del espacio.
Ahora si fallan todos estos planes, entonces Tuchin propone un plan B.

Plan B. Sobrevivir a la catástrofe (2015-2020)

Aunque parezca ilógico, muchos creen que la humanidad debe sufrir un colapso, que este a punto de la destrucción total para que entonces los sobrevivientes retomen la civilización evitando los errores y de esa forma construir una nueva era para la humanidad. Veamos lo que propone Tuchin.
Preparación
• Recaudación de fondos y promoción
• Libro de texto para reconstruir la civilización (Libro “Conocimiento” de Dartnell)
• Las acumulaciones con los conocimientos, las semillas y materias primas (bóveda del Juicio Final en Noruega)
• Comunidades sobrevivientes
Sin comentarios.
En su escrito Tuchin también propone un plan C y un plan D

Plan C. Deje copias de seguridad (2015-20)

Ya existen alguna personas criogenizando su cuerpo (los que pueden pagarlo todo) o sus cabezas.
Cápsulas del tiempo con información
• Almacenamiento subterráneo con la información y el ADN para futuras civilizaciones no humanas
• Discos Eternos que durarán para siempre (o “M-Disc”)

Plan D. Ideas improbables (2015-2020)

Ya esto es pura ciencia ficción
Salvados por una inteligencia no humana
• Tal vez extraterrestre nos encuentran y nos salvarán
• Tal vez vivimos en una simulación y los simuladores nos salvarán
• La Segunda Venida, un milagro, o la vida después de la muerte
• Enviar mensajes de radio en el espacio pedir ayuda en caso de una catástrofe inevitable
Y por último el plan malo

Plan malo (2015-2020)

El plan malo es el escenario donde por una parte se imponen los llamados bioluditas y sus ideas de prohibir las tecnologías que huelan a peligro, que son casi todas o no hacer nada, o sea, no tener un plan.
Prevenir la investigación de riesgos existenciales ya que sólo aumenta el riesgo
• Mantenga peligroso secreto información e ideas de terroristas
• No publicitar la idea de la catástrofe global hecha por el hombre
• No trate de controlar los riesgos ya que esto los aumentará
• Como no podemos medir la probabilidad de la catástrofe global tal vez sea irazonable tratar de cambiarla
• No hacer nada
Aquí Turchin también incluye las ideas extremas del ecologismo de la Creación de la civilización ecológica sin tecnología (“Mundo hecho a mano”, anarco-primitivismo), así como las teorías malthusianas y el control de la natalidad.
Hasta aquí los planes propuestas por Alexei Turchin entre el 2015 y 2020, repito, aunque su análisis llega hasta más allá del 2050, yo preferí solo tener en cuenta las acciones a corto plazo, que están más cerca de la realidad actual.
En mi libro El gran desafío de la humanidad en la era de las tecnologías, analizo los diferentes escenarios futuros más viables teniendo en cuenta las Tecnologías emergentes y su implicación sobre la humanidad. Ahora vamos a realizar cierta comparación con los planes de Turchin.
1.-Ecologismo, aquí se asume que predominan las ideas de una ecología radical, que lleva al crecimiento cero, lo que Turchin, en parte, llama el plan malo cuando hace referencia cuando habla de una civilización ecológica sin tecnología.
2.-Socialismo ecológico. Son los intentos de tratar de resolver la crisis ecológica actual dentro de un desarrollo sostenible, se busca un equilibrio entre lo económico, lo social y lo ambiental, apoyándose en las instituciones gubernamentales (sistema de control internacional) pero orientado al deterioro del planeta, a la justicia social, a la pobreza extrema, el consumismo, etc. A diferencia de Turchin que aspira a un plan A1 donde la ONU se dedica a los problemas del futuro.
3.-Socialismo colaborativo. Se establece relaciones profundas entre los humanos y estos con las tecnologías se busca alcanzar un futuro sostenible sin detener el progreso tecnológico. Tiene cierta coincidencia con el plan A3 de Turchin.
4.-Tecnologismo. Consiste en la aceptación de que las máquinas superarán a los humanos y este no tiene otra opción que fusionarse con ellas. Incluso, se considera que es lo mejor que le puede pasar. Tiene grandes semejanzas con el plan A4 con respecto a construir un planeta artificial.
5.-Capitalismo postmoderno. Es el momento en que la ideología transhumanista alcanza todo su esplendor dentro del sistema neoliberal. Al cual solo le preocupa el surgimiento de una superinteligencia artificial que pueda poner en peligro el propio desarrollo transhumanista. Coincide con la preocupación del plan A2 y la necesidad de construir una IA amistosa.
6.-Es consecuencia del anterior lleva a un transhumanismo responsable más preocupado por los riegos existenciales en general. Dado su carácter conciliador se mueve entre el plan A1, A2 y A3.
Opino que los planes elaborados por Alexei Turchi pueden ser un buen punto de partida, pero, teniendo en cuenta que se sustenta sobre el paradigma de una singularidad tecnológica.
Como decía al principio nuestra época esta influenciada por cuatro paradigmas predominantes que, por separados, parecen movilizar todos los esfuerzos hacia un futuro mejor (o peor).
• Neloliberalismo (en lo social)
• Transhumanismo (en lo individual)
• Sostenibilidad (en lo ecológico)
• Singularidad (en lo tecnológico)
Del enfoque transdisciplinar de estos paradigmas y las soluciones (éticas, educativas, evolutivas, espirituales, tecnológicas…) que se den, dependerá el futuro de la humanidad.

Recomendación: El gran desafío de la humanidad, en la era de las tecnologías

sábado, 18 de julio de 2015

Alejandro Madruga te ha enviado una invitación

 
 

Alejandro Madruga te ha invitado a acceder a Blasting News

Inscríbete a Blasting News, a primera revista libre e independiente donde puedes escribir tú mismo las noticias. Gracias a 60.000 reporteros en todo el mundo.

Has recibido una invitación para conectarte de Alejandro Madruga a través de la función "Personas que puedes conocer" (PYMK). Si no deseas recibir invitaciones de PYMK, haz clic aquí.
Blasting Sagl © 2013-2022 The Blasting News | Privacy Policy

martes, 7 de julio de 2015

El desafío humano ante el transhumanismo

meditacion-taringaSabemos que el mundo es injusto, unos nacen pudientes, gozan de todos los privilegios, mientras la mayoría solo sufre vicisitudes y carencias. Los que tienen todo pueden desde su tranquilidad y su opulencia concebir un mundo mejor (casi siempre para unos pocos) tienen toda la información y tiempo del mundo para hacerlo.

Una de las mayores injusticias es que no todos puedan acceder por igual a las tecnologías, que no tengan tiempo para reflexionar sobre sí mismos y sobre el destino de la humanidad, que en fin de cuentas es el futuro de sus hijos. Pero como pensar en el futuro, si en el presente el dinero no le alcanza y está lleno de preocupaciones existenciales. Los pudientes no pueden comprender las verdaderas limitaciones humanas y solo les preocupa sus limitaciones biológicas y aspiran a convertirse en superhumanos, mientras los que llevan vidas infrahumanas solo aspiran a que sus vidas sean menos dolorosas.

La carencia es mala, no te deja pensar y poco a poco vas perdiendo la capacidad de soñar y te vas convirtiendo en un subhumano y transitas por el mundo aferrado al suelo, sin saber porque llueve, porque el cielo es azul, ni que existen las mareas. Solo estas pensando que tienes que trabajar para ganar un salario y que tienen que estirarlo para llegar a fin de mes. Esta es la injusticia social silenciosa que afecta a muchos.

¿Qué pasa cuando una mente brillante tiende a marchitarse en una vida cargada de obligaciones que le va condicionando al no ser y le va robando lentamente sus potencialidades hasta convertirlo en un ser sin aspiraciones sin aspiraciones, o los quijotes que siguen insistiendo y terminan en la locura.

Ahora concentrándonos en el ideario transhumanista y las expectativas que esta despierta.
El transhumanismo nos lleva a la conclusión que la evolución natural ya terminó y se necesita de otra evolución artificial, de ahí la frase de que el transhumano no es fin de la evolución sino el comienzo de una nueva evolución. Ahora, ¿están los humanos en realidad agotados? En ese caso estamos en un callejón sin salida cuya única opción es fusionarnos con la tecnología. Esto parece una locura: renunciar a nuestra condición humana para convertirse en un ciborg:
Hay que definir qué se entiende por progreso humano verdaderamente digno y lograr una
cosmovisión del mundo, más a tono con los problemas más acuciantes, sería una cosmovisión no excluyente donde todos tendrían su propio espacio humano, nadie quedaría excluido y todas las voces tendrían su eco. Y sobre todo tendríamos una mayor comprensión de los problemas actuales.
Nos preocupa que las mejoras tecnológicas se consideren como la solución a los problemas de la humanidad (a la minoría que pueda comprar su mejoramiento). ¿Cuáles son esas modificaciones (presupuestos tecnológicos) a que aspiran los transhumanistas? ¿Y cuáles sus dilemas?

El uso de las tecnologías para el mejoramiento humano, nos conduce al siguiente dilema: conservar la naturaleza humana vs transformar la naturaleza humana. O sea:
• Preservar los atributos individuales que definen al ser humano y respetar la vida teniendo en cuenta las consecuencias globales. Conservar al individuo como especie y su evolución natural (posición bioconservadora)
• Potenciar los atributos individuales por medio de las tecnologías y manipular la vida con el fin de mejorarla.

Transformar al individuo como especie y alcanzar una nueva forma de evolución artificial (posición transhumanista).

En general, los transhumanistas, aceptan la estructura social actual basada en la competencia y la desigualdad, y asumen que con las tecnologías de mejora (las que en algún momento llegarán a estar al alcance de todos) se podrá alcanzar un mundo mejor.

Por una parte los transhumanista condicionan el mundo mejor a las tecnologías de mejora y a su aplicación sobre el individuo y peor aun consideran que todo aquel que no mejore su condición biológica, se convertirá en una subespecie, que no tendrá oportunidad en la nueva era de las tecnologías.

Hasta hoy solo se ven a los dilemas como un enfrentamiento entre dos posiciones (bioconservadores y transhumanistas) y en mejor de los casos como la búsqueda de una tercera posición que tome lo mejor de ambas parte, una tercera línea que no es ni lo uno ni lo otro, ya que no erradica el enfrentamiento. ¿Cómo lograr convivir desde puntos de vista diferentes? No es buscar una tercera línea entre transhumanos y bioconservadores sino lograr que ambos convivan y se desarrollen juntos.

Para los transhumanistas el progreso humano se agotó y solo ven limitaciones biológicas sin comprender el verdadero potencial humano y sueñan con aumentar sus capacidades desde una fuerza externa. Podemos aumentar la inteligencia de un lobo y por eso dejaría de seguir siendo lobo. Entonces tendremos mejores soldados, mejores tiranos, mejores empresarios, mejores consumidores mejores terroristas, mejores alcohólicos (bastaría cambiarse el hígado cada vez que deseen), la lista sería interminable. Sin dudas, muchos se aprovecharan de esta tecnología de mejoramiento.

Ahora quedan las grandes mentes humanas: Gandhi, Einstein, Fromm, Potter (el bioeticista), Descartes, la lista también es interminable, y sus sueños siguen inconclusos, sus ideales parecen olvidados, perdidos en la conciencia colectiva que quiere olvidarse de que es humana y una vez desprovistos de nuestra humanidad en que nos convertiremos.

Creo en un progreso humano verdaderamente digno que pueda trascender sus límites socio-culturales y seguir evolucionando en generaciones cada vez mejores, espiritualmente, en sensibilidad, en empatía.

Los pobres no pueden comprar la felicidad por tanto han aprendido a alcanzar (las cosas) su objetivos con su propio esfuerzo. Los pudientes lo quieren comprar todo sin esforzarse. Los ricos no nacieron ricos en algún momento de su vida tuvieron que esforzarse pero una vez que llegan a cierto estatus se acomodan al confort, al facilismo y dejan de sacrificarse y se olvidan de lo que una vez fueron.

Quizás en un futuro podamos mejorar nuestro cerebro y comprar más memoria, más velocidad de cálculo y hasta nuevos sentimientos. Y, así, de forma rápida lograr la inteligencia que otras le llevará años de estudio. Y esa es precisamente la desventaja que tiene el transhumanismo, yo lo veo como una selección natural: los que seguirán siendo humanos desarrollaran todo su potencial desde su propia fuerza interior y los que, carente de voluntad, escogerán la vía mas fácil. Los primeros darán lugar a generaciones cada vez mejores de seres humanos mientras los segundos iniciaran el camino de fusionarse con las tecnologías, hasta llegar al punto de no poder distinguirse ¿Quién es quién?

Al contrario de los futuristas, que siempre que comparan a los humanos modificados (versiones de humanos), hablan de forma despectiva o con lastima de los humanos que no se modifiquen, yo pienso todo lo contrario y albergo la esperanza que, tal vez, en un futuro, las mentes “obtusas” modificadas, puedan igualarse a las mentes “brillantes” sin modificar.

Recomendacion: El gran desafío de la humanidad, en la era de las tecnologías


jueves, 2 de julio de 2015

Desafíos de la humanidad

riesgos-existencialesEstamos hundiéndonos en una edad de hierro planetaria. Los bárbaros enemigos de la humanidad, están hoy en plena actividad eruptiva cuando se oponen entre sí, su antagonismo contribuye a acrecentar un maniqueísmo ciego y henchido de odio. El capitalismo desenfrenado de hoy no es la única amenaza a la humanidad: hay fanatismos desenfrenados, dictaduras implacables; existe la posibilidad de que aparezcan nuevos totalitarismos y hasta de que comiencen guerras de exterminio.
Edgar Morin

Todo indica que estamos en un punto en el que cambiamos o perecemos, y es que nunca la humanidad ha enfrentado tantos riesgos como ahora. Nick Bostrom los defines como riesgos existenciales, en Los riesgos del futuro, menciono los siguientes:
1. Mal uso de las tecnologías.
2. Guerras nucleares.
3. Pandemias.
4. Aristocracia posthumana.
5. Mala programación de una superinteligencia.
6. Superintenligencia autónoma que asume los valores de poder.
7. Criogenización y superpoblación.
8. Control del estado, de instituciones, ONG, movimientos religiosos, etc. Que no permitan ciertas aplicaciones para el mejoramiento humano (transhumanidad).
9. Dificultades tecnológicas. Que la transhumanidad no se pueda llevar a la practica
10. Agotamiento de los recursos naturales antes de que puedan ser creados artificialmente.

Nos referimos a los riesgos que son provocados por la acción humana y son riegos que se acrecientan según nos acercamos al futuro: el planeta se sigue deteriorando, las tecnologías cada vez son más inteligentes y autónomas, las pandemias se incrementan, la paz cada vez se ve más amenazada, las tecnologías son más potentes y fáciles de adquirir. Y las amenazas no terminan aquí, siguen surgiendo nuevas y nuevas amenazas. Como dice Godet, los problemas siguen siendo los mismos, solo que en otro contexto. En el fondo la base es la misma: la competencia y la lucha por el poder.

Estamos en un momento en que el progreso tecnológico parece representar un peligro para la humanidad, cuando en realidad no es un enfrentamiento entre progreso tecnológico y progreso humano sino entre el progreso tal como lo hemos concebido hasta ahora y nos conduce a un futuro posthumano, y el progreso alternativo (colaboración, relaciones profundas, empatía, fuerza interior, perfección espiritual, amor a la naturaleza, etc.) el cual ha sido subordinado al anterior, este progreso alternativo sería el que nos permitiría alcanzar un progreso humano trascendente y es la vía para un futuro sostenible. Y es que históricamente se ha vista separado el progreso humano del progreso tecnológico, al igual que ha visto separado el desarrollo social (crecimiento económico) de la evolución natural (ecosistema). Hoy comenzamos a entender la relación que existe entre ambos y la simbiosis que se está produciendo entre humanos y tecnologías. El ser humano de forma inconsciente apostó por un futuro posthumano (al igual que apostó por el crecimiento económico a expensa del deterioro del planeta) y es necesario que se tome consciencia sobre los pro y los contra así como de las alternativas que tiene.

El progreso tecnológico está muy bien definido en los trabajos de Kurzweil sobre la singularidad tecnológica (Inteligencia aritificial, el futuro del hombre) en cambio a pesar de las corrientes filosóficas, que han existido durante siglos y de las investigaciones en psicología y sociología; el concepto de progreso humano se encuentra desactualizado y desfasado con respecto a los acontecimientos del mundo actual y su creciente complejidad, y demás está decir que el futuro a penas se toca y siempre se le ha dejado a la ciencia ficción, y esto se debe a que se pensaba que el mundo siempre sería igual, hoy sabemos que el planeta se está deteriorando y cada vez son más las especies que desaparecen y de seguir así, la extinción de la especie humana es cuestión de tiempo, tampoco se conocía el poder que alcanzarían las tecnologías y que hoy se ven como la sucesora de la raza humana. En este nuevo contexto hay que repensar, urgentemente, el concepto de progreso humano, se necesita de un nuevo enfoque que nos diga hacia qué futuro vamos, que no necesariamente es el de una posthumanidad, sino que, más bien, vamos a ciegas al futuro y nos acercamos a una crisis tecnológica (Crisis en el siglo XXI).

Hoy, aunque muchos no lo quieran aceptar, estamos bajo el predominio de la ideología tecnológica, incluso el economicismo imperante cada vez se subordina más a las tecnologías, incluso, y de seguir como vamos, el escenario más probable será el de un tecno-liberalismo.

La solución no está en negar el progreso tecnológico, incluso en aplicar la prudencia ante una investigación determinada, pienso que el problema está en saber manejarnos con las tecnologías, como dijo Potter, en saber manejarnos con los nuevos conocimientos, y es tiempo de aceptar nuestra dimensión tecnológica, en realidad somos seres tecno-bio-psico-sociales. El problema está en que entendemos por progreso humano y como pueden las tecnologías emergentes (como superinteligencias) integrarse de forma colaborativa (y no como un competidor más) en los objetivos del progreso humano y no al revés, como asumen los transhumanistas.

Hay que estar consciente que nuestra importancia real está en la formación de las nuevas generaciones basado en un verdadero humanismo y contrariamente a cómo piensan muchos, nosotros no somos los que tenemos la solución final a los problemas del mundo, el status actual basado en el poder y la filosofía del tener, no podemos cambiarlo de un día para otro, es una arrogancia querer imponer soluciones e ideologías sin tener en cuenta las necesidades futuras. Es necesario saber que nos toca a nosotros y hasta donde podemos llegar, porque en verdad nuestra función más importante es preparar a las próximas generaciones para que sepan tomar las decisiones correctas, que nos conduzca a generaciones cada vez mejores (evolución espiritual) y a un mundo, cada vez mejor.

Por lo que es necesario dotar a las nuevas generaciones no solo de herramientas sino también de alternativas (escenarios alternos) para que puedan decidir un futuro mejor. En nuestros días se hace cada vez más difícil la toma de decisiones, sobre todo elegir aquellas que son correctas, esta es una época de crisis, donde los valores espirituales, son sólo un adorno más, que se usa según convenga. Una época en la que el hombre parece haber perdido toda esperanza de ser y solo aspira a tener, a coleccionar cada vez más objetos.

Nos acercamos a un punto en que la tecnología dejará de ser una estructura (tecno-socio-económica) para pasar a ser una superestructura, capaz de participar en las decisiones del planeta y formar parte de una nueva consciencia colectiva, llámese social, cósmica, planetaria, etc. En mi opinión, este es uno de los problemas más importantes que enfrentaremos en el transcurso de este siglo: ¿Cómo relacionarnos con las tecnologías según estas se vayan haciendo cada vez más independientes, mientras, paradójicamente, el hombre se hará más dependiente?

La tecnología nos obligará a repensar nuestra condición humana, obligándonos a conocer nuestras posibilidades de crecer como seres creadores desde una nueva visión del mundo donde dejamos de ser los amos de la naturaleza para convertirnos en los protectores de la naturaleza en alianza con la tecnología. Hay que buscar alternativas viables para un desarrollo tecnológico que se integre al progreso social y espiritual del ser humano desde un enfoque cooperativo que nos permite alcanzar un futuro verdaderamente sostenible.

Los desafíos

Desafío 1: Llevar a cabo una valoración del camino que estamos transitando y hacia qué futuro nos dirigimos de seguir así y que consecuencia tendría de no hacer nada. Saber hacia dónde vamos y si eso es lo que queremos (hoy nos encaminamos hacia un futuro posthumano)

Desafío 2: Formación de las nuevas generaciones en los valores humanos para que sepan tomar las decisiones correctas en la era de las tecnologías y formen a su vez generaciones mejores.

Desafío 3: Empezar por cambiar nuestra propia mentalidad y alcanzar la manifestación plena del ser por medio del desarrollo de la fuerza interior.

Desafío 4: Cambiar la actual estructura social competitiva y desarrollar una estructura social colaborativa basada en relaciones profundas que busca el bien de todos.

Desafío 5: Aprender a manejarse con los nuevos conocimientos dado el acelerado crecimiento de las tecnologías emergentes (superinteligencias) y lograr una relación entre humanos y tecnologías que permita ampliar la inteligencia y la sabiduría humana.

Desafío 6: Actitud proactiva para lograr una sinergia entre humanos y tecnologías que favorezca una evolución trascendente donde los humanos no pierdan su propia condición humana (ectosimbiosis mutual). Definir un futuro sostenible donde la vida siga progresando (evolucionando) en la era de las tecnologías.

Desafío 7: Construir una supererestructura tecnológica sostenible y colaborativa. Necesidad de un enfoque transdisciplinar que abarque al ser humano en toda su dimensión tecno-bio-psico-social que nos proporcione una visión del futuro acorde con los verdaderos ideales humanos (los ideales con lo que han soñado los grandes humanistas).

En realidad estamos ante un único desafío: enfrentar los desafíos.

Recomendado: El gran desafío de la humanidad, en la era de las tecnologías

martes, 30 de junio de 2015

Los riesgos existenciales de una singularidad tecnológica


riesgos
 Comencemos resumiendo algunas de los conceptos que ya hemos tratado en otros artículos.

Postulados de la singularidad tecnológica

La singularidad tecnológica se sostiene sobre la idea del surgimiento de una superinteligencia artificial que provoca una explosión de inteligencia, esto significa que una vez que surja esta será capaz de construir IAs cada vez más inteligentes (El desafío de la inteligencia artificial) produciéndose un crecimiento exponencial de inteligencia (aceleración tecnológica), por lo que, la IA se convertirá en el motor impulsor de la singularidad y con ello de alcanzar una posthumanidad de forma directa, sin la transición transhumanista. La idea de Kurzweil es acelerar a las tecnologías para alcanzar cuanto antes la posthumanidad (reconstrucción del humano).

Veamos los presupuestos que se tienen en cuenta para lograr una explosión de inteligencia basada en el hardware:

Un primer postulado: La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica). Se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la máquina pueda analizar exhaustivamente todas las posibles soluciones. Este es el caso del ajedrez, la inteligencia de la máquina se basa en su velocidad para calcular las variantes, lo cual le permite prever los que puede suceder en el tablero.

Un segundo postulado: La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente. La emergencia, la cual asume, que debido a la velocidad en el procesamiento de la información de la máquina, llegará un momento, que podrá manipular una gran cantidad de información y dada su complejidad podría, también, despertar como una inteligencia.

Un tercer postulado: Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos. Las máquinas al alcanzar cierta inteligencia serán capaces de construirse a si misma cada vez mejores hasta llegar a una superinteligencia.

Las cuatro singularidades tecnológicas

En la singularidad de Vinge, menos optimista y radical que Kurzweil, se plantean cuatro vías para alcanzar la singularidad tecnológica, la cual puede agruparse en dos grupos.


1.-Relacionada con una inteligencia artificial. Superinteligencia artificial
2.-Relacionada con la ampliación de la inteligencia

La ampliación de la inteligencia humana nos lleva a tres líneas de desarrollo
1.-Ampliacion de la inteligencia por medio de dispositivos cibernéticos. Se produce una conexión física entre los órganos biológicos con los artefactos cibernéticos. Superinteligencia hibrida.
2.-Ampliacion de la inteligencia por medio de la interacción (colaboración) entre humanos y medios cibernético. Aquí se produce una conexión lógica entre los humanos y las máquinas. Superinteligencia colectiva
3.-Ampliacion de la inteligencia por medio de la ingeniería genética. Se producen mejoras al organismo por medio de la aplicación de la biotecnología. Superinteligencia biológica.

Con respecto a la superinteligencia artificial, estamos hablando de una IA que se construirá para que esta sea cada vez más autónoma. Ahora la pregunta es, ¿a quién responderá esta superinteligencia artificial?

Teniendo en cuenta que será más inteligente que los humanos, es importante saber quiénes la van a utilizar y con qué fin. Por lo que al final estaríamos hablando de un software propietario, propiedad privada de alguien.

Por lo que tendremos varias posibilidades.
• Superinteligencia artificial creada (en sus bases para que siga mejorándose por si misma) por los centros de investigación.
• Superinteligencia artificial creada con fines militares, ya sea por militares o alianzas.
• Superinteligencia artificial creada por las grandes transnacionales como parte de su Know How, con fines económicos (las actuales grandes transnacionales de la información, encabezadas por Google).
• Superinteligencia artificial creada con fines comerciales, su propósito es vender los sistemas.
• Superinteligencia artificial creada por la comunidad de software libre.

Dilema tecnológico

El dilema de la superinteligencia consiste en: Si se debe desarrollar una inteligencia superior a los humanos o no. Cómo relacionarnos con las super inteligencias artificiales

Ahora en bien, caso de desarrollarse una IA superior a los humanos esta debe estar bajo el control humano o debe ser autónoma (auto programarse a si misma).

En caso que sea autónoma deberá, entonces:
– Integrarse al contexto social (sistema neoliberal)
– Tener su propio espacio vital
– Tener conciencia (máquinas espirituales)
– Programadas para que respondan a los intereses humanos (tener en cuenta todos los casos)

Veamos algunas consideraciones a tener en cuenta
• La IA debe surgir sobre el sistema social vigente y desarrollarse dentro de la ley del mercado. Y todo indica que se construirá dentro de una transnacional. La pregunta es: ¿Quién va a construir la IA y con qué fin? Lo más probable es que la IA llegue a comprender mejor que nadie la ley del mercado y se convierta en el millonario más grande de la historia, surgirá un super monopolio controlado por la IA. Por tanto, si aceptamos la estructura social actual, la mejor solución es el control de las tecnologías, cualquier otra solución se va de control y los riesgos son incalculables.
• No cambiar la mentalidad actual: hedonista, mercantilista, individualista, consumista. Basada en el tener, que solo busca el éxito (como fuerza externa). Los ricos ahora con la IA serán más ricos.
• La evolución de las máquinas es más veloz que los humanos y se considera que la evolución humana es demasiado lenta o está detenida, para muchos ya se agotó. Yo pienso que en la era de las tecnologías la evolución humana se va a acelerar y dará lugar simbiosis exógena y colaborativa.
• Querer que las tecnologías respondan a los humanos, pero… ¿No podrán las tecnologías tener sus propios intereses y construir su propio espacio vital y que este se complemente con el de los humanos?

La explosión de inteligencia

Cuando se habla de explosión de inteligencia se hace referencia a que surgirán máquinas, con más velocidad de cálculo (análisis de variantes), con mas memoria, con más capacidad para procesar la información: instrucciones, reglas… En fin, máquinas que de alguna forma simulan la potencia de un cerebro para el procesamiento de la información. Pero nada de esto nos indica que las máquinas puedan igualar (hasta el momento) el conocimiento humano. La explosión de inteligencia nos garantiza que podamos resolver problemas complejos desde un enfoque lógico-matemático (construcción de algoritmos), pero no que podamos conocer la complejidad del problema y su relación con las vivencias y necesidades humanas, si desechamos a los humanos por incapaces, entonces no hay de qué preocuparse.

El problema sigue siendo como representar los conocimientos humanos en una máquina y como esta será capaz de seguir aprendiendo y de aportar nuevos conocimientos para que se integren a un verdadero progreso humano, y este es otro problema. ¿Qué entendemos por progreso humano? Aunque parezca increíble, hoy estamos más claros del significado del progreso tecnológico, que del progreso humano. Y lo otro, ¿Cómo se integra el progreso tecnológico al progreso humano? O sea, cómo ese progreso tecnológico nos puede llevar a una ampliación de la inteligencia y de la sabiduría, no solo humana, sino colectiva (entre humanos y máquinas).

Los riesgos existenciales son las amenazas que están surgiendo desde el presente y que en el futuro podrían llevar a la extinción de la especie humana. Para muchos vamos a ciegas al futuro guiados por la ley del mercado y no por intereses verdaderamente humanos. Ahora de lo anterior surgen varia preguntas ¿Podemos construir un futuro sin riesgos? De seguir como vamos a qué futuro llegaremos? ¿Qué tenemos que hacer para cambiar el futuro? ¿Por dónde empezar?

Lo primero, sería definir qué tipo de futuro se quiere alcanzar sino no sabemos lo que queremos ni las acciones para lograr ese futuro, independiente, de los centros de investigaciones que se creen ni de las buenas intenciones, el futuro seguirá siendo incierto. Y es que seguir cómo vamos, no tendremos muchas opciones que ofrecer a la humanidad como no sea dejarse llevar por las tendencias del mercado y convertirse en un producto de las tecnologías.

Por otra parte enfrentamos el deterioro del planeta, que no es tanto el cambio climático, como que estamos consumiendo todos los recursos del planeta y lo estamos destruyendo y, de nuevo, nos estamos quedando sin opción, y solo nos queda recurrir a las tecnologías. Sin dudas, estamos empeñando nuestro futuro y dejándolo en manos de una tecno utopía salvadora.

A la hora de pensar en construir un futuro sin riesgos, tendremos dos una pesimista, que asume que todo lo que signifique un peligro debe ser prohibido o estar sometido al más estricto control o la optimista que asumen que todo debe seguir su curso y que el mercado por si solo puede regular todos los problemas o el tecno-optimismo que cree que las tecnologías son la solución a todos los problemas.

Lo anterior nos lleva a un gran dilema sobre el futuro, Inteligencia artificial el futuro del hombre, tenemos que elegir entre un futuro sostenible o un futuro poshumano. Hasta ahora, no sé porque, el futuro sostenible asume una visión pesimista y propone el control de las tecnologías (pensamiento bioconservador). Mientras el futuro poshumano propone no limitar el desarrollo de las tecnologías, ya sea porque el mercado de forma natural lo hará o porque las tecnologías siempre son buenas (pensamiento transhumanista).

Hay que estar consciente que cuando un transhumanista habla de riesgos existenciales esta incluyendo el riesgo de no alcanzar la transhumanidad y cuando un bioconservador habla de riesgos está considerando el peligro de que se alcance la transhumanidad. Y este es otro problema, para los transhumanista el que no se convierta a transhumano terminará siendo un ser inferior y obsoleto, con lo que estoy en total desacuerdo, y ese es otro tema, sobre el que hay que debatir y analizar. Por otra parte los bioconservadores ven al transhumanismo como una aberración que llevará a la humanidad a su propia destrucción, tampoco lo creo así. Hay razones suficientes para creer en que la humanidad puede superarse a sí misma y que seguimos ignorando todo el potencial que los seres humanos poseen.

Sobre estos temas hay varios centros trabajando, les recomiendo el escrito de Victoria Krakovna, Organizaciones centradas sobre los riesgos existenciales, como es lógico todos los centros radican en los EEUU, no lo digo en son de crítica, (son los que más conocen del tema) sino como un señalamiento de de que el futuro no se puede diseñar solo desde el norte, sueño con un mundo más participativo, por eso me parece muy interesante la iniciativa que se está llevando a cabo en The Millennum Project) sobre los trabajos futuros, el cual estamos promoviendo desde este blog en Proyecto Milenio, de lo cual hablaremos en próximas entradas.

Volviendo a los centros que se dedican al futuro de la humanidad, no me queda claro de qué futuro se está hablando (sostenible o poshumano) ni que se entiende por sostenibilidad (fuerte o débil), ni qué tipo de evolución se va a producir teniendo en cuenta la simbiosis que se está produciendo entre humanos y tecnologías. En fin todavía quedan muchas cosas por definir y en las que hay que ponerse de acuerdo, porque la incertidumbre del futuro nos enfrenta a riesgos demasiado complejos y escurridizos para querer controlarlos o prohibirlos sin una profunda comprensión de lo que somos como seres humanos.

En el artículo anterior habíamos mencionado la necesidad de definir el tipo de futuro que se quiere lograr, si un futuro sostenible o un futuro posthumano para saber hacia dónde queremos ir y que acciones se deben llevar a cabo para realizar ese futuro, independiente, de la posición que se asuma y la colaboración que se establezca, es condición necesaria alcanzar una coexistencia entre todas las ideologías y visiones del futuro.
Pero primero es necesario retomar el tema de la singularidad tecnológica.

Actualmente estamos ante una explosión de conocimientos donde el progreso tecnológico (tecnologías emergentes) nos lleva a un nuevo conocimiento, tenemos que aprender cómo manejarnos con las tecnologías que en un futuro serán inteligentes y se producirá una explosión de inteligencia que desatará, a su vez, una mayor explosión de conocimientos que podría sacar de juego a los humanos (los humanos dejaran de participar en la nueva explosión de conocimiento y esta terminar siendo dominio exclusivo de las máquinas)
Todos los enfoques sociales y ecológicos actuales tienen en cuenta un crecimiento lineal donde solo existe la dimensión socioeconómica y no se tiene en cuenta la dimensión tecnológica y su aceleración (explosión de inteligencia) que nos llevará a una explosión de conocimiento más allá del alcance de las capacidades del humano actual, de ahí que para muchos, no haya otra opción que fusionarse con las tecnologías (futuro posthumano), la sostenibilidad tecnológica es la búsqueda de un futuro sostenible.

Mi preocupación no es que la IA sea más inteligente, más amigables, ni más robusta sino que los humanos sean capaces de ampliar su inteligencia y su sabiduría junto a la IA, ya que en realidad estamos proyectando nuestra preocupación por nosotros mismos sobre la IA, y tememos que esa superinteligencia pueda hacer cosas peores que nosotros.

Considero que la justificación a los diferentes sistemas lo da la simbiosis que se está produciendo entre humanos y tecnologías. Estamos hablando de una relación simbiótica y es que, por primera vez en la historia de la humanidad; podemos decidir, ya no solo que tipo de religión, de moral, de sociedad y de educación queremos sino también, qué tipo de evolución queremos alcanzar y a qué futuro queremos llegar.
En mi opinión el gran acontecimiento no va a ser el surgimiento de una superinteligencia sino la simbiosis que se está produciendo, desde hoy, entre humanos y tecnologías. Y si somos capaces de guiar la evolución humana hacia generaciones cada vez mejores.
  • Ectosimbiosis – Futuro sostenible
  • Endosimbiosis – Futuro poshumano
Todo indica que nuestro dilema actual será escoger entre un futuro sostenible o un futuro posthumano. Siguiendo a la prospectiva podemos asumir cuatro actitudes frente al futuro.
  • Pasiva: no hacer nada
  • Reactiva: política de apagafuegos
  • Pre – activa: anticiparse a los cambios
  • Pro – activa: provocar el cambio

Futuro sostenible (Bioconservadurismo – Sostenibilidad) vs Futuro posthumano (Transhumanismo – Singularidad)

Veamos los seis escenarios que se están produciendo

1.-Posicion fácil: Aceptar el progreso tecnológico como un proceso inevitable (imperativo tecnológico) que se inserta en la ley del mercado.
  • No hacer nada, nos lleva a buscar que el capitalismo siga creciendo y a la necesidad de sustituir los recursos naturales por artificiales y a las tecnologías de mejoras sobre el ser humanos.
  • Se acepta un accionar reactivo con respecto al deterioro del planeta. Sostenibilidad débil.
  • Nos lleva a un transhumanismo liberal y al tecno-liberalismo (transnacionales)
  • Se produce una evolución semi-artificial dentro de una endosibiosis mutual
  • Personalidades. Es representativa de las grandes transnacionales y las elites de poder. Hay una ruptura con los valores del capitalismo tradicional pero sigue dentro de los principios del neoliberalismo. Es el neoliberalismo en la era tecnológica
2.-Posicion de compromiso: Preactivo con respecto al progreso tecnológico y al progreso humano
  • Evitar los riesgos de una singularidad pero desde un pensamiento transhumanista (transhumanismo democrático)
  • En lo socioeconómico caen dentro de la social democracia
  • Casi todos los centros dedicados a los riesgos existenciales se incluyen en esta posición (aunque no estén definidos explícitamente) ya que se proponen dentro de un transhumanismo responsable
  • Con respecto al planeta les preocupa el deterioro del planeta por lo que asumen posiciones de un desarrollo sostenible moderado
  • Se produce una evolución semi-natural teniendo como fundamento una endosinbiosis comensal.
  • Personalidades: Bostrom y Hughes dada su formación filosófica son los más representativos pero aquí pueden incluirse todos los defensores de una IA robusta, amigable y los que quieren evitar los riesgos de las tecnologías emergentes. Social democracia en la era tecnológica
3.-Posicion de ruptura: Acelerar a las tecnologías para alcanzar cuanto antes la singularidad tecnológica
  • Accionar proactivo que propone la construcción de superinteligencias artificiales, donde de forma explícita (Moravec) o de forma implícita (Kurzweil) las maquinas sustituirán a los humanos.
  • No se tiene en cuenta el deterioro del planeta, ya que este será reconstruido (planeta artificial). Estamos hablando de una sostenibilidad muy débil
  • Evolución artificial desde una endosimbiosis parasitaria
  • Personalidades: Moravec (el más consecuente), Vinge (el más abarcador) y Kurzweil (el más comprometido). Se ve en el tecnologismo la solución a todos los problemas más allá de la economía de mercado y de cualquier otra solución. Hay una ruptura con los principios del neoliberalismo por la concepción de un nuevo sistema donde las tecnologías son el verdadero protagonista. La era tecnológica sin límites.
4.-Posicion absoluta en defensa de la sostenibilidad y su evolución natural. Prohibir la singularidad
  • Actitud cercana al bioludismo
  •  Accionar proactivo con respecto a la sostenibilidad (ideología biocentrista)
  • Involución natural. Retornar a la naturaleza (sostenibilidad muy fuerte) desde una
  • ectosimbiosis parasitaria. Futuro sostenible bajo el respeto absoluto de la evolución natural.
  • Como sistema se cae dentro del socialismo ecologista (ecos—socialismo)Personalidades: los ecologistas, se propone una ruptura con el neoliberalismo y con el egocentrismo humano. Y la ecología se convierte en la salvación de la humanidad. Existen ONG enfocadas al tema.
5.-Posicion conciliadora entre el medio ambiente, el desarrollo social y el crecimiento económico. Se pretende controlar a las tecnologías para que no se escapen de las manos
  • Actitud preactiva con respecto al progreso en general, tanto humano como tecnológico.
  • Control de las tecnologías para que no se conviertan en una superestructura (singularidad tecnológica). Infraestructura tecnológica
  • Se prioriza la sostenibilidad por encima de los demás problemas, lo cual lleva a la búsqueda de tecnologías sostenibles y controlar a las tecnologías emergentes. Desarrollo sostenible
  • En lo político se defiende una social democracia de corte ecologista
  • Evolución socio-cultural desde una ectosimbiosis comensal. Futuro sostenible desde un equilibrio ecológico, social y económico donde lo tecnológico y lo espiritual se subordinan a lo anterior.
  • Personalidades: los defensores del desarrollo sostenible. Los que son considerados bioconservadores (ej. El grupo ETC), la mayoría de las ONG relacionadas con el medio ambiente, la UNESCO, etc.
6.-Posicion transformadora: Futuro sostenible proactivo se busca lograr un progreso donde las tecnologías y los humanos colaboren por un futuro sostenible. Futuro sostenible en la era tecnológica
  • Actitud proactiva tanto ante la singularidad como ante la sostenibilidad
  • Desarrollo de una superinteligencia colectiva. Superestructura tecnológica sostenible.
  • En lo político se defiende un socialismo comunitario (empoderamiento de la humanidad en toda su dimensión: tecno-bio-sico-social). Ideologia transdisciplinar
  • Evolución trascendente desde una ectosimbiosis mutual
  • Personalidades: Dando su enfoque transdisciplinar son muchas: Erick Fromm, Buda, Norbert Wiener, Stalman, Alejandro Madruga, Manturana, Valera, Frijot Capra, Baterson, Edgar Morin, Carlos Delgado… Donde cada cual ha aportado su granito de arena. No existe una institución como tal que desarrolle esta cosmovisión, lo más cercano son las instituciones dedicadas al pensamiento complejo.
En este último se defiende la cosmovisión de un Futuro sostenible proactivo desde una evolución trascendente. Que parte de un desarrollo sostenible ampliado a lo espiritual y lo tecnológico donde se produce una colaboración entre humanos y tecnologías. Se hace necesario aprender a convivir con otras inteligencias, otras formas de vida, lo cual lleva a un progreso humano proactivo que busca desarrollar todo el potencial humano.

Cuan hablo de evolución trasncendente me refiero a una ectosimbiosis mutual donde los humanos evolucionan desde su propia espiritualidad desarrollando su fuerza interior, siendo actores sociales de los cambio (empoderamiento humano) y desarrollando nuevas formas de colaboración entre humanos y tecnologías. Este es un tema sobre el que hay que trabajar, se necesita de unir esfuerzos, para encontrar una guía para el progreso humano y la preservación de la vida en la era de las tecnologías.