martes, 30 de junio de 2015

Los riesgos existenciales de una singularidad tecnológica


riesgos
 Comencemos resumiendo algunas de los conceptos que ya hemos tratado en otros artículos.

Postulados de la singularidad tecnológica

La singularidad tecnológica se sostiene sobre la idea del surgimiento de una superinteligencia artificial que provoca una explosión de inteligencia, esto significa que una vez que surja esta será capaz de construir IAs cada vez más inteligentes (El desafío de la inteligencia artificial) produciéndose un crecimiento exponencial de inteligencia (aceleración tecnológica), por lo que, la IA se convertirá en el motor impulsor de la singularidad y con ello de alcanzar una posthumanidad de forma directa, sin la transición transhumanista. La idea de Kurzweil es acelerar a las tecnologías para alcanzar cuanto antes la posthumanidad (reconstrucción del humano).

Veamos los presupuestos que se tienen en cuenta para lograr una explosión de inteligencia basada en el hardware:

Un primer postulado: La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica). Se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la máquina pueda analizar exhaustivamente todas las posibles soluciones. Este es el caso del ajedrez, la inteligencia de la máquina se basa en su velocidad para calcular las variantes, lo cual le permite prever los que puede suceder en el tablero.

Un segundo postulado: La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente. La emergencia, la cual asume, que debido a la velocidad en el procesamiento de la información de la máquina, llegará un momento, que podrá manipular una gran cantidad de información y dada su complejidad podría, también, despertar como una inteligencia.

Un tercer postulado: Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos. Las máquinas al alcanzar cierta inteligencia serán capaces de construirse a si misma cada vez mejores hasta llegar a una superinteligencia.

Las cuatro singularidades tecnológicas

En la singularidad de Vinge, menos optimista y radical que Kurzweil, se plantean cuatro vías para alcanzar la singularidad tecnológica, la cual puede agruparse en dos grupos.


1.-Relacionada con una inteligencia artificial. Superinteligencia artificial
2.-Relacionada con la ampliación de la inteligencia

La ampliación de la inteligencia humana nos lleva a tres líneas de desarrollo
1.-Ampliacion de la inteligencia por medio de dispositivos cibernéticos. Se produce una conexión física entre los órganos biológicos con los artefactos cibernéticos. Superinteligencia hibrida.
2.-Ampliacion de la inteligencia por medio de la interacción (colaboración) entre humanos y medios cibernético. Aquí se produce una conexión lógica entre los humanos y las máquinas. Superinteligencia colectiva
3.-Ampliacion de la inteligencia por medio de la ingeniería genética. Se producen mejoras al organismo por medio de la aplicación de la biotecnología. Superinteligencia biológica.

Con respecto a la superinteligencia artificial, estamos hablando de una IA que se construirá para que esta sea cada vez más autónoma. Ahora la pregunta es, ¿a quién responderá esta superinteligencia artificial?

Teniendo en cuenta que será más inteligente que los humanos, es importante saber quiénes la van a utilizar y con qué fin. Por lo que al final estaríamos hablando de un software propietario, propiedad privada de alguien.

Por lo que tendremos varias posibilidades.
• Superinteligencia artificial creada (en sus bases para que siga mejorándose por si misma) por los centros de investigación.
• Superinteligencia artificial creada con fines militares, ya sea por militares o alianzas.
• Superinteligencia artificial creada por las grandes transnacionales como parte de su Know How, con fines económicos (las actuales grandes transnacionales de la información, encabezadas por Google).
• Superinteligencia artificial creada con fines comerciales, su propósito es vender los sistemas.
• Superinteligencia artificial creada por la comunidad de software libre.

Dilema tecnológico

El dilema de la superinteligencia consiste en: Si se debe desarrollar una inteligencia superior a los humanos o no. Cómo relacionarnos con las super inteligencias artificiales

Ahora en bien, caso de desarrollarse una IA superior a los humanos esta debe estar bajo el control humano o debe ser autónoma (auto programarse a si misma).

En caso que sea autónoma deberá, entonces:
– Integrarse al contexto social (sistema neoliberal)
– Tener su propio espacio vital
– Tener conciencia (máquinas espirituales)
– Programadas para que respondan a los intereses humanos (tener en cuenta todos los casos)

Veamos algunas consideraciones a tener en cuenta
• La IA debe surgir sobre el sistema social vigente y desarrollarse dentro de la ley del mercado. Y todo indica que se construirá dentro de una transnacional. La pregunta es: ¿Quién va a construir la IA y con qué fin? Lo más probable es que la IA llegue a comprender mejor que nadie la ley del mercado y se convierta en el millonario más grande de la historia, surgirá un super monopolio controlado por la IA. Por tanto, si aceptamos la estructura social actual, la mejor solución es el control de las tecnologías, cualquier otra solución se va de control y los riesgos son incalculables.
• No cambiar la mentalidad actual: hedonista, mercantilista, individualista, consumista. Basada en el tener, que solo busca el éxito (como fuerza externa). Los ricos ahora con la IA serán más ricos.
• La evolución de las máquinas es más veloz que los humanos y se considera que la evolución humana es demasiado lenta o está detenida, para muchos ya se agotó. Yo pienso que en la era de las tecnologías la evolución humana se va a acelerar y dará lugar simbiosis exógena y colaborativa.
• Querer que las tecnologías respondan a los humanos, pero… ¿No podrán las tecnologías tener sus propios intereses y construir su propio espacio vital y que este se complemente con el de los humanos?

La explosión de inteligencia

Cuando se habla de explosión de inteligencia se hace referencia a que surgirán máquinas, con más velocidad de cálculo (análisis de variantes), con mas memoria, con más capacidad para procesar la información: instrucciones, reglas… En fin, máquinas que de alguna forma simulan la potencia de un cerebro para el procesamiento de la información. Pero nada de esto nos indica que las máquinas puedan igualar (hasta el momento) el conocimiento humano. La explosión de inteligencia nos garantiza que podamos resolver problemas complejos desde un enfoque lógico-matemático (construcción de algoritmos), pero no que podamos conocer la complejidad del problema y su relación con las vivencias y necesidades humanas, si desechamos a los humanos por incapaces, entonces no hay de qué preocuparse.

El problema sigue siendo como representar los conocimientos humanos en una máquina y como esta será capaz de seguir aprendiendo y de aportar nuevos conocimientos para que se integren a un verdadero progreso humano, y este es otro problema. ¿Qué entendemos por progreso humano? Aunque parezca increíble, hoy estamos más claros del significado del progreso tecnológico, que del progreso humano. Y lo otro, ¿Cómo se integra el progreso tecnológico al progreso humano? O sea, cómo ese progreso tecnológico nos puede llevar a una ampliación de la inteligencia y de la sabiduría, no solo humana, sino colectiva (entre humanos y máquinas).

Los riesgos existenciales son las amenazas que están surgiendo desde el presente y que en el futuro podrían llevar a la extinción de la especie humana. Para muchos vamos a ciegas al futuro guiados por la ley del mercado y no por intereses verdaderamente humanos. Ahora de lo anterior surgen varia preguntas ¿Podemos construir un futuro sin riesgos? De seguir como vamos a qué futuro llegaremos? ¿Qué tenemos que hacer para cambiar el futuro? ¿Por dónde empezar?

Lo primero, sería definir qué tipo de futuro se quiere alcanzar sino no sabemos lo que queremos ni las acciones para lograr ese futuro, independiente, de los centros de investigaciones que se creen ni de las buenas intenciones, el futuro seguirá siendo incierto. Y es que seguir cómo vamos, no tendremos muchas opciones que ofrecer a la humanidad como no sea dejarse llevar por las tendencias del mercado y convertirse en un producto de las tecnologías.

Por otra parte enfrentamos el deterioro del planeta, que no es tanto el cambio climático, como que estamos consumiendo todos los recursos del planeta y lo estamos destruyendo y, de nuevo, nos estamos quedando sin opción, y solo nos queda recurrir a las tecnologías. Sin dudas, estamos empeñando nuestro futuro y dejándolo en manos de una tecno utopía salvadora.

A la hora de pensar en construir un futuro sin riesgos, tendremos dos una pesimista, que asume que todo lo que signifique un peligro debe ser prohibido o estar sometido al más estricto control o la optimista que asumen que todo debe seguir su curso y que el mercado por si solo puede regular todos los problemas o el tecno-optimismo que cree que las tecnologías son la solución a todos los problemas.

Lo anterior nos lleva a un gran dilema sobre el futuro, Inteligencia artificial el futuro del hombre, tenemos que elegir entre un futuro sostenible o un futuro poshumano. Hasta ahora, no sé porque, el futuro sostenible asume una visión pesimista y propone el control de las tecnologías (pensamiento bioconservador). Mientras el futuro poshumano propone no limitar el desarrollo de las tecnologías, ya sea porque el mercado de forma natural lo hará o porque las tecnologías siempre son buenas (pensamiento transhumanista).

Hay que estar consciente que cuando un transhumanista habla de riesgos existenciales esta incluyendo el riesgo de no alcanzar la transhumanidad y cuando un bioconservador habla de riesgos está considerando el peligro de que se alcance la transhumanidad. Y este es otro problema, para los transhumanista el que no se convierta a transhumano terminará siendo un ser inferior y obsoleto, con lo que estoy en total desacuerdo, y ese es otro tema, sobre el que hay que debatir y analizar. Por otra parte los bioconservadores ven al transhumanismo como una aberración que llevará a la humanidad a su propia destrucción, tampoco lo creo así. Hay razones suficientes para creer en que la humanidad puede superarse a sí misma y que seguimos ignorando todo el potencial que los seres humanos poseen.

Sobre estos temas hay varios centros trabajando, les recomiendo el escrito de Victoria Krakovna, Organizaciones centradas sobre los riesgos existenciales, como es lógico todos los centros radican en los EEUU, no lo digo en son de crítica, (son los que más conocen del tema) sino como un señalamiento de de que el futuro no se puede diseñar solo desde el norte, sueño con un mundo más participativo, por eso me parece muy interesante la iniciativa que se está llevando a cabo en The Millennum Project) sobre los trabajos futuros, el cual estamos promoviendo desde este blog en Proyecto Milenio, de lo cual hablaremos en próximas entradas.

Volviendo a los centros que se dedican al futuro de la humanidad, no me queda claro de qué futuro se está hablando (sostenible o poshumano) ni que se entiende por sostenibilidad (fuerte o débil), ni qué tipo de evolución se va a producir teniendo en cuenta la simbiosis que se está produciendo entre humanos y tecnologías. En fin todavía quedan muchas cosas por definir y en las que hay que ponerse de acuerdo, porque la incertidumbre del futuro nos enfrenta a riesgos demasiado complejos y escurridizos para querer controlarlos o prohibirlos sin una profunda comprensión de lo que somos como seres humanos.

En el artículo anterior habíamos mencionado la necesidad de definir el tipo de futuro que se quiere lograr, si un futuro sostenible o un futuro posthumano para saber hacia dónde queremos ir y que acciones se deben llevar a cabo para realizar ese futuro, independiente, de la posición que se asuma y la colaboración que se establezca, es condición necesaria alcanzar una coexistencia entre todas las ideologías y visiones del futuro.
Pero primero es necesario retomar el tema de la singularidad tecnológica.

Actualmente estamos ante una explosión de conocimientos donde el progreso tecnológico (tecnologías emergentes) nos lleva a un nuevo conocimiento, tenemos que aprender cómo manejarnos con las tecnologías que en un futuro serán inteligentes y se producirá una explosión de inteligencia que desatará, a su vez, una mayor explosión de conocimientos que podría sacar de juego a los humanos (los humanos dejaran de participar en la nueva explosión de conocimiento y esta terminar siendo dominio exclusivo de las máquinas)
Todos los enfoques sociales y ecológicos actuales tienen en cuenta un crecimiento lineal donde solo existe la dimensión socioeconómica y no se tiene en cuenta la dimensión tecnológica y su aceleración (explosión de inteligencia) que nos llevará a una explosión de conocimiento más allá del alcance de las capacidades del humano actual, de ahí que para muchos, no haya otra opción que fusionarse con las tecnologías (futuro posthumano), la sostenibilidad tecnológica es la búsqueda de un futuro sostenible.

Mi preocupación no es que la IA sea más inteligente, más amigables, ni más robusta sino que los humanos sean capaces de ampliar su inteligencia y su sabiduría junto a la IA, ya que en realidad estamos proyectando nuestra preocupación por nosotros mismos sobre la IA, y tememos que esa superinteligencia pueda hacer cosas peores que nosotros.

Considero que la justificación a los diferentes sistemas lo da la simbiosis que se está produciendo entre humanos y tecnologías. Estamos hablando de una relación simbiótica y es que, por primera vez en la historia de la humanidad; podemos decidir, ya no solo que tipo de religión, de moral, de sociedad y de educación queremos sino también, qué tipo de evolución queremos alcanzar y a qué futuro queremos llegar.
En mi opinión el gran acontecimiento no va a ser el surgimiento de una superinteligencia sino la simbiosis que se está produciendo, desde hoy, entre humanos y tecnologías. Y si somos capaces de guiar la evolución humana hacia generaciones cada vez mejores.
  • Ectosimbiosis – Futuro sostenible
  • Endosimbiosis – Futuro poshumano
Todo indica que nuestro dilema actual será escoger entre un futuro sostenible o un futuro posthumano. Siguiendo a la prospectiva podemos asumir cuatro actitudes frente al futuro.
  • Pasiva: no hacer nada
  • Reactiva: política de apagafuegos
  • Pre – activa: anticiparse a los cambios
  • Pro – activa: provocar el cambio

Futuro sostenible (Bioconservadurismo – Sostenibilidad) vs Futuro posthumano (Transhumanismo – Singularidad)

Veamos los seis escenarios que se están produciendo

1.-Posicion fácil: Aceptar el progreso tecnológico como un proceso inevitable (imperativo tecnológico) que se inserta en la ley del mercado.
  • No hacer nada, nos lleva a buscar que el capitalismo siga creciendo y a la necesidad de sustituir los recursos naturales por artificiales y a las tecnologías de mejoras sobre el ser humanos.
  • Se acepta un accionar reactivo con respecto al deterioro del planeta. Sostenibilidad débil.
  • Nos lleva a un transhumanismo liberal y al tecno-liberalismo (transnacionales)
  • Se produce una evolución semi-artificial dentro de una endosibiosis mutual
  • Personalidades. Es representativa de las grandes transnacionales y las elites de poder. Hay una ruptura con los valores del capitalismo tradicional pero sigue dentro de los principios del neoliberalismo. Es el neoliberalismo en la era tecnológica
2.-Posicion de compromiso: Preactivo con respecto al progreso tecnológico y al progreso humano
  • Evitar los riesgos de una singularidad pero desde un pensamiento transhumanista (transhumanismo democrático)
  • En lo socioeconómico caen dentro de la social democracia
  • Casi todos los centros dedicados a los riesgos existenciales se incluyen en esta posición (aunque no estén definidos explícitamente) ya que se proponen dentro de un transhumanismo responsable
  • Con respecto al planeta les preocupa el deterioro del planeta por lo que asumen posiciones de un desarrollo sostenible moderado
  • Se produce una evolución semi-natural teniendo como fundamento una endosinbiosis comensal.
  • Personalidades: Bostrom y Hughes dada su formación filosófica son los más representativos pero aquí pueden incluirse todos los defensores de una IA robusta, amigable y los que quieren evitar los riesgos de las tecnologías emergentes. Social democracia en la era tecnológica
3.-Posicion de ruptura: Acelerar a las tecnologías para alcanzar cuanto antes la singularidad tecnológica
  • Accionar proactivo que propone la construcción de superinteligencias artificiales, donde de forma explícita (Moravec) o de forma implícita (Kurzweil) las maquinas sustituirán a los humanos.
  • No se tiene en cuenta el deterioro del planeta, ya que este será reconstruido (planeta artificial). Estamos hablando de una sostenibilidad muy débil
  • Evolución artificial desde una endosimbiosis parasitaria
  • Personalidades: Moravec (el más consecuente), Vinge (el más abarcador) y Kurzweil (el más comprometido). Se ve en el tecnologismo la solución a todos los problemas más allá de la economía de mercado y de cualquier otra solución. Hay una ruptura con los principios del neoliberalismo por la concepción de un nuevo sistema donde las tecnologías son el verdadero protagonista. La era tecnológica sin límites.
4.-Posicion absoluta en defensa de la sostenibilidad y su evolución natural. Prohibir la singularidad
  • Actitud cercana al bioludismo
  •  Accionar proactivo con respecto a la sostenibilidad (ideología biocentrista)
  • Involución natural. Retornar a la naturaleza (sostenibilidad muy fuerte) desde una
  • ectosimbiosis parasitaria. Futuro sostenible bajo el respeto absoluto de la evolución natural.
  • Como sistema se cae dentro del socialismo ecologista (ecos—socialismo)Personalidades: los ecologistas, se propone una ruptura con el neoliberalismo y con el egocentrismo humano. Y la ecología se convierte en la salvación de la humanidad. Existen ONG enfocadas al tema.
5.-Posicion conciliadora entre el medio ambiente, el desarrollo social y el crecimiento económico. Se pretende controlar a las tecnologías para que no se escapen de las manos
  • Actitud preactiva con respecto al progreso en general, tanto humano como tecnológico.
  • Control de las tecnologías para que no se conviertan en una superestructura (singularidad tecnológica). Infraestructura tecnológica
  • Se prioriza la sostenibilidad por encima de los demás problemas, lo cual lleva a la búsqueda de tecnologías sostenibles y controlar a las tecnologías emergentes. Desarrollo sostenible
  • En lo político se defiende una social democracia de corte ecologista
  • Evolución socio-cultural desde una ectosimbiosis comensal. Futuro sostenible desde un equilibrio ecológico, social y económico donde lo tecnológico y lo espiritual se subordinan a lo anterior.
  • Personalidades: los defensores del desarrollo sostenible. Los que son considerados bioconservadores (ej. El grupo ETC), la mayoría de las ONG relacionadas con el medio ambiente, la UNESCO, etc.
6.-Posicion transformadora: Futuro sostenible proactivo se busca lograr un progreso donde las tecnologías y los humanos colaboren por un futuro sostenible. Futuro sostenible en la era tecnológica
  • Actitud proactiva tanto ante la singularidad como ante la sostenibilidad
  • Desarrollo de una superinteligencia colectiva. Superestructura tecnológica sostenible.
  • En lo político se defiende un socialismo comunitario (empoderamiento de la humanidad en toda su dimensión: tecno-bio-sico-social). Ideologia transdisciplinar
  • Evolución trascendente desde una ectosimbiosis mutual
  • Personalidades: Dando su enfoque transdisciplinar son muchas: Erick Fromm, Buda, Norbert Wiener, Stalman, Alejandro Madruga, Manturana, Valera, Frijot Capra, Baterson, Edgar Morin, Carlos Delgado… Donde cada cual ha aportado su granito de arena. No existe una institución como tal que desarrolle esta cosmovisión, lo más cercano son las instituciones dedicadas al pensamiento complejo.
En este último se defiende la cosmovisión de un Futuro sostenible proactivo desde una evolución trascendente. Que parte de un desarrollo sostenible ampliado a lo espiritual y lo tecnológico donde se produce una colaboración entre humanos y tecnologías. Se hace necesario aprender a convivir con otras inteligencias, otras formas de vida, lo cual lleva a un progreso humano proactivo que busca desarrollar todo el potencial humano.

Cuan hablo de evolución trasncendente me refiero a una ectosimbiosis mutual donde los humanos evolucionan desde su propia espiritualidad desarrollando su fuerza interior, siendo actores sociales de los cambio (empoderamiento humano) y desarrollando nuevas formas de colaboración entre humanos y tecnologías. Este es un tema sobre el que hay que trabajar, se necesita de unir esfuerzos, para encontrar una guía para el progreso humano y la preservación de la vida en la era de las tecnologías.

viernes, 19 de junio de 2015

El gran desafío de la humanidad, en la era de las tecnologías

portada-desafiosEl libro es un desafío al pensamiento convencional y se constituye un instrumento valioso para pensar. Pero lejos de promover un pensamiento lineal como todo ensayo de anticipación implica un complejo juego de bifurcaciones, puntos de inflexión y una tensión constante entre pasado y futuro.
Y constituye un extraordinario esfuerzo en desentrañar nuevas conformaciones de mentalidades, intereses y potenciales consecuencias de nuevos operadores de la escena global, para muchos científicos sociales todavía inadvertidas. Su explicación de la naturaleza humana como una criatura bio-psico-social, incluyendo como cuarta característica constitutiva la tecnología me parece de importancia sustantiva. Tan válida como la percepción del riesgo que implica la capacidad de las tecnologías para incrementar su inteligencia y autonomía. Situación esta recientemente advertida por destacados científicos y líderes sociales, al advertir sobre las amenazas implícitas en el desarrollo de la inteligencia artificial.
Miguel Ángel Gutierrez.

El Ensayo se divide en cuatro temas :

1. Del fin de la historia al fin de la especie humana

Se hace un análisis del pensamiento de Fukuyama y de los errores contenidos en su libro “el fin de la historia”, desde su propia valoración.

2. El fin de una especie y el surgimiento de otra

Se analizan los presupuestos del transhumanismo y las diferentes visiones que han surgido tanto a favor como en contra, y el llamado enfrentamiento biopolítico. Así como las preocupaciones que está generando el transhumanismo, lo cual llevo a Fukuyama a decir que es la idea más peligrosa del mundo.

3. La supervivencia de la especie humana

¿Se están cumpliendo los objetivos del desarrollo sostenible? Se cuestionan los objetivos actuales para lograr un futuro sostenible ante el impacto cada vez mayor de las tecnologías emergentes.

4. Hacia un progreso humano verdaderamente digno

Se exponen los posibles escenarios futuros y las alternativas de que se dispone para lograr un futuro sostenible en la era de las tecnologías.

El ensayo persigue llevar a cabo una valoración del camino que estamos transitando y hacia qué futuro nos dirigimos, hoy todo parece indicar que, por inercia, nos dirigimos hacia un futuro posthumano, de ser así, ¿Qué consecuencias tendría? ¿Si es eso lo que deseamos para nuestros hijos? ¿Tenemos alguna alternativa? Y sobre todo, ¿Qué iniciativas llevar a cabo para cambiar ese futuro?

Disponible en Amazon

lunes, 1 de junio de 2015

Las cuatro singularidades tecnológicas


relacion-humanos Cuando se habla de singularidad tecnológica se piensa solo en el surgimiento de una super inteligencia artificial y se subestiman el resto de las tendencias y peor aun existe gran confusión sobre que es la singularidad tecnológica y que es el transhumanismo, y más aun, existen diferentes posiciones dentro de los defensores de una singularidad tecnológica, porque no es lo mismo la singularidad que defiende Moravec, que la singularidad que defiende Kurzweil.

Hace algunos años propuse una clasificación de la singularidad tecnológica siguiendo la idea de Vinge, quien, en mi opinión tiene la concepción más clara y abarcadora de la singularidad, tanto la de Kurzweil como la de Moravec, resultan un poco confusas. En cambio Vinge separa las singularidades (vías para alcanzarlas) en cuatro tendencias de acuerdo al tipo de super inteligencia que podía surgir, a las que yo llamé: superinteligencia artificial, superinteligencia hibrida, superinteligencia colectiva y superinteligencia biológica.

También, siguiendo a Vinge, trate de ampliar la idea de una singularidad tecnológica como el momento en que las tecnologías se convertían en una superestructura capaz de compartir las decisiones del planeta con los humanos. Pero siempre me quedaba algo confusa la relación entre las diferentes superinteligencias y si estas podían coexistir entre sí (eso no le queda claro a nadie), y lo más lógico dado nuestra actitud ante los problemas actuales que todo lo queremos resolver por medio de amenazas y sanciones, actitud que nos está arrastrando a un enfrentamiento mundial de consecuencias impredecibles. Por eso no sería nada extraño que las superinteligencias también se enfrentaran aludiendo nuevas causas y justificando el predominio del más fuerte.
Últimamente prefiero hablar de una simbiosis entre humanos y tecnologías, lo cual me aclara muchos de los conceptos que hasta ahora me parecían algo confusos, antes de seguir hablando de la simbiosis, prefiero aclarar algunos conceptos y confusiones entre singularidad tecnológica y transhumanismo. Son muchos los que hablan de transhumanismo, humano mejorado y singularidad tecnológica como si fuera lo mismo. En realidad hay intenciones muy diferentes entre uno y otro, y también aspiraciones y consecuencias diferentes.
Para los transhumanista la esencia de sus postulados radican en alcanzar la superhumanidad, ellos buscan, por medio de las tecnologías, superar sus límites humanos y lograr ser más inteligentes, mas fuertes, más bellos, saludables, etc. La singularidad tecnológica se sostiene sobre la idea de que las máquinas sean cada vez más inteligentes hasta igualar a los humanos y luego superarlos. Según Moravec, esto es un proceso inevitable, ya que la evolución de las máquinas (progreso tecnológico) es superior a la evolución humana y ve a las máquinas como las herederas naturales del planeta. En cambio, Kurzweil, ve las ventajas que esto reportará para los humanos, ya que esa superinteligencia artificial, muy superior a la humana, será capaz de resolver los grandes problemas que los humanos no han podido resolver, y esta convencido de que la inmortalidad será posible.

Si para los transhumanistas la superhumanidad, se puede alcanzar  con transformaciones paulatinas, desde ellos mismo, convirtiendose en un individuo cada vez más inteligente, más joven y saludable, así hasta alcanzar la inmortalidad. La singularidad desplaza sus aspiraciones a que las máquinas sean cada vez más inteligentes y apuestan por una futura transferencia de la mente a un medio digital (mind uploading), de ahí que existan muchas personas que están criogenizando sus cabezas, para algún día, cuando se alcance la singularidad, descarguen su mente sobre un nuevo soporte que le permita existir en un medio digital, estamos hablando de lo que actual mente se le llama “la nube”, lo cual nos lleva a la posibilidad futura de vivir en un mundo digital al estilo Matrix.

Cuando hablamos de descargar la mente en un mundo digital estamos asumiendo que la mente no es otra cosa que complejos algoritmos que pueden ser convertidos a programas, la metáfora de la computadora que sume que la mente no está conformada por programas y que el cerebro no es otra cosas que un sistema que procesa información al igual que la computadora. De ahí que se pueda transferir la mente, en forma de programas, software, codificarse digitalmente; como quiera llamarse. Al final vamos a tener un programa que es la representación virtual de la mente humana. Por supuesto que la cosa no termina aquí, lo bueno sería lograr que la mente se pueda seguir reprogramando y perfeccionándose en nuevas versiones, idea de Kurzweil. A mí me viene a la mente el cuento ¿Existe verdaderamente Mr.Smith? , de Stanislaw Lem, de una hombre que compite en carrera de autos y cada vez que tiene una accidente le ponen una prótesis, así hasta que al final solo está compuesto de prótesis; ya no tiene nada de humano. Aquí estamos ante una transformación por hardware, en el caso de la mente estaríamos en una transformación por software ya que al final se estaría reprogramando a la mente en nuevas versiones cada vez más algorítmicas (más cerca de ser un software) que al final no tendría ninguna relación con la mente que le dio origen y podríamos preguntarnos: ¿Existirá verdaderamente Mr. Kurzweil?

 Nos acercamos a una singularidad tecnológica donde las tecnologías se convertirán en una superestructura y participarán de las decisiones del planeta como una inteligencia más, independientemente de si las personas se conectan físicamente a la tecnología o no (Wikipedia), por supuesto,  que esto no tiene porque suceder. Están los que piensan que la solución es ir cuanto antes a una singularidad tecnológica y los que piensan todo lo contrario y proponen la prohibición de la mayoría de las tecnologías emergentes, también, están los que creen que la singularidad tecnológica no pasa de ser una tecno-utopía y nunca sucederá.
La idea central para que surja una singularidad tecnológica es el surgimiento de una inteligencia suprahumana. Vinge, utiliza el término de máquina ultra inteligente y la define como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de éste y está convencido de que esa inteligencia superior será la que impulsará el progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural. Destaco esto último, que superara la evolución natural, por lo que estamos asumiendo que el futuro (después de la singularidad) surgirá una evolución superior a la actual.

Sabemos, que en la actualidad, la humanidad no se rige totalmente por la evolución natural sino por una evolución socio-cultural, por suerte ya no se cumple la ley de la supervivencia al pie de la letra como en época del hombre de las cavernas y parece como si la ley del mercado hubiese sustituido a la ley de la selva, y la lucha pasó de los territorios a los mercados. Tampoco se utilizan los mismos métodos, las agresiones militares se han ido transformando en agresiones económicas (sin abandonar las acciones militares). En fin, la lucha por el poder, con otros métodos, sigue siendo la misma.

Volviendo al tema, estamos hablando de una superinteligencia capaz de superar a la inteligencia humana en todos los aspectos, yo no estaría tan seguro de que podría superar a los humanos en todos los aspectos, y que esta inteligencia artificial sería a su vez capaz de autoprogramarse y desarrollar programas cada vez más inteligentes y surgiría así una explosión de inteligencia. Esta es la idea de una singularidad tecnológica basada en el surgimiento de una superinteligencia artifical.

No olviden que los defensores de una singularidad parten de la idea de que el cerebro humano no tiene ningún cambio significativo durante milenios (a diferencia de las máquinas que se asume que pueden autoconstruirse en versiones cada vez más potentes).

Para el logro de una inteligencia superhumana, existen dos grandes vías
El de una inteligencia artificial que se hace cada vez más inteligentes, como ya mencionamos
El de la amplificación de la inteligencia humana. Existen tres formas de ampliar la inteligencia humana y crear una superinteligencia (inteligencia superior a la de los humanos)
• Superinteligencia hibrida, producto de la fusión entre humanos y tecnologías
• Superinteligencia biológica, modificación por ingeniería genética del cerebro
• Superinteligencia colectiva, producto de la colaboración entre humanos y tecnologías

Super inteligencia artificial: Se acepta el concepto de una inteligencia artificial (IA) que supera a los humanos, es condición necesaria. Estamos hablando de una IA que se desarrolla a sí misma de forma independiente a los humanos, como la define Moravec, y según él, las máquinas inevitablemente desplazarán a los humanos (endosimbiosis parasitaria, ver Relación simbiótica entre humanos y tecnologías)

Superinteligencia hibrida: Aunque no es obligado, sin dudas los humanos necesitarán de una IA para fusionarse con ella, no se puede hablar de un ciborg, si la máquinas como tal, no son capaces de mejorase a sí mismas (endosimbiosis mutual).

Superinteligencia biológica. Este es el único caso que no necesita del surgimiento de una IA para que sea capaz de lograr una superinteligencia (endosimbiosis comensal)

Superinteligencia colectiva. También es necesario el surgimiento de una superinteligencia donde las IAs se hacen cada vez más inteligentes pero en cooperación con los humanos y ambos se perfeccionan por medio de un aprendizaje cada vez más acelerado y perfeccionado (ectosimbiosis mutual)

Superinteligencia colectiva

Como defensor de una superinteligencia colectiva, he estado pensando sobre algunos conceptos que es necesario aclarar.

El aprendizaje de la máquina en el mundo real (que no es lo mismo que en un laboratorio), hasta hoy, no permite que se puedan programar todos los conocimientos (ir construyendo manualmente una base de conocimientos sobre el mundo real) la experiencia ha llevado a que la máquina debe ser capaz de aprender por sí misma.

Lo cual nos lleva a que la máquina pueda construir programas cada vez más inteligentes a la vez que va construyéndose a sí misma. Aquí hay un problema, se supone que en estos programas la máquina le transfiera su experiencia a la nueva máquina, por tanto el acto de autoprogramarse es una acción que requiere de un aprendizaje que se va a trasmitir por la elaboración de códigos de programas que serán incluidos en la nueva máquina (al igual que los humanos requieren de un aprendizaje que debe ser asimilado)
Por tanto, cuando se habla de máquinas más inteligentes se refieren a una máquina que construye otra más potente: más capacidad de memoria, más velocidad de cálculo y se ignora la necesidad de un aprendizaje y de una experiencia adquirida en la práctica.

Entonces, la máquina al igual que los humanos estará sometida a un proceso de aprendizaje, de una experiencia y de una especialización en ciertas actividades. O sea, estamos hablando de acelerar el aprendizaje.

Por eso en lugar de una explosión de inteligencia que se refiere a máquinas que construyen máquinas cada vez más potente, prefiero hablar de una explosión de aprendizaje donde las máquinas tendrán que ser capaces de aprender y a su vez de construir máquinas capaces de aprender más y mejor. Y en este caso, están tanto los humanos como las máquinas, ambos tienen que aprender a aprender.

Siguiendo con el aprendizaje, las máquinas tendrán que aprender del mundo real, de los textos, de la experiencia humana, de las instituciones educativas humanas. Entonces, ¿como se harán más inteligentes que los humanos? Su potente hardware necesitará de una fuente de conocimientos que los humanos no podrán darle (dado sus lentos cerebros) y podría suceder que vieran a los humanos como un obstáculo para su crecimiento. ¿Qué pasaría si dotáramos a un tigre de una superinteligencia, primero se convertiría en el depredador más eficiente que jamás haya existido y después consideraría a la raza humana un peligro y, sin dudas, la destruiría.

Por suerte existe una solución, las máquinas y los humanos deben aprender juntos, ambos deben hacerse cada vez más inteligentes (y sabios) e ir acelerando el aprendizaje y con ellos las fuentes de conocimientos, las instituciones educativas, los medios de aprendizaje, en general se debe transformar la cultura actual exclusivamente humana por una producto de la colaboración entre humanos y máquinas, estamos hablando de una superinteligencia colectiva.

De una parte tendremos máquinas mejores dotadas que se irán construyendo y, de la otra, niños que irán naciendo también mejores dotados (dentro de una ectosimbiosis mutual como base de la evolución) y que, ambos, estarán sometidos a una educación cada vez más avanzada (aceleración del aprendizaje).