martes, 30 de junio de 2015

Los riesgos existenciales de una singularidad tecnológica


riesgos
 Comencemos resumiendo algunas de los conceptos que ya hemos tratado en otros artículos.

Postulados de la singularidad tecnológica

La singularidad tecnológica se sostiene sobre la idea del surgimiento de una superinteligencia artificial que provoca una explosión de inteligencia, esto significa que una vez que surja esta será capaz de construir IAs cada vez más inteligentes (El desafío de la inteligencia artificial) produciéndose un crecimiento exponencial de inteligencia (aceleración tecnológica), por lo que, la IA se convertirá en el motor impulsor de la singularidad y con ello de alcanzar una posthumanidad de forma directa, sin la transición transhumanista. La idea de Kurzweil es acelerar a las tecnologías para alcanzar cuanto antes la posthumanidad (reconstrucción del humano).

Veamos los presupuestos que se tienen en cuenta para lograr una explosión de inteligencia basada en el hardware:

Un primer postulado: La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica). Se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la máquina pueda analizar exhaustivamente todas las posibles soluciones. Este es el caso del ajedrez, la inteligencia de la máquina se basa en su velocidad para calcular las variantes, lo cual le permite prever los que puede suceder en el tablero.

Un segundo postulado: La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente. La emergencia, la cual asume, que debido a la velocidad en el procesamiento de la información de la máquina, llegará un momento, que podrá manipular una gran cantidad de información y dada su complejidad podría, también, despertar como una inteligencia.

Un tercer postulado: Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos. Las máquinas al alcanzar cierta inteligencia serán capaces de construirse a si misma cada vez mejores hasta llegar a una superinteligencia.

Las cuatro singularidades tecnológicas

En la singularidad de Vinge, menos optimista y radical que Kurzweil, se plantean cuatro vías para alcanzar la singularidad tecnológica, la cual puede agruparse en dos grupos.


1.-Relacionada con una inteligencia artificial. Superinteligencia artificial
2.-Relacionada con la ampliación de la inteligencia

La ampliación de la inteligencia humana nos lleva a tres líneas de desarrollo
1.-Ampliacion de la inteligencia por medio de dispositivos cibernéticos. Se produce una conexión física entre los órganos biológicos con los artefactos cibernéticos. Superinteligencia hibrida.
2.-Ampliacion de la inteligencia por medio de la interacción (colaboración) entre humanos y medios cibernético. Aquí se produce una conexión lógica entre los humanos y las máquinas. Superinteligencia colectiva
3.-Ampliacion de la inteligencia por medio de la ingeniería genética. Se producen mejoras al organismo por medio de la aplicación de la biotecnología. Superinteligencia biológica.

Con respecto a la superinteligencia artificial, estamos hablando de una IA que se construirá para que esta sea cada vez más autónoma. Ahora la pregunta es, ¿a quién responderá esta superinteligencia artificial?

Teniendo en cuenta que será más inteligente que los humanos, es importante saber quiénes la van a utilizar y con qué fin. Por lo que al final estaríamos hablando de un software propietario, propiedad privada de alguien.

Por lo que tendremos varias posibilidades.
• Superinteligencia artificial creada (en sus bases para que siga mejorándose por si misma) por los centros de investigación.
• Superinteligencia artificial creada con fines militares, ya sea por militares o alianzas.
• Superinteligencia artificial creada por las grandes transnacionales como parte de su Know How, con fines económicos (las actuales grandes transnacionales de la información, encabezadas por Google).
• Superinteligencia artificial creada con fines comerciales, su propósito es vender los sistemas.
• Superinteligencia artificial creada por la comunidad de software libre.

Dilema tecnológico

El dilema de la superinteligencia consiste en: Si se debe desarrollar una inteligencia superior a los humanos o no. Cómo relacionarnos con las super inteligencias artificiales

Ahora en bien, caso de desarrollarse una IA superior a los humanos esta debe estar bajo el control humano o debe ser autónoma (auto programarse a si misma).

En caso que sea autónoma deberá, entonces:
– Integrarse al contexto social (sistema neoliberal)
– Tener su propio espacio vital
– Tener conciencia (máquinas espirituales)
– Programadas para que respondan a los intereses humanos (tener en cuenta todos los casos)

Veamos algunas consideraciones a tener en cuenta
• La IA debe surgir sobre el sistema social vigente y desarrollarse dentro de la ley del mercado. Y todo indica que se construirá dentro de una transnacional. La pregunta es: ¿Quién va a construir la IA y con qué fin? Lo más probable es que la IA llegue a comprender mejor que nadie la ley del mercado y se convierta en el millonario más grande de la historia, surgirá un super monopolio controlado por la IA. Por tanto, si aceptamos la estructura social actual, la mejor solución es el control de las tecnologías, cualquier otra solución se va de control y los riesgos son incalculables.
• No cambiar la mentalidad actual: hedonista, mercantilista, individualista, consumista. Basada en el tener, que solo busca el éxito (como fuerza externa). Los ricos ahora con la IA serán más ricos.
• La evolución de las máquinas es más veloz que los humanos y se considera que la evolución humana es demasiado lenta o está detenida, para muchos ya se agotó. Yo pienso que en la era de las tecnologías la evolución humana se va a acelerar y dará lugar simbiosis exógena y colaborativa.
• Querer que las tecnologías respondan a los humanos, pero… ¿No podrán las tecnologías tener sus propios intereses y construir su propio espacio vital y que este se complemente con el de los humanos?

La explosión de inteligencia

Cuando se habla de explosión de inteligencia se hace referencia a que surgirán máquinas, con más velocidad de cálculo (análisis de variantes), con mas memoria, con más capacidad para procesar la información: instrucciones, reglas… En fin, máquinas que de alguna forma simulan la potencia de un cerebro para el procesamiento de la información. Pero nada de esto nos indica que las máquinas puedan igualar (hasta el momento) el conocimiento humano. La explosión de inteligencia nos garantiza que podamos resolver problemas complejos desde un enfoque lógico-matemático (construcción de algoritmos), pero no que podamos conocer la complejidad del problema y su relación con las vivencias y necesidades humanas, si desechamos a los humanos por incapaces, entonces no hay de qué preocuparse.

El problema sigue siendo como representar los conocimientos humanos en una máquina y como esta será capaz de seguir aprendiendo y de aportar nuevos conocimientos para que se integren a un verdadero progreso humano, y este es otro problema. ¿Qué entendemos por progreso humano? Aunque parezca increíble, hoy estamos más claros del significado del progreso tecnológico, que del progreso humano. Y lo otro, ¿Cómo se integra el progreso tecnológico al progreso humano? O sea, cómo ese progreso tecnológico nos puede llevar a una ampliación de la inteligencia y de la sabiduría, no solo humana, sino colectiva (entre humanos y máquinas).

Los riesgos existenciales son las amenazas que están surgiendo desde el presente y que en el futuro podrían llevar a la extinción de la especie humana. Para muchos vamos a ciegas al futuro guiados por la ley del mercado y no por intereses verdaderamente humanos. Ahora de lo anterior surgen varia preguntas ¿Podemos construir un futuro sin riesgos? De seguir como vamos a qué futuro llegaremos? ¿Qué tenemos que hacer para cambiar el futuro? ¿Por dónde empezar?

Lo primero, sería definir qué tipo de futuro se quiere alcanzar sino no sabemos lo que queremos ni las acciones para lograr ese futuro, independiente, de los centros de investigaciones que se creen ni de las buenas intenciones, el futuro seguirá siendo incierto. Y es que seguir cómo vamos, no tendremos muchas opciones que ofrecer a la humanidad como no sea dejarse llevar por las tendencias del mercado y convertirse en un producto de las tecnologías.

Por otra parte enfrentamos el deterioro del planeta, que no es tanto el cambio climático, como que estamos consumiendo todos los recursos del planeta y lo estamos destruyendo y, de nuevo, nos estamos quedando sin opción, y solo nos queda recurrir a las tecnologías. Sin dudas, estamos empeñando nuestro futuro y dejándolo en manos de una tecno utopía salvadora.

A la hora de pensar en construir un futuro sin riesgos, tendremos dos una pesimista, que asume que todo lo que signifique un peligro debe ser prohibido o estar sometido al más estricto control o la optimista que asumen que todo debe seguir su curso y que el mercado por si solo puede regular todos los problemas o el tecno-optimismo que cree que las tecnologías son la solución a todos los problemas.

Lo anterior nos lleva a un gran dilema sobre el futuro, Inteligencia artificial el futuro del hombre, tenemos que elegir entre un futuro sostenible o un futuro poshumano. Hasta ahora, no sé porque, el futuro sostenible asume una visión pesimista y propone el control de las tecnologías (pensamiento bioconservador). Mientras el futuro poshumano propone no limitar el desarrollo de las tecnologías, ya sea porque el mercado de forma natural lo hará o porque las tecnologías siempre son buenas (pensamiento transhumanista).

Hay que estar consciente que cuando un transhumanista habla de riesgos existenciales esta incluyendo el riesgo de no alcanzar la transhumanidad y cuando un bioconservador habla de riesgos está considerando el peligro de que se alcance la transhumanidad. Y este es otro problema, para los transhumanista el que no se convierta a transhumano terminará siendo un ser inferior y obsoleto, con lo que estoy en total desacuerdo, y ese es otro tema, sobre el que hay que debatir y analizar. Por otra parte los bioconservadores ven al transhumanismo como una aberración que llevará a la humanidad a su propia destrucción, tampoco lo creo así. Hay razones suficientes para creer en que la humanidad puede superarse a sí misma y que seguimos ignorando todo el potencial que los seres humanos poseen.

Sobre estos temas hay varios centros trabajando, les recomiendo el escrito de Victoria Krakovna, Organizaciones centradas sobre los riesgos existenciales, como es lógico todos los centros radican en los EEUU, no lo digo en son de crítica, (son los que más conocen del tema) sino como un señalamiento de de que el futuro no se puede diseñar solo desde el norte, sueño con un mundo más participativo, por eso me parece muy interesante la iniciativa que se está llevando a cabo en The Millennum Project) sobre los trabajos futuros, el cual estamos promoviendo desde este blog en Proyecto Milenio, de lo cual hablaremos en próximas entradas.

Volviendo a los centros que se dedican al futuro de la humanidad, no me queda claro de qué futuro se está hablando (sostenible o poshumano) ni que se entiende por sostenibilidad (fuerte o débil), ni qué tipo de evolución se va a producir teniendo en cuenta la simbiosis que se está produciendo entre humanos y tecnologías. En fin todavía quedan muchas cosas por definir y en las que hay que ponerse de acuerdo, porque la incertidumbre del futuro nos enfrenta a riesgos demasiado complejos y escurridizos para querer controlarlos o prohibirlos sin una profunda comprensión de lo que somos como seres humanos.

En el artículo anterior habíamos mencionado la necesidad de definir el tipo de futuro que se quiere lograr, si un futuro sostenible o un futuro posthumano para saber hacia dónde queremos ir y que acciones se deben llevar a cabo para realizar ese futuro, independiente, de la posición que se asuma y la colaboración que se establezca, es condición necesaria alcanzar una coexistencia entre todas las ideologías y visiones del futuro.
Pero primero es necesario retomar el tema de la singularidad tecnológica.

Actualmente estamos ante una explosión de conocimientos donde el progreso tecnológico (tecnologías emergentes) nos lleva a un nuevo conocimiento, tenemos que aprender cómo manejarnos con las tecnologías que en un futuro serán inteligentes y se producirá una explosión de inteligencia que desatará, a su vez, una mayor explosión de conocimientos que podría sacar de juego a los humanos (los humanos dejaran de participar en la nueva explosión de conocimiento y esta terminar siendo dominio exclusivo de las máquinas)
Todos los enfoques sociales y ecológicos actuales tienen en cuenta un crecimiento lineal donde solo existe la dimensión socioeconómica y no se tiene en cuenta la dimensión tecnológica y su aceleración (explosión de inteligencia) que nos llevará a una explosión de conocimiento más allá del alcance de las capacidades del humano actual, de ahí que para muchos, no haya otra opción que fusionarse con las tecnologías (futuro posthumano), la sostenibilidad tecnológica es la búsqueda de un futuro sostenible.

Mi preocupación no es que la IA sea más inteligente, más amigables, ni más robusta sino que los humanos sean capaces de ampliar su inteligencia y su sabiduría junto a la IA, ya que en realidad estamos proyectando nuestra preocupación por nosotros mismos sobre la IA, y tememos que esa superinteligencia pueda hacer cosas peores que nosotros.

Considero que la justificación a los diferentes sistemas lo da la simbiosis que se está produciendo entre humanos y tecnologías. Estamos hablando de una relación simbiótica y es que, por primera vez en la historia de la humanidad; podemos decidir, ya no solo que tipo de religión, de moral, de sociedad y de educación queremos sino también, qué tipo de evolución queremos alcanzar y a qué futuro queremos llegar.
En mi opinión el gran acontecimiento no va a ser el surgimiento de una superinteligencia sino la simbiosis que se está produciendo, desde hoy, entre humanos y tecnologías. Y si somos capaces de guiar la evolución humana hacia generaciones cada vez mejores.
  • Ectosimbiosis – Futuro sostenible
  • Endosimbiosis – Futuro poshumano
Todo indica que nuestro dilema actual será escoger entre un futuro sostenible o un futuro posthumano. Siguiendo a la prospectiva podemos asumir cuatro actitudes frente al futuro.
  • Pasiva: no hacer nada
  • Reactiva: política de apagafuegos
  • Pre – activa: anticiparse a los cambios
  • Pro – activa: provocar el cambio

Futuro sostenible (Bioconservadurismo – Sostenibilidad) vs Futuro posthumano (Transhumanismo – Singularidad)

Veamos los seis escenarios que se están produciendo

1.-Posicion fácil: Aceptar el progreso tecnológico como un proceso inevitable (imperativo tecnológico) que se inserta en la ley del mercado.
  • No hacer nada, nos lleva a buscar que el capitalismo siga creciendo y a la necesidad de sustituir los recursos naturales por artificiales y a las tecnologías de mejoras sobre el ser humanos.
  • Se acepta un accionar reactivo con respecto al deterioro del planeta. Sostenibilidad débil.
  • Nos lleva a un transhumanismo liberal y al tecno-liberalismo (transnacionales)
  • Se produce una evolución semi-artificial dentro de una endosibiosis mutual
  • Personalidades. Es representativa de las grandes transnacionales y las elites de poder. Hay una ruptura con los valores del capitalismo tradicional pero sigue dentro de los principios del neoliberalismo. Es el neoliberalismo en la era tecnológica
2.-Posicion de compromiso: Preactivo con respecto al progreso tecnológico y al progreso humano
  • Evitar los riesgos de una singularidad pero desde un pensamiento transhumanista (transhumanismo democrático)
  • En lo socioeconómico caen dentro de la social democracia
  • Casi todos los centros dedicados a los riesgos existenciales se incluyen en esta posición (aunque no estén definidos explícitamente) ya que se proponen dentro de un transhumanismo responsable
  • Con respecto al planeta les preocupa el deterioro del planeta por lo que asumen posiciones de un desarrollo sostenible moderado
  • Se produce una evolución semi-natural teniendo como fundamento una endosinbiosis comensal.
  • Personalidades: Bostrom y Hughes dada su formación filosófica son los más representativos pero aquí pueden incluirse todos los defensores de una IA robusta, amigable y los que quieren evitar los riesgos de las tecnologías emergentes. Social democracia en la era tecnológica
3.-Posicion de ruptura: Acelerar a las tecnologías para alcanzar cuanto antes la singularidad tecnológica
  • Accionar proactivo que propone la construcción de superinteligencias artificiales, donde de forma explícita (Moravec) o de forma implícita (Kurzweil) las maquinas sustituirán a los humanos.
  • No se tiene en cuenta el deterioro del planeta, ya que este será reconstruido (planeta artificial). Estamos hablando de una sostenibilidad muy débil
  • Evolución artificial desde una endosimbiosis parasitaria
  • Personalidades: Moravec (el más consecuente), Vinge (el más abarcador) y Kurzweil (el más comprometido). Se ve en el tecnologismo la solución a todos los problemas más allá de la economía de mercado y de cualquier otra solución. Hay una ruptura con los principios del neoliberalismo por la concepción de un nuevo sistema donde las tecnologías son el verdadero protagonista. La era tecnológica sin límites.
4.-Posicion absoluta en defensa de la sostenibilidad y su evolución natural. Prohibir la singularidad
  • Actitud cercana al bioludismo
  •  Accionar proactivo con respecto a la sostenibilidad (ideología biocentrista)
  • Involución natural. Retornar a la naturaleza (sostenibilidad muy fuerte) desde una
  • ectosimbiosis parasitaria. Futuro sostenible bajo el respeto absoluto de la evolución natural.
  • Como sistema se cae dentro del socialismo ecologista (ecos—socialismo)Personalidades: los ecologistas, se propone una ruptura con el neoliberalismo y con el egocentrismo humano. Y la ecología se convierte en la salvación de la humanidad. Existen ONG enfocadas al tema.
5.-Posicion conciliadora entre el medio ambiente, el desarrollo social y el crecimiento económico. Se pretende controlar a las tecnologías para que no se escapen de las manos
  • Actitud preactiva con respecto al progreso en general, tanto humano como tecnológico.
  • Control de las tecnologías para que no se conviertan en una superestructura (singularidad tecnológica). Infraestructura tecnológica
  • Se prioriza la sostenibilidad por encima de los demás problemas, lo cual lleva a la búsqueda de tecnologías sostenibles y controlar a las tecnologías emergentes. Desarrollo sostenible
  • En lo político se defiende una social democracia de corte ecologista
  • Evolución socio-cultural desde una ectosimbiosis comensal. Futuro sostenible desde un equilibrio ecológico, social y económico donde lo tecnológico y lo espiritual se subordinan a lo anterior.
  • Personalidades: los defensores del desarrollo sostenible. Los que son considerados bioconservadores (ej. El grupo ETC), la mayoría de las ONG relacionadas con el medio ambiente, la UNESCO, etc.
6.-Posicion transformadora: Futuro sostenible proactivo se busca lograr un progreso donde las tecnologías y los humanos colaboren por un futuro sostenible. Futuro sostenible en la era tecnológica
  • Actitud proactiva tanto ante la singularidad como ante la sostenibilidad
  • Desarrollo de una superinteligencia colectiva. Superestructura tecnológica sostenible.
  • En lo político se defiende un socialismo comunitario (empoderamiento de la humanidad en toda su dimensión: tecno-bio-sico-social). Ideologia transdisciplinar
  • Evolución trascendente desde una ectosimbiosis mutual
  • Personalidades: Dando su enfoque transdisciplinar son muchas: Erick Fromm, Buda, Norbert Wiener, Stalman, Alejandro Madruga, Manturana, Valera, Frijot Capra, Baterson, Edgar Morin, Carlos Delgado… Donde cada cual ha aportado su granito de arena. No existe una institución como tal que desarrolle esta cosmovisión, lo más cercano son las instituciones dedicadas al pensamiento complejo.
En este último se defiende la cosmovisión de un Futuro sostenible proactivo desde una evolución trascendente. Que parte de un desarrollo sostenible ampliado a lo espiritual y lo tecnológico donde se produce una colaboración entre humanos y tecnologías. Se hace necesario aprender a convivir con otras inteligencias, otras formas de vida, lo cual lleva a un progreso humano proactivo que busca desarrollar todo el potencial humano.

Cuan hablo de evolución trasncendente me refiero a una ectosimbiosis mutual donde los humanos evolucionan desde su propia espiritualidad desarrollando su fuerza interior, siendo actores sociales de los cambio (empoderamiento humano) y desarrollando nuevas formas de colaboración entre humanos y tecnologías. Este es un tema sobre el que hay que trabajar, se necesita de unir esfuerzos, para encontrar una guía para el progreso humano y la preservación de la vida en la era de las tecnologías.