jueves, 29 de mayo de 2014

¿Se convertirá la inteligencia artificial en una amenaza? (2)

Los riesgos del futuro

¿Cuál es el riesgo que enfrentamos? O ¿Dónde está el riesgo? Ya en “Crisis en el siglo XXI” analizábamos los riesgos y las propuestas a  los peligros para el futuro. También (en articulos anteriores), habíamos mencionado que en estos tiempos no podemos hablar de una inteligencia artificial (IA) académica que se va construyendo en un centro de investigación para luego al mejor estilo científico, compartir los descubrimientos, hoy la IA, está naciendo en las grandes transnacionales, lo cual va a tener sus consecuencias, dado el contexto actual de poder. Pero las consecuencias justifican los enormes beneficios potenciales que surgirán.

Personalmente no me preocupa que se esté construyendo una superinteligencia artificial (Google y compañía), lo que me preocupa es que no estemos consciente de sus consecuencias y de que existen otras alternativas. Y lo peor, que estemos desde hoy, transfiriendo nuestra forma de pensar a las máquinas. Por ejemplo, ¿qué pasaría si en el país más poderoso del mundo surge una superinteligencia que quiera la paz, la solidaridad, la colaboración? ¿No sería destruida inmediatamente? Sin dudas, cualquier superinteligencia que surja tendrá que responder a los intereses hegemónicos, ya sea de los gobiernos, de las transnacionales, de los militares, etc. El sentido común nos dice que si los padres de un niño son delincuentes, el problema no es que el niño salga inteligente sino en la formación que recibirá de sus padres o sea en el entorno (contexto) en que se educa. El que las máquinas se conviertan en una superinteligencia no es un problema, el problema radica en el contexto en que esa inteligencia superior se irá formando, es seguro que Google no construirá una superinteligencia que comparta sus conocimientos sino en una que incremente la competitividad de Google y aumente su control sobre la Web.

En realidad, el problema no es de si podemos controlar a la IA sino de cuáles son nuestros intereses y cuales nuestros ideales, pienso que el verdadero problema está más en nuestra propia mentalidad y en lo que esperamos de las máquinas, ya que estas se insertarán en nuestro contexto; o como un colaborador, si somos capaces de serlo; o en un competidor, si seguimos enfrentándonos los unos a los otros. Tampoco creo que los expertos desde sus centros de investigación puedan encontrar los mejores resultados, los problemas nunca se han podido resolver con propuestas, y sobre todo si estas no van a la causa de los problemas: nuestra mentalidad individualista, consumista, competitiva y hegemónica, que nos lleva a vivir en constante enfrentamiento. Ahora, ¿quien le pone el cascabel al gato? Los problemas siguen “vivitos y coleando”, y como solución se propone una tecno-utopía, donde las tecnologías vendrán a resolver todos los problemas como por arte de magia, ya no hay que preocuparse del medio ambiente, de la contaminación, de los enfrentamientos, de la pobreza… Por supuesto que este super-optimismo no convence a muchos, pero se está convirtiendo en una esperanza en un mundo carente de grandes ideales y donde el consumismo y el TENER (en lugar del SER) se han convertido en la primera premisa de la humanidad.

Debemos tener una comprensión clara de los riesgos de una IA, en parte coincido con Maravec, en el sentido de que los robots (como parte de la IA) serán nuestros hijos mentales, claro no en el sentido que él lo dice, sino en el sentido de que aprenderán de nosotros y harán lo mismo que nosotros hacemos; luchar por el poder, por los mercados, por la hegemonía mundial, sin dudas no harán nada que no hayan aprendido de nosotros. Solo que, esta vez, estaremos ante una inteligencia que podrá superarnos en muchos sentidos. Pienso que las máquinas serán parte ineludible y necesaria de nuestra historia, pero, aun no estamos preparado para lidiar con ella, no porque sean una amenaza sino porque nosotros las convertiremos en una amenaza y en vez de obtener lo mejor de ellas, las arrastraremos a nuestra conveniencia y nuestros intereses individuales de predominio. Tal vez la IA nos obligue a ser mejores y a repensar nuestra condición humana; eso, si queremos seguir existiendo como especie humana.

viernes, 23 de mayo de 2014

Singularidad tecnológica y transhumanismo. ¿De qué estamos hablando?

En este artículo debería seguir hablando sobre si la IA será una amenaza, pero he notado que existe cierta confusión de términos, que es necesario aclarar.

La confusión se centra entre lo que es el transhumanismo y la singularidad tecnológica, incluso el propio Kurzweil declaró recientemente: “Nunca me ha gustado el transhumanismo etiqueta, ya que implica que estamos reemplazando a la humanidad”, y agrega. “No creo que eso sea cierto. Lo que estamos haciendo es aumentar la capacidad humana”. Precisamente eso es lo que quiere hacer el transhumanismo, aumentar o potenciar las capacidades humanas por medio de las tecnologías. ¿Entonces?… Comencemos por la singularidad tecnológica.

La singularidad tecnólogica nace de un artículo escrito por Vernor Vinge donde plantea el surgimiento de una inteligencia superior a la humana y, aunque hace hincapié en el surgimiento de una inteligencia artificial que podría superar a la humana, basándose en el crecimiento acelerado de los equipos de computo (ley de Moore), también tiene en cuenta otras vías para alcanzar una superinteligencia que supere a la de los humanos.

En cambio para Kurzweil primero surgirá la superinteligencia artificial y luego como consecuencia de estas surgirán las otras, idea muy parecida a la que defiende Hans Moravec, pero no tan categórica y parcializada, ver Moravec y el fin de la especie humana.

No soy de los que se casa con una idea, y he buscado otros enfoques que aclaren más la idea y últimamente me inclino por la definición de una simbiosis entre humanos y tecnologías, pero antes volvamos a los conceptos iníciales de Vinge de una singularidad tecnológica.

Para Vinge la singularidad tecnológica se producirá cuando surja una superinteligencia y propone cuatro tipos, a los que llamé, siguiendo a Vinge y comparándola con los conceptos que la sustentan.
  1. Superinteligencia artificial – La singularidad de Kurzweil
  2.  Superinteligencia hibrida – Transhumanismo fuerte
  3. Superinteligencia biológica – Transhumanismo débil
  4. Superinteligencia colectiva – Sostenibilidad tecnológica
Habíamos dicho al principio que Kurzweil se basa el surgimiento de una inteligencia artificial fuerte, que es la desencadenante de todo el proceso y nos lleva a la singularidad. Por lo que primero tiene que surgir una inteligencia que iguale y luego supero a los humanos para que se produzca la singularidad, la cual no es la idea original de Vinge y si la de Moravec, como ya decía, pero enfocado a los robots y no a los programas como Kurzweil. Los enfoques de cada uno son tratados en el libro: “Inteligencia artificial, el futuro del hombre“.

Para el transhumanismo es un proceso casi natural donde los humanos se irán realizando implantes, prótesis, mejoras genéticas, que lo irán perfeccionando, convirtiéndolo en más inteligente, más bello, más saludable, etc. Siguiendo la idea de una simbiosis humanos-tecnologías, mientras en la singularidad estaríamos en una endosimbiosis parasitaria, en el transhumanismo estaremos en una endosimbiosis mutual (para el fuerte) y una endosimbiosis comensal (para la débil). Puedo anticipar que dadas sus características se irán dividiendo en los defensores de un transhumanismo más radical, convertirse en Cyborg, o uno más conservador que solo aspira a mejora las facultades humanas, teniendo en cuenta los riesgos. James Hughes, divide el transhumanismo en liberal (al que llamo fuerte) y transhumanismo democrático (al que nombro débil).
Resumiendo, las ideas hasta ahora.

Singularidad de Kurzweil
  • Singularidad tecnológica
  • Superinteligencia artificial (IA fuerte)
  • Endosimbiosis parasitaria
Transhumanismo fuerte
  • Transhumanismo liberal
  • Superinteligencia hibrida (Cyborg)
  • Endosimbiosis mutual
Transhumanismo débil
  • Transhumanismo democrático
  • Superinteligencia biológica (Humano mejorado)
  • Endosimbiosis comensal
Aquí estoy asumiendo que el transhumanismo débil se orientara, o tendrán preferencia, por las mejoras genética, más cerca de la condición humana, que por las cibernéticas; el clásico Cyborg.
Por supuesto, no puede faltar la idea de una sostenibilidad tecnológica, la que siempre he defendido.

Superestructura tecnológica sostenible y colaborativa
  • Sostenibilidad tecnológica
  • Superinteligencia colectiva (IA debil)
  • Ectosimbiosis mutual
El problema radica en cómo será la sinergia entre las diferentes tendencias tecnológicas. ¿Podrán coexistir entre sí? De momento tenemos.
Ideología tecnologista (defiende una endosimbiosis entre humanos y tecnologías)
  • Singularidad tecnológica
  • Transhumanismo (fuerte y débil)
Alternativa a las ideologías tecnologista (defiende una ectosimbiosis mutual)
  • Sostenibilidad tecnológica
Es bueno resaltar que la ideología tecnologista se irá convirtiendo en la ideología predominante en el siglo XXI y queramos o no, el futuro de la humanidad dependerá de nuestra comprensión de las tecnologías, de lo que somos, de nuestros verdaderos valores humanos y de cómo seamos capaces de relacionarnos entre nosotros, con las nuevas tecnologías y nuestro entorno.

martes, 20 de mayo de 2014

¿Se convertirá la inteligencia artificial en una amenaza? (1)

Inteligencia artificial fuerte y débil

La creación de una Inteligencia Artificial (IA) siempre se consideró como una tarea exclusiva de científicos superdotados que trabajaban en modernos centros de investigación, ubicados en los países más desarrollados del planeta. Era algo ajeno a las verdaderas necesidades informáticas del mundo. Trabajar en la IA fuera de los grandes centros, era considerado una pérdida de tiempo, y si lo hacías desde un país en vías de desarrollo, era una locura. Y, aunque, en este último aspecto no se ha cambiado mucho, si estamos ante un nuevo fenómeno: la IA se ha escapado de los grandes centros de investigación para integrarse a las aéreas de investigación de las transnacionales de las nuevas tecnologías.

En los inicios de la IA, cuando todo era más claro, solo existían dos grandes enfoques teóricos (más bien filosóficos), los que defendían la idea de una inteligencia artificial fuerte y los que se inclinaban por una IA débil. Esto puede parecer trivial pero dada la interpretación que se le dé a lo que estamos representando podemos sacar diferentes conclusiones de un mismo resultado. La IA fuerte asume que la mente está formada por algoritmos altamente complejos que pueden ser descifrado y convertidos en programas de computadora, y de ahí llegan a la conclusión que la mente humana puede ser digitalizada en una computadora, en cambio la IA débil considera que la mente funciona diferente a las sistemas de computación y solo aspiran a desarrollar sistemas informáticos que tenga un comportamiento tan inteligente como el del ser humano.

Con el surgimiento de los sistemas expertos, la IA tomo un matiz comercial y se soñó con la posibilidad de desarrollar aplicaciones basadas en los conocimientos de una experto para un área de terminada. Aquí se retomaba la idea de una IA débil, eran sistemas de corte informático, aunque en buena lid, a los creadores no les preocupaba mucho las cuestiones filosóficas, su interés era más bien comercial.

Hasta ese momento existían tres grandes líneas, bien diferenciadas.
• Sistemas cognitivos (IA fuerte)
• Sistemas informáticos (IA débil)
• Sistemas expertos (Comerciales)

Teniendo en cuenta que la IA se ha caracterizado por hacer predicciones y crear expectativas, los sistemas expertos no fueron una excepción y el esperado bum comercial no paso de unas pocas ventas y muchas empresas fracasaron en el intento, al igual que las predicciones hechas por la IA en sus primeros años debido a la euforia de los avances en la demostración de problemas matemáticos y los juegos, lo que llevo a la idea de que era posible encontrar una heurística capaz de resolver todos los problemas (el solucionador general de problemas), esto llevó a una crisis en la inteligencia artificial y a buscar nuevos paradigmas de representación.

No obstante las recaídas que ha tenido la IA esta ha resurgido con más fuerza en nuestros tiempos y hoy se ha convertido en la mayor esperanza para la humanidad, tanto para los defensores del transhumanismo como para los defensores de una singularidad tecnológica, que parecen lo mismo pero no son iguales, aunque ambos coinciden en el surgimiento de una superinteligencia superior a la humana. Precisamente esta es la creencia actual, y no es tanto que se puede construir una inteligencia superior a la humana, que ya está surgiendo ante nuestros ojos, como producto de una tecnología, que cada vez se acelera más y se hace más potente y autónoma.

Entonces, ¿surgirá una superinteligencia que supere a la humana? Para muchos esta ya está sucediendo, y más preocupante aun, si ellos mismo están haciendo todo lo posible porque suceda, y peor aún; cuentan con todos los medios para lograrlo. Por lo que estamos hablando, ya no de investigadores aislados sino de grandes empresas que están convencidas de que es posible y han desplegado una cantidad enormes de recursos con ese fin, y si vemos los nombres de las compañías: Google, Apple, Facebook, IBM, Microsoft, Amazon, etc. Sin dudas, hay que pensar un poco antes de decir que no surgirá una inteligencia artificial, que al menos igualará en muchos aspectos, a los humanos. La pregunta es: ¿Que pasará cuando esto suceda?

Aceptando que surgirá una IA que llegará a superar a los humanos, estaremos ante el mayor impacto tecnológico que ha tenido la humanidad, tal vez, en toda su historia y no lo digo yo, Stephen Hawking, una de las mentes más privilegiadas, junto a otros expertos del tema, han dicho: “El éxito en la creación de IA sería el evento más grande en la historia humana. Por desgracia, también podría ser la última, a menos que aprendamos cómo evitar los riesgos”.


Referencia:
Inteligencia artificial, el futuro del hombre