jueves, 29 de enero de 2015

Cómo relacionarnos con las super inteligencias artificiales (2)

SuperIAHabíamos vista en el artículo anterior que Tegmark planteaba tres grandes preocupaciones con respectos a la IA.
– ¿Qué le pasará a los humanos si las máquinas gradualmente lo van reemplazando en el mercado de trabajo?
– Si las máquinas llegaran a competir con los seres humanos en todas las actividades intelectuales
– ¿Qué pasará luego de que una explosión de inteligencia de las máquinas deje muy atrás a la inteligencia humana y en ese caso, cuál será el papel de los seres humanos?

El dilema de la super inteligencia consiste en si se debe desarrollar una inteligencia superior a los humanos o no. Y si de decide desarrollarla, estaremos ante otro dilema: se debe controlar o no. Las posiciones son encontradas; los que están a favor de prohibir las ven como un peligro, sería otra inteligencia que al final terminaría por desplazar a los humanos. Los que piensan que se debería construir pero bajo ciertas normas o controles y los que creen que la super IA es lo mejor que nos puede pasar y lo ideal es que suceda cuanto antes. Existen otras posiciones más o menos radicales, que no las voy a mencionar ahora.

Otro cuestionamiento consiste en si las tecnologías son un proceso inevitable de crecimiento (aceleración tecnológica) que no se puede detener, este es un problema atañe a toda la sociedad e implica riesgos sociales y económicos y puede desencadenar una lucha por construir una superinteligencia privada que permita el monopolio de la información.

Ahora en bien, caso de desarrollarse una IA superior a los humanos esta debe estar bajo el control humano o debe ser autónoma (auto programarse a si misma).
En caso que sea autónoma deberá
– Integrarse al contexto social (sistema neoliberal)
– Tener su propio espacio vital
– Tener conciencia (máquinas espirituales)
– Programadas para que respondan a los intereses humanos (tener en cuenta todos los casos)

Con respecto a programar una IA que responda a los intereses humanos, tendríamos que construir una super inteligencia a prueba de humanos, capaz de diferencias las bromas de lo que es en serio, de comprender las pasiones humanas, de tener sentido común, de tolerar las idioteces humanas y de diferenciar las buenas de las malas intenciones. No estaríamos cometiendo el mismo error de los años 8Os de aspirar a construir una IA capaz de resolver los problemas más complejos sin tener vivencias, y aunque la IA era capaz de resolver problemas matemáticos de alto nivel pero era incapaz de encontrar soluciones triviales que un niño podía resolver al momento. Entonces se llego a la conclusión que la máquina era muy buena para los problemas que requerían de análisis lógico (ya esto se sabía, y se decía que todas las funciones mentales se podría convertir en algoritmos) pero era ineficaz ante los problemas que requerían de sentido común, y esto si era nuevo. Y es un freno con el que se ha topado la IA desde entonces.

Lo anterior ha dado lugar a nuevas líneas de investigación siendo la más destacada la Roney Brooks, investigador del MIT, quien se dio a la tarea de construir pequeños robots capaces de ir aprendiendo de su entorno, en lugar de querer desarrollar un sistema que contengo todos los conocimientos humanos. Otras líneas de investigación están ligadas con las redes neuronales, con el aprendizaje automático, con las plataformas multiagentes y con los algoritmos genéticos, entre otras.

La otra dificultad es, ¿Cómo podrá la IA integrarse al contexto social actual? Se habla de una versión inicial de IA donde se tenga en cuenta cómo será su evolución posterior. Ahora que pasará cuando la IA se comience a desarrollar el contexto actual de poder, irá adquiriendo los conocimientos necesarios para luchar por la hegemonía y terminará inevitablemente controlando a los humanos y no tendrán otra elección que competir con los humanos y con el tiempo pasarán de ser propiedad de los humanos a ser propietarios de las empresas y de todos los recursos, incluyendo a los humanos, por eso para muchos la única opción es fusionarse en toda la línea tecnológica.

Están los que creen que el surgimiento de una super inteligencia artificial (la idea de una singularidad tecnológica) es lo mejor que nos puede suceder, pienso que es un error que el destino de la humanidad se decida cuando surja una superi inteligencia artificial; el destino de la humanidad lo deben decidir los humanos, solo enfrentando sus propias limitaciones, no solo las biológicas como aspiran los transhumanistas, sino las propiamente humanas y se apostara por un progreso humano verdaderamente digno. No podemos evadirnos de los problemas del presente y delegarlos en la IA ya que esta lo que hará será profundizarlos.

Problemas del presente
– El desempleo
– El control de la información y la pérdida de la intimidad
– Los monopolios informáticos que buscan el control de internet (cuando se desarrolle una IA esta será propiedad de ese monopolio)
– ¿Como la sociedad civil puede usar internet para hacer valer sus derechos? ¿Puede internet darle mayor participación a la sociedad civil?
– ¿Cómo hacer accesible los códigos de la IA para que no queden solo en manos de las empresas privadas, de los militares o de los gobiernos?
– ¿Cómo podemos ir cambiando nuestro contexto social basado en la competencia por una sociedad basada en la colaboración?

Los problemas del presente son bien conocidos, y no creo que sean una sorpresa para nadie. Solo que al igual que con la IA queremos encontrarle solución a problemas más abstractos y dejar de lado los problemas más comunes.

En próximos artículos continuaremos con el tema

Imagen: Capital disruptivo

miércoles, 28 de enero de 2015

Cómo relacionarnos con las super inteligencias artificiales (1)

Avengers-age-of-ultronHoy se ha puesto de moda la inteligencia artificial (IA), no tanto como área de investigación sino como los riesgos que representa. Debemos recordar que la IA siempre fue bastante incomprendida y para los fabricantes de software era una pérdida de tiempo y de dinero. Solo en los 8Os con la aparición de los sistemas expertos hubo cierto boom, que terminó siendo un espejismo, los sistemas basados en la IA seguían siendo demasiado costosos y poco productivos y la IA se sumió en una gran crisis (Crisis de la inteligencia artificial) en la que muchos auguraban su final.

De las ruinas de la IA surgió un optimismo renovado que cogió como bandera, ya no la idea del software sino la del hardware, la de computadoras cada vez más potentes, cuya velocidad sería capaz de procesar más información, teniendo en cuenta que el cerebro no es otra cosas que un procesador de información, estamos asumiendo un enfoque trivial de la conciencia que parte de la metáfora de la computadora (¿Qué es la inteligencia artificial fuerte?), siendo Hans Moravec el mayor defensor de esta idea.

Para muchos investigadores los programas con inteligencia artificial habían llegado a un callejón sin salida y ahora la posibilidad de que surgiera una inteligencia que pudiera igualar a la humana por medio de un hardware, cada vez mas evolucionado, se convertia en una nueva esperanza. La inspiración final la daría Vernor Vinge (matemático y escritor de ciencia ficción) con su enfoque de una (Singularidad tecnológica) de la cual surgiría una nueva fuente de inspiración: la explosión de inteligencia, la que parte de la definición de maquinas capaces de autoprogramarse de forma ilimitada, o sea, una máquina será capaz (partiendo de un programa inicial desarrollado por los humanos) de ella por si misma de construir programas cada vez mejores, la idea consiste en que podrá construir un programa que a su vez construirá otro programa mejor y este a su vez otro mejor, así indefinidamente, hasta igualar la inteligencia humana y luego, nada impide, que siga mejorándose hasta superar a la humana, y lo más interesante es que este proceso no tendría fin.

Con respecto a la propagación de la singularidad tecnológica mucho ha tenido que ver el científico e inventor Ray Kurzweil, quien ahora es uno de los ingenieros (yo diría que el ideólogo para el futuro de la IA) de Google. Su trabajo como promotor y divulgador de la singularidad tecnológica ha sido clave en la aceptación de la idea, Hoy existen una gran cantidad de eventos, libros, revistas, etc., que tratan el tema de la singularidad o el de una super inteligencia artificial (Super inteligencia artificial), la consecuencia más importante de la singularidad tecnológica. Y este es el punto donde vamos a detenernos.

Luego del actual entusiasmo de las transnacionales de la IA por construir una inteligencia artificial hasta el extremo que hoy nadie espera que la IA surja de un laboratorio de investigación sino de una empresa privada, y todos esperan que sea en Google, dado las inversiones gigantescas que ha estado llevando a cabo. Y aunque muy pocos lo digan directamente, y se van por la tangente de los peligros de una IA fuera de control, la realidad es que causa preocupación la idea de una IA que sea desarrollada e implementada por una empresa privada, de ahí la carrera por construirla cuanto antes. Precisamente aquí es donde se escapa del control, ya que la inteligencia artificial deja de responder a intereses científicos para responder a los intereses del mercado.

El tema de los riesgos existenciales desarrollado por el filosofo y transhumanista Nick Bostrom, es el punto de partida para señalar los peligros de la inteligencia artificial, me llama la atención que cada vez se separan más los ideólogos del transhumanismo de los defensores de una singularidad tecnológica (de esto hablaré en otro artículo) y es que mientras a los primeros les preocupa más las tecnologías para el mejoramiento de las facultades humanas a los segundos le fascina la idea de una super inteligencia artificial y la explosión de inteligencia que se producirá. Y precisamente es de la posibilidad de que surja una superinteligencia y el impacto que tendrá sobre la humanidad , tema que se puesto de moda, sobre todo después de las declaraciones hechas por Stephen Hawking.

Recientemente el sitio Edge lanzó la siguiente pregunta a un grupo de científicos, filósofos y escritores: ¿Qué piensas sobre máquinas que piensan? Y me gustaría ir comentando algunas de las publicaciones. Comenzaré por el de Max Tegmark, físico e investigador en el MIT, dado su llamado a prepararnos para el adveniemiento de una nteligencia artificial superior a la humana (Let’s Get Prepared!).

Tegmar parte de tres postulados iníciales
– ¿Qué le pasará a los humanos si las máquinas gradualmente lo van reemplazando en el mercado de trabajo?
– Si las máquinas llegaran a competir con los seres humanos en todas las actividades intelectuales
– ¿Qué pasará luego de que una explosión de inteligencia de las máquinas deje muy atrás a la inteligencia humana y en ese caso, cuál será el papel de los seres humanos?

El primer caso, es un problema que se remonta al ludismo y su rechazo a las tecnologías, y es que cualquier tecnología va a sustituir a los humanos, primero la mano de obra, después las tareas intelectuales y por último las investigaciones, la buena noticia es que, a su vez crean nuevos puestos de trabajo, por ejemplo las tecnologías de la información son un ejemplo: programadores de aplicaciones informáticas, operadores de máquinas, instaladores de sistemas, la lista en bastante larga. El problema es adaptarse al cambio.
Para el segundo caso no basta con adaptarse una vez que se produzca el cambio, ya hay que estar preparado para el cambio, y mejor aun, ser actores sociales del cambio. Pienso que la estructura social actual, basada en la competencia no favorece una relación humano-tecnología colaborativa y más bien nos conducirá a un enfrentamiento, si desde hoy no se va creando una estructura social basada en la colaboración entre humanos que permita que las IAs se integren de forma natural a ese contexto colaborativo.

Otra paso importante es la definición del espacio vital de cada cual, en especial en que línea las máquinas serán mejores que los humanos y en cuales los humanos serán mejores, y cómo será la complementación entre ambos.

Dejo el último punto para el próximo artículo, en el cual seguiremos ahondando sobre el tema.

Imagen: inciclopedia-wikia

jueves, 15 de enero de 2015

Por supuesto que la inteligencia artificial será beneficiosa, pero…


intelligent-robotExiste una preocupación sobre el surgimiento de una inteligencia artificial (IA) superior a la humana, estamos hablando de una superinteligencia artificial (ver carta abierta del Instituto para el Futuro de la Vida), basada en una explosión de inteligencia (máquinas inteligentes que construyen, a su vez, máquinas cada vez más inteligentes). Por lo que nos estamos concentrando en la idea de una IA que se construye para que ella sea capaz de autoprogramarse (autoconstruirse) como una inteligencia que es capaz de superarse a sí misma y con el tiempo de superar a los humanos, prácticamente sin la participación de los humanos. Queremos construir una IA para que al final termine superándonos, me pregunto si ese es el único objetivo que podemos tener, si nos guiamos por las ideas actuales de la singularidad tecnológica parece que la vía más promisoria es la creación de una superinteligencia artificial. Ya Vernor Vinge en su artículo sobre la singularidad tecnológica planteaba dos formas para desarrollar la inteligencia artificial.
  • Superinteligencia artificial: El desarrollo de una IA en sí misma.
  • Ampliación de la inteligencia: El desarrollo de una inteligencia ampliada por la combinación de la inteligencia humana y la artificial.
En el primer caso estamos hablando de una IA que se construirá para que esta sea cada vez más autónoma. Ahora la pregunta es, ¿a quién responderá esta superinteligencia artificial? Teniendo en cuenta que será más inteligente que los humanos, es importante saber quiénes la van a utilizar y con qué fin. Por lo que al final estaríamos hablando de un software propietario, propiedad privada de alguien. Por lo que tendremos varias posibilidades.
  • Superinteligencia artificial creada (en sus bases para que siga mejorándose por si misma) por los centros de investigación.
  • Superinteligencia artificial creada con fines militares, ya sea por militares o alianzas.
  • Superinteligencia artificial creada por las grandes transnacionales como parte de su Know How, con fines económicos (las actuales grandes transnacionales de la información, encabezadas por Google).
  • Superinteligencia artificial creada con fines comerciales, su propósito es vender los sistemas.
  • Superinteligencia artificial creada por la comunidad de software libre.
Con respecto a la ampliación de la inteligencia surgen tres vías (ver Inteligencia artificial: ¿Hay razón para preocuparse? )
  • Superinteligencia colectiva (sistemas cooperativos conformados por la relación (colaboración) entre humanos y tecnologías
  • Superinteligencia hibrida, ampliación de las capacidades humanas por medio de dispostivos cibernéticos, estamos hablando del Cyborg.
  • Superinteligencia biológica, ampliación de la inteligencia por medio de la ingeniería genética.
También la ampliación de la inteligencia se puede lograr por cualquiera de las posibilidades mencionadas anteriormente, pero, si en el caso de la inteligencia artificial los más beneficiados van a ser las transnacionales de la información como Google, Facebook, Microsoft, etc., ahora van a ser las empresas que se dedican a la venta de componentes cibernéticos como prótesis, chips, dispositivos biónicos o interfaz cerebro-máquina, entre otros siguiendo la línea de un humano mejorado por medio de las tecnologías.

Ni que decir de los proyectos militares, tales como el ideal de crear un superhumano, o las consecuencias sociales de colocar en el mercado dispositivos que permitan alcanzar poderes sobre humanos que tendrán consecuencias tanto ética como sociales ante un mercado que solo responde a las ganancias (ver El desafío de la inteligencia artificial). No se puede ignorar que vivimos en un contexto social competitivo donde se favorece el crecimiento económico a toda costa y el consumismo desmedido, lo cual nos lleva a la competencia por los mercados y, lo más grave, es que la ley del mercado nos está arrastrando a un futuro incierto, ajeno a un verdadero progreso humano.

No es un secreto que defiendo la idea de una superinteligencia colectiva, que su fin sea la ampliación y de la sabiduría humana y que se oriente hacia la construcción entre humanos (sin excepciones) y máquinas, de una estructura social colaborativa, donde los actores sociales sean la sociedad civil liderada por la comunidad de software libre, en alianza con organizaciones no gubernamentales y centros de investigación no comprometidos con las elites de poder.

De esto seguiremos comentando.

Imagen: Live Science.