viernes, 1 de marzo de 2019

Breve recorrido temático por la inteligencia artificial


Heurística

En sus inicios la inteligencia artificial (IA) se fundamentó en las búsquedas heurísticas. Se creía que el hombre resolvía todos los problemas a través de métodos heurísticos y se pensaba que la mente estaba conformada por potentes mecanismos heurísticos capaces de partir de lo general a lo particular tal como sucedía con los algoritmos de computación. Se creía que todos los problemas se podían resolver recorriendo un árbol de objetivos y la solución del problema, consistía en encontrar el camino correcto, desechando todas aquellas vías poco fértiles. La dificultad estaba en cómo desechar esas ramas o caminos improductivos, quién podría garantizar que ese camino después no fuese el más adecuado, hasta qué profundidad había que recorrer el árbol para estar seguro de que esa vía era errónea, cómo evitar, qué producto de la ramificación creciente del árbol, un exceso de combinaciones incalculables (explosión combinatoria). También se elaboraron programas para juegos que van desde los tan complejos como el ajedrez, pasando por el de damas, hasta los más sencillos como el tic tac toe. Este último, dada la velocidad actual de las computadoras es posible resolverlo a través de una exploración exhaustiva.

Entonces, se soñaba con hallar un algoritmo general basado en los principios heurísticos que fuera capaz de resolver cualquier tipo de problema. Ejemplo de ello fue el GPS (solucionador general de problemas) con el cual se podía demostrar cualquier tipo de teorema matemático, pero era incapaz de resolver problemas de carácter elemental que requieran un mínimo de sentido común. Con el tiempo estos resolvedores generales fueron abandonados y se trató de darle solución a problemas más específicos, problemas que dependían de un dominio de aplicación y los cuales se solucionaban a través de los conocimientos que se poseían sobre ese dominio, lo que dio lugar a la explosión de los sistemas basados en conocimientos más conocidos como sistemas expertos, los cuales debido a la estrechez de su dominio en la solución de los problemas, no cumplían con las expectativas de los usuarios. Esto, entre otras cosas, trajo como consecuencia la crisis del paradigma simbolista dentro de la IA lo que originó nuevos paradigmas.

Desde sus comienzos la inteligencia artificial (IA), intentó salirse del esquema cibernético demasiado abarcador y, precisamente, se trazó como línea de investigación, propósitos más concretos, como el de reproducir la inteligencia en una computadora. Quizás por inercia, influidos, aun, por la cibernética, muchos de los investigadores siguieron trabajando en líneas más generales como el demostrador general de problemas (GPS en inglés) o los primeros intentos con las redes neuronales (que no soportaron las críticas de Minsky). Todas estas líneas se fueron abandonadas y sustituidas por investigaciones más concretas, en realidad se quería que la inteligencia artificial (IA) fuera una ciencia exacta, de ahí el uso del aparato matemática y la creación de laboratorios de IA.

En matemática se perfeccionaron los cálculos estadísticos, el análisis del razonamiento, el tratamiento de la incertidumbre, la lógica matemática y una de las líneas más promisorias: la lógica difusa de Zadeh. También se crearon nuevos lenguajes de programación siendo el Lisp (creado por MacCarthy, uno de los padres de la IA) y el Prolog. Pero como decía una ciencia no está completa sino cuenta con modelos experimentales y la IA creó sus propios laboratorios para modelar la inteligencia.

Mundo de bloques

Otro de los intentos de la inteligencia artificial fue tratar de comprender los estados mentales a través de “mundos de juguetes”, producto del desconocimiento existente sobre la naturaleza de la inteligencia y, por otro lado, existía la creencia de que lo aprendido en esos dominios de juguete se podría extender sin dificultades a problemas más complicados pero debido a la complejidad de los problemas del mundo real estos no pueden capturarse en modelos reducidos y por tanto deben plantearse directamente.

El laboratorio consistía en un brazo mecanismo controlado por una computadora y una mesa sobre la que se colocaban varios bloques, para que la computadora realizara diferentes operaciones sobre los bloques, como cogerlo, ponerlo encima de otro, quitarlo, seleccionar entre diferentes figuras: triangulo, cuadrado, etc. Con este ingenioso método se podían simular varias acciones humanas, como el lenguaje natural, ya que la comunicación en muchos casos era por medio del lenguaje natural, permitía el estudio de la planificación de tareas y el uso de agentes inteligentes que cooperaban en la solución, el estudio de la visión por computadoras y la representación de patrones, etc. A pesar de que algunos de forma despectiva le llamaron mundo de juguetes y criticaron sus logros sin tener en cuenta el impacto que han tenido posteriormente, muchas de las investigaciones que allí nacieron.

Sistemas expertos

Además de estas tareas de la vida diaria, mucha gente puede también realizar tareas más especializadas en las cuales es necesaria una cuidadosa adquisición de experiencia. Son tareas como el diseño en ingeniería, los descubrimientos científicos, los diagnósticos médicos y la planificación financiera. Los programas que pueden resolver problemas sobre dominios también están bajo la tutela de la IA. Otro campo importante donde la IA ha tenido éxito es en la simulación de las formas de trabajar, de abordar y de resolver los problemas en aquellas ramas de la actividad humana donde la experiencia y la experticidad juegan un papel predominante, dando lugar a los denominados Sistemas Expertos.

En esta época se magnificaron las potencialidades de las investigaciones y alcances de la Inteligencia Artificial, los innegables avances, el rápido crecimiento de las diferentes ramas que la integran y el avance tecnológico conllevaron a que los investigadores se erigieran en ‘profetas’, y al interpretar los indiscutibles logros de esta nueva ciencia pronosticaran el inminente desarrollo de sistemas INTELIGENTES, capaces de sustituir al hombre no sólo en tareas burdas y repetitivas, sino en el campo del pensamiento, el razonamiento y la creación. Varios de ellos predijeron desde mediados de siglo que a finales del mismo ya existirían máquinas ‘inteligentes’.

Debido a su matiz comercial, los SE no fueron muy bien acogidos por los investigadores puros, pues estos sistemas eran considerados como hijos bastardos de la Inteligencia Artificial. No obstante muchos científicos abandonaron sus laboratorios para ir a desarrollar SE, y dar así origen a lo que muchos llamaron la IA aplicada con objetivos muy definidos: elaborar sistemas que fueran capaces de solucionar problemas propios de un experto para un campo específico.

Todo ello trajo como consecuencia que los SE invadieran el espacio de la informática y numerosas empresas de alta tecnología, mientras los gobiernos de EE.UU. y Japón comenzaron a invertir millonarias sumas en las investigaciones de la IA y miles de aplicaciones se realizaron y actualmente se utilizan.En la década de los 80, se pensaba que la humanidad se encontraba “…ante un reto de imprevisibles consecuencias”, pues se avecinaban cambios que trastocarían muchos paradigmas que rigen el mundo. Los investigadores de la Inteligencia Artificial se hacían preguntas como:
  • ¿Qué será de los matemáticos cuando los Sistemas Expertos sean capaces de deducir todos los teoremas que se deriven de una cierta axiomática?
  • ¿Qué harán los abogados cuando haya una herramienta capaz de preguntar a sus clientes y de darles consejo sin posibilidad de error y utilizando toda la legislación y jurisprudencia?
  • ¿Qué será de los médicos cuando existan bases del saber capaces de almacenar los conocimientos y la experiencia de cientos de especialistas en una materia?.
En octubre de 1981 se sentaron las bases para el desarrollo de las computadoras de 5ta generación en una conferencia Internacional en Tokio, Japón. En este proyecto se adoptó el lenguaje PROLOG como lenguaje fundamental que sería soportado por el hardware a construir.

Inteligencia artificial fuerte y débil

En los primeros años de la IA luego del paradigma cibernético con su intento de construir una mente mecánica, le siguió el paradigma cognitivo y la idea de reproducir la mente por medio de algoritmos, ya que la mente no era otra cosa que estados mentales que se procesaban en el cerebro al igual que los programas en una computadora. Lo cual llevó a muchos investigadores en el campo teórico a pensar que una vez que se descifraran los procesos de la mente era seguro desarrollar los algoritmos que representaban esos procesos, es obvio, ya que la mente lo que hace es manipular símbolos por medios algorítmicos. De ahí surgieron los métodos heurísticos, las reglas de producción, los mecanismos de resolución de problemas, etc.

También surgieron los primeros desacuerdos entre los investigadores quienes no se ponían de acuerdo, en, si esa representación simbólica, se basaba en la lógica (la sintaxis, cálculo de predicados) o en la semántica (estructuras semánticas, guiones). Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrapastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero, métodos a parte, ambos compartían un sueño: descubrir los programas que hacen funcionar la mente.

De todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.
Ahora, para que la máquina tenga todos los algoritmos que conforman la mente, primero, hay que ir descubriendo los mecanismos de la mente, traducirlos en algoritmos para incluirlos en la computadora, así sucesivamente hasta que se haya reproducido totalmente la mente humana, y pueda funcionar en una computadora. Fueron muchos investigadores en esa época, principio de los 50, dieron esto por hecho y afirmaron que en los anos 80s ya existirían máquinas con inteligencia humana, en ese entonces no se hablaba de superar la inteligencia humana, ni de singularidad tecnológica, etc.
La idea de una IA fuerte ha sido el sueño de casi todos los investigadores de ese campo. Sostiene que todas las operaciones mentales son manifestaciones sofisticadas de complicados procesos computacionales, y que es irrelevante si tales procesos son llevados a cabo por un sujeto humano, un objeto físico o un dispositivo electrónico. Por lo que acepta que la mente humana puede ser reproducida o copiada para otro medio, el cerebro se considera un soporte más.

En cambio para la IA débil (menos radical que la anterior, y también más extendida desde el fracaso del enfoque idealista de los primeros años) computación no supone consciencia, y la simulación artificial de actividades mentales en ningún caso da origen a fenómenos mentales como dolor, reconocimiento, entendimiento o intencionalidad. No obstante se acepta la posibilidad de una simulación de la mente que suponga identidad funcional, aunque nunca identidad estructural.
La IA débil considera que la mente funciona diferente a los sistemas de computación y solo aspiran a desarrollar sistemas informáticos que tenga un comportamiento tan inteligente como el del ser humano. Se acepta la creación de un algoritmo suficientemente complejo que podría ser codificado a través de un programa computacional y controlar un robot de la misma forma que lo haría un ser humano.

¿Podrá la máquina superar la inteligencia humana? La idea está ligada al desarrollo de la Inteligencia Artificial y su sueño de reproducir la mente humana en una computadora. Puede parecer absurdo, pero si partimos de la metáfora, aceptada por todos los investigadores de la IA, que tanto el cerebro, que contiene la mente, como el hardware, que contiene los programas; se basan en el procesamiento de la información. Por lo que la mente no es otra cosa que algoritmos altamente complejos que pueden ser codificados en forma de programas.

Los defensores de la IA fuerte están convencidos de que se podrán reproducir todas las capacidades humanas, incluyendo la consciencia en una máquina. Y aunque esta idea ha ido variando con el tiempo, no ha cambiado en su esencia.

Nuevos enfoques de la IA

.Actualmente, la ciencia deja de encerrarse en sí misma y se fija en lo que le rodea, comprende que la mejor manera de entender cómo funciona algo en un ser humano es entenderlo primero en los animales más simples. Es así que la ciencia descubre las propiedades emergentes de la inteligencia, como resultado de la interacción compleja de sencillos elementos y emula con los procesos genéticos evolutivos en la búsqueda de mejores soluciones a problemas realmente complejos.

Luego del fracaso en los 80s del paradigma simbólico, basado en los métodos heurísticos, los sistemas basados en conocimientos. Se necesitaba de nuevos enfoques de ahí que se retomaran
Nuevas tendencias en la IA:
  • Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus conexiones en lugar de los algoritmos de la mente.
  • Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes agentes (con conocimientos parciales) que al integrarse logran resolver problemas complejos en lugar de grandes bases de conocimientos cerradas.
  • Máquinas superinteligentes: Se cifra la esperanza en el hardware, máquinas cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software.
  • Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos.
  • Robots reactivos, se desarrollan pequeños robots capaces de interactuar con en el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma manual, de ahí que recibieran el mote de sistemas autistas.
La IA durante sus primeros años se mantuvo fiel al paradigma simbolista, el cual a su vez se dividía en dos grupo, los que se apoyaban en la lógica para la representación de los conocimientos, un ejemplo de ello el lenguaje Prolog y los que se apoyaban en la semántica y buscaban representar los conocimientos a través de estructuras semánticas como guiones, marcos (frames), redes semánticas, etc. Pero ambos se basaban en la presentación de los estados mentales en forma de algoritmos. Con el tiempo surgió un nuevo paradigma: el conexionista el cual más que representar los estados mentales buscaba la representación de las conexiones que se establecen entre las diferentes de una organismo, ya sean neuronas (redes neuronales), agentes (agentes inteligentes), genes (algoritmos genéticos) y como de estas conexiones se genera un accionar inteligente.

Hoy en día el enfoque más prometedor parece ser en de las redes neuronales, el cual está siendo adoptado actualmente por Google, en su aspiración de crear una inteligencia artificial. Las redes neuronales a diferencia de los sistemas simbolistas que obligaba a describir todo el conocimiento humano en forma de reglas, lo cual obligaba a tener en cuenta toda la experiencia humana, tarea imposible. Las redes neuronales permiten crear un núcleo de conexiones, que esta puedan sobre su propia experiencia ir ampliándose, similar a como funciona el cerebro.

Otro de los problemas era el aprendizaje automático, como lograr que la maquina fuera aprendiendo por sí misma, si era un sistema que estaba aislado de la realidad y había que estar suministrándole los datos del mundo exterior, era necesario que las máquinas estuvieran interactuando con el mundo real, lo cual llevo a un retorno a la cibernética y sus ciberanimalitos. Hoy Rodney Brooks, investigador del MIT, tiene deambulando por su oficina pequeñas arañas cibernéticas, cuyo único objetivo es aprender a desplazarse por el laboratorio.

En estos tiempos se ha puesto de moda el concepto de aprendizaje profundo, el cual consiste en comprender y profundizar sobre los conocimientos propios y obtener nuevos conocimientos. Lo cual requiere de la ya mencionada interacción con el mundo, un sistema aislado como se pretendía con los sistemas expertos, es imposible que aprenda por sí mismo. La forma más utilizada ha sido, desde la cibernética hasta nuestros tiempos, el uso de pequeños robots con uno conocimientos mininos, pero que sus “cerebro electrónico” sea capaz de crear nuevas conexiones y nuevas interpretaciones de la realidad, la otra seria un sistema (software) que este en interacción con el medio, el caso del buscador de Google, que esta interactuando con los usuarios y puede aprender de ello, por eso no es de extrañar que Google este apostando al aprendizaje profundo y realizan enormes inversiones. Lo interesante en Google, es que esta combinando las ideas de las redes neuronales con las del aprendizaje profundo y para ello ha contratado a varios expertos en las dos ramas los que tiene trabajando en la creación de un buscador inteligente, lo que justifica porque el desinterés de Google en la web semántica, evidentemente su proyecto es otro.

Inteligencia artificial distribuida

En la Inteligencia Artificial Distribuida (IAD) se estudia la solución cooperativa de problemas por un grupo de agentes distribuidos. Tal cooperación se basa en que ninguno posee la información (experticidad, recursos, etc.) para resolver completamente el problema y donde un agente tiene como característica la de ser una entidad más o menos autónoma, con conocimientos propios y de su entorno así como con la posibilidad de interactuar con dicho entorno y otros agentes. A diferencia de los sistemas expertos, llamados por muchos “sistemas autistas” estas nuevas investigaciones se ocupan de que los mismos sean capaces de interactuar con el entorno o lo que es lo mismo que sean abiertos y flexibles.

Por otra parte, los agentes inteligentes se perfilan como una de las aplicaciones de la IA más prometedoras debido a su estrecha relación con Internet (la tercera revolución de la informática). Sin crear falsas expectativas, debemos recordar los sistemas expertos y los agentes inteligentes dadas las ventajas que representan para el acceso a las redes. Ellos están llamados a cambiar nuestra forma de trabajo al permitir a los usuarios moverse en ambientes más cómodos y amistosos.

Inteligencia artificial general

El objetivo original del campo de IA fue la construcción de “máquinas inteligentes”, es decir, los sistemas informáticos con inteligencia similar a la humana.  Desde hace décadas la mayoría de los investigadores de la IA se han centrado en lo que se ha llamado ” la IA estrecha”,  la producción de sistemas de IA que muestran la inteligencia respecto a las tareas específicas, muy limitados.  Debido a la dificultad de esta tarea, en los últimos años, cada vez más los investigadores han reconocido la necesidad  -y la viabilidad- de volver a los objetivos originales de la IA mediante el tratamiento de la inteligencia en su conjunto. Cada vez más, hay una llamada a hacer frente a los problemas más difíciles de la “inteligencia de nivel humano” y más ampliamente a la inteligencia artificial general (IAG). La investigación difiere de la investigación en IA ordinaria haciendo hincapié en la versatilidad y la integridad de la inteligencia, y llevando a cabo la práctica de la ingeniería de acuerdo con un esquema de un sistema comparable, en cierto sentido,  a la mente humana.
¿Qué es la inteligencia artificial general (IA general)?

Según sus creadores la IA general tiene las siguientes características
  • Hace hincapié en el carácter del uso general de la inteligencia
  • Asume un punto de vista holístico o integral de la inteligencia
  • Cree que ha llegado el tiempo para construir una IA que sea comparable a la inteligencia humana.
Lo que nos acerca a la idea original de la IA que debido a sus tropiezos se fue separando de esos objetivos. Y retoma la idea de una IA fuerte
La IA general al igual que la llamada IA estrecha, se propone convertirse en una ciencia exacta y define su línea teorice en tres campos
  • Una teoría de la inteligencia,
  • Un modelo formal de la teoría,
  • Una implementación computacional del modelo.
El último punto me recuerda los laboratorios de IA donde se experimentaba con el mundo de bloques.
Hasta el momento, las principales técnicas utilizadas en proyectos IA general incluyen las técnicas de la IA clásica:
  • Lógica matemáticaTeoría de la probabilidad (tratamiento de la incertidumbre)
  • Sistema de producción (estrategias para las reglas)
  • Base de conocimientos (representación del conocimiento)
  • Algoritmos de aprendizaje (ahora se ha puesto de moda el aprendizaje profundo)
  • Robótica (sistemas de planificación)
  • Redes neuronales
  • Computación evolutiva (algoritmos genéticos)
  • Sistema multi-agente (agentes inteligentes)
La IA general, levanta cierto escepticismo, algunos creen que es más de lo mismo y se preguntan ¿Por qué ahora si? ¿Quién sabe?, tal vez se pueda aprender de los errores anteriores o a lo mejor las condiciones tecnológicas han cambiado tanto, que ahora si es posible..

Máquinas inteligentes

Mientras la Inteligencia Artificial se desangra en pugnas internas y en definir qué es y que no es Inteligencia Artificial, en la computación convencional el hardware marcha a paso acelerado en la construcción de máquinas cada vez más rápidas, con más memoria y más posibilidades de cálculos simbólicos, que se pronostica alcanzará la creación de máquinas inteligentes a corto plazo sin necesidad de la Inteligencia Artificial.

Si partimos del hecho que las máquinas son cada vez más veloces, piensen en las primeras computadoras que no alcanzaban los 10 Megahertzios (Mhz) a las actuales que ya sobrepasan los 3 Gigahertzios y no se vislumbra ningún límite para que esta velocidad no siga aumentando. Con la obtención de máquinas superveloces, estas podrán efectuar un billón de operaciones por segundos, con lo cual según Moravec estarán en condiciones de alcanzar el nivel de la inteligencia humana. Aun más, teniendo en cuenta que el cerebro humano trabaja a una frecuencia de 100 hertzios o ciclos por segundo y que no se vislumbra una cota que limite la velocidad de procesamiento de la computadora basada en un hardware cada vez más sofisticado, con mayor capacidad de memoria, varios procesadores centrales (la materia gris de la máquina), mayor velocidad de acceso a los periféricos; parece posible, incluso, que la máquina pueda superar al hombre.

Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguientes conceptos:
  • La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
  • La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
  • La máquinas se irán auto construyéndose a sí misma cada vez más perfeccionadas, más veloces, con más memoria, dotadas de mejores algoritmos, podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos.
  • La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.
¿Hay alguna razón que nos pueda llevar a pensar que será así?

Hoy la maquina supera al campeón del mundo en ajedrez, no sería esto razón suficiente. Sin embargo la maquina no utiliza la misma forma de pensar que el humano, su fuerza se basa en su velocidad de calculo que le permite explorar de forma casi exhaustiva todas las variantes, además, por supuesto, de contar con valoraciones estratégicas, pero lo que la hace invencible es su velocidad para calcular las variantes, lo que se llama algoritmo de fuerza bruta. Pero, esto apoya la tesis que según las maquinas mejoren su hardware obtendrán resultados mejores así, hasta superar a los humanos en todas sus facetas.

¿Será posible que las maquinas sean más inteligentes que los humanos sin tener conciencia de sí misma?

Los programas de ajedrez son una demostración palpable de lo que podría llamarse una inteligencia basada en la fuerza bruta, dado que su método consiste en la velocidad de cálculo, lo cual le permite buscar en grandes espacios y procesar una cantidad enorme de información, velocidad de procesamiento que supera ampliamente la del cerebro humano. Muchos creen que la rapidez creciente en el cálculo de las computadoras, que no parece tener límites, debe conducir al surgimiento de las llamadas máquinas inteligentes, afirmación sustentada en que las computadoras al poder valorar más variantes de un problema, ya sea el juego de ajedrez, un cálculo de ingeniería, un diseño industrial o un diagnóstico mecánico, será capaz de alcanzar soluciones más rápidas y eficientes, relegando la de los humanos a un segundo plano. Este argumento se fundamenta en el auge acelerado que se evidencia en el hardware de las computadoras, mientras subestima el desarrollo del software e ignora las posibilidades del cerebro.

Para muchos es preocupante que los aciertos de la IA surjan de métodos tan simples como búsqueda por fuerza bruta, y que la contribución más importante para el avance de la IA haya sido la Ley de Moore y los aumentos implacables en la velocidad de la computadora,

Superinteligencia artificial

Podemos preguntarnos si es posible el surgimiento de una inteligencia superior a la humana, comenzaremos por la definición de Singularidad tecnológica: “Es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia sobrehumana, cambiando nuestro entorno de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir”. De lo que se desprende que para que se produzca ese progreso tecnológico acelerado que se nos escapa de las manos y somos incapaces de predecir una vez que se desencadeno, es el surgimiento de una inteligencia superior a la humana.

Siguiendo a Vinge, el primero en usar el término singularidad tecnológica, esta inteligencia artificial superior a la humana se puede lograr por cuatro vías: superinteligencia artificial (cuando las máquinas se hacen más inteligentes que los humanos), superinteligencia hibrida (cuando los humanos y las máquinas se funden en un Cyborg), superinteligencia global (cuando humanos y máquinas por medios de internet interactúan y crean una inteligencia colectiva o cerebro global) y la superinteligencia biológica (donde se mejora la inteligencia a través de la manipulación genética). Siendo la superinteligencia artificial la más defendida por los teóricos de la singularidad.
Aunque la superinteligencia artificial parecía la más lejana de las cuatro dado el estado del arte de las investigaciones en inteligencia artificial y el sueño de una inteligencia artificial parecía abandonado, los denodados esfuerzos de Ray Kurzweil, la han puesto de nuevo de moda y prueba de ello son la creación de la Universidad de la Singularidad por el propio Kurzweil y su ingreso en Google como directivo para el desarrollo de la IA. Ya el hecho de que Google se haya tomado en serio las ideas de Kurzweil, demuestra que la transnacional está convencida de la posibilidad de alcanzar una superinteligencia artificial y por lo tanto la aceptación del surgimiento de una singularidad tecnológica y el ideal de una inteligencia artificial capaz de autoprogramarse, de aprender por sí misma y en un futuro ser autoconsciente.

Imagen: Terabito

lunes, 11 de febrero de 2019

Cuales son las vías para el desarrollo de una inteligencia artificial


IAavanzada

En el artículo Crisis de la inteligencia artificial decíamos lo siguiente:
La Inteligencia Artificial se ha visto siempre como una ciencia teórica, desligada de la realidad, mientras para otros son métodos que permiten investigar el cerebro. Pero, en realidad, ¿cuáles han sido sus logros? ¿Cómo ha influido en la comprensión de la mente humana?
La IA parece irreconciliable si la analizamos a través de sus tres vertientes:
  • Estudio de la mente humana.
  • Sistemas informáticos inteligentes.
  • Sistemas comerciales basados en las técnicas de la IA
Estudio de la mente: Descubrir los enigmas de la mente humana, donde la máquina es utilizada como laboratorio para verificar las teorías.

Sistemas informáticos: analizar las técnicas informáticas de simulación del comportamiento inteligente

Sistemas comerciales: la máquina es una herramienta que a través de programas inteligentes servirá al hombre en sus tareas diarias.

Cada uno de estos métodos niega los progresos del otro, y en algunos casos considera que no tiene nada que ver con la Inteligencia Artificial.

De acuerdo a estos enfoques surgen tres áreas de investigación y desarrollo de la Inteligencia Artificial.

Ciencia cognoscitiva – Estudio de la mente
Máquinas inteligentes – Sistemas informáticos
Ingeniería del conocimiento – Sistemas comerciales

Estudio de la mente:
Se considera una ciencia natural que investiga sobre la mente que trata de comprender los mecanismos de la creatividad del ser humano apoyándose en las computadoras como soporte del pensamiento de este grupo se desprenden dos grandes ideas que han llenado de promesas las investigaciones de la IA: la IA fuerte y la IA débil.

La Inteligencia Artificial fuerte:
La idea de una IA fuerte ha sido el sueño de casi todos los investigadores de ese campo. Sostiene que todas las operaciones mentales son manifestaciones sofisticadas de complicados procesos computacionales, y que es irrelevante si tales procesos son llevados a cabo por un sujeto humano, un objeto físico o un dispositivo electrónico. Por lo que acepta que la mente humana puede ser reproducida o copiada para otro medio, el cerebro se considera un soporte más.

En cambio para la IA débil (menos radical que la anterior, y también más extendida desde el fracaso del enfoque idealista de los primeros años) computación no supone consciencia, y la simulación artificial de actividades mentales en ningún caso da origen a fenómenos mentales como dolor, reconocimiento, entendimiento o intencionalidad. No obstante se acepta la posibilidad de una simulación de la mente que suponga identidad funcional, aunque nunca identidad estructural.
Se acepta la creación de un algoritmo suficientemente complejo que podría ser codificado a través de un programa computacional y controlar un robot de la misma forma que lo haría un ser humano.
Sistemas informáticos:

A este grupo no les preocupa tanto las cuestiones filosóficas, aunque su afiliación esta dentro de una IA débil. Para ellos la meta es construir máquinas más perfectas, aprendiendo a representar y manipular el conocimiento sobre el mundo real mediante una computadora y no les preocupa en lo más mínimo si la forma de pensar de las máquinas está de algún modo relacionada con la forma humana de pensar.

Para estos investigadores la máquina es el tema de su investigación, la cual es vista como un todo (soft y hard) y se pretende que esta como tal alcance niveles de inteligencia, posiblemente no alcanzados por el hombre, cada vez más avanzados. Y se especula sobre la posibilidad de que la máquina sustituya al hombre, dada las posibilidades ilimitadas de la misma.

Las mayores aportaciones al campo de la IA se debe a este grupo en temas tan importantes como: la robótica, las tecnologías del conocimiento, la IA distribuida, máquinas para lisp, etc.

Sistemas comerciales:
Se elaboran aplicaciones para resolver problemas que antes eran competencia sólo de los humanos. Son los especialistas de computación que se dedican a abordar a través de algoritmos tareas poco estructuradas con fines prácticos, casi siempre utilizando estructuras de datos complejas.
Se puede ver como rama de la ingeniería dedicada a crear productos comerciales, sobre todo sistemas especializados. Por ejemplo los sistemas expertos

Cada enfoque crea una filosofía de trabajo que hace incompatible la comunicación entre cada grupo de investigadores, desde sus “creencias” entre MENTE, MAQUINA Y USUARIO. Incluso hasta la forma de ver la máquina cambió para cada uno.

Ahora veremos otra clasificación de la IA desde un enfoque más reciente

Orientación de las investigaciones en IA

  • Sociales: centrada en los impactos sociales de la IA (desde lo intelectual para lo social)
  • Economicista: centrada en el crecimiento del mercado potenciado por la IA (desde lo económico para lo económico)
  • Intelectualista: centrada en el reto intelectual de construir una IA (desde lo intelectual para lo intelectual)
  • Colaboracionista: centrada en la colaboración.
Intelectual: La IA como ciencia que permita construir una inteligencia (no humana) que iguale y supere a la humana. Se construye a nivel de laboratorio en un centro de investigación.
Social: El impacto de la IA, riesgos y beneficios. Las consecuencias que tendrá sobre la humanidad.
  1. El impacto de la IA sobre el individuo: nos hará más inteligentes y sabios, facilitará el perfeccionamiento individual, aumentarán las facultades humanas.
  2. El impacto sobre la sociedad: Eliminará las injusticias, mayor acceso a la educación, la salud al alcance de todos, permitirá un monitoreo constante del estado de salud de cada individuo.
  3. El impacto económico: no habrá pobreza, se alcanzará la prosperidad, los ricos serán más ricos (aumentará la brecha entre ricos y pobres), las grandes transnacionales controlarán la economía mundial, se eliminaran trabajos y surgirán otros, existirán nuevas oportunidades de negocio
  4. El impacto en la ecología: Por una parte se podrá alcanzar una mayor sostenibilidad en el planeta, mayor protección de los recursos, lograr el equilibrio en el ecosistema por la otra se aumentara la degradación del planeta.
Clasificación de la IA
  1. IA clásica o simbolista. Programas (heurística)
  2. IA estrecha. Sistemas expertos (aplicación)
  3. IA emergente o conexionista. Super IA (aceleración del hardware). Redes neuronales. Era actual
  4. IA general. Retorno a la IA clásica (ciencia cognitiva)
IA evolucionista. Ciencias de la complejidad con el entorno y de la auto-organización que se produce (transdisciplinar). Próxima era
IA clásica, una IA basada en programas
IA estrecha ante el fracaso de la IA clásica, la IA abandona sus grandes objetivos y se dedica a objetivos más modestos como los sistemas expertos (IA estrecha)
IA emergente. Una IA basada en la velocidad en la mejora de sus componentes. Se basa en programas que aprovechan la velocidad del hardware (más y mejores dispositivos). Donde los programas se van ajustando a las capacidades de los dispositivos.
IA evolutiva parte de la interacción entre personas y máquinas

Investigación y desarrollo para una inteligencia artificial

  • Centro de investigación académicos (academias, universidades). IA construida en laboratorios
  • IA propietaria. Como servicio propiedad de las empresas de las tecnologías de la información
  • Instituciones patrocinadas (ONG. IA beneficiosa En este caso cabe preguntarse ¿por quién? Un patrocinador altruista o uno que busca solo ganancias.
  • Comunidades libres. Software comunitario (software libre). IA libre
  • Centros financiados por empresas privadas (PyMES). IA comercial (producto)
  • Institutos gubernamentales. Centros financiados por el estado, educación, salud, militares, etc. IA gubernamental.
 Tipos de inteligencias sobrehumanas (era tecnológica).
  • Superinteligencia artificial (visión tecnologista) – Singularidad tecnológica (Kurzweil)
  • Inteligencia artificial avanzada propietaria (visión economicista) – Singularidad tecno-liberal (Google)
  • Inteligencia artificial avanzada beneficiosa (visión racionalista) – Transhumanismo democrático (Bostrom)
  • Ampliación de la inteligencia colectiva Colectiva (visión transdisciplinar) – Autoorganización sistémico-cibernético (Malone)
  • Superinteligencia Global (visión social) – Singularidad distribuida (Heylighen)
  • Superinteligencia Transhumana (visión transhumanista) – Transhumanismo liberal (Nuevas transnacionales)

Visiones desde el impacto de las tecnologías

  • Racionalistas: crear una IA alineada que resuelva todos los problemas, incluido la inmortalidad
  • Transhumanista: la creencia que uno de invertir en tecnologías de extensión de vida
  • Transdisciplinar: ampliación inteligencia producto de la interacción entre humanos y tecnologías.

Por último mencionaremos las vías para el desarrollo de la inteligencia artificial desde la visión racionalista

Vías para crear una inteligencia artificial (IA) capaz de igualar o de superar a los humanos

  • Super Inteligencia Artificial (tecnoutopía)
  • IA avanzada beneficiosa / IA avanzada propietaria (cosmovisión/social)
  • IA general (ciencias cognitivas)
  • IA estrecha (IA aplicada / SE)
Superinteligencia artificial
Acelera las tecnologías inteligentes. Singularidad tecnológica (imperativo tecnológico)
Carácter utópico/filosófico: Tecnoutopía, tiene un carácter religioso inspirado en el cristianismo, alcanzar el paraíso en la tierra por medio de las tecnologías.
  • Super Inteligencia Artificial (Poshumano): Acelera las tecnologías inteligentes. Singularidad tecnológica (cosmovisión tecnocentrista). Construcción de un prototipo inicial que por medio del aprendizaje automático es capaz de autoprogramarse y que da lugar al inicio de la singularidad. Enfoque analítico-reduccionista. La super IA surge a partir de un punto (emergencia) de forma abrupta (aceleración) sin la participación de los humanos, aunque en sus inicios se construye  en un laboratorio, pero luego escapa al control humano.
Podemos decir que la línea trascendente es la parte mística de cada visión, la aspiración de trascender las limitaciones humanas aquí el ideal es recargar la mente en un soporte digital, llámese nube, matriz, red, mundo virtual, etc. Donde la mente pueda desarrollarse infinitamente.
Inteligencias artificiales avanzadas
Carácter social (cosmovisivo): Construir una IA avanzada tiene un alcance cosmovisivo pero orientado a los problemas sociales, como reacción a los peligros  (y beneficios) de una Super IA
  • IA avanzada beneficiosa: Alineada con los intereses humanos. Cosmovisión tecno-democrática (centros patrocinados). Los peligros de una super IA
  • IA avanzada propietaria: Orientada al mercado (imperativo económico) – Cosmovisión tecno-liberal. Los beneficios de una super IA (sobre todo económicos): IBM (Watson), Google, Microsoft, Facebook, Aple, etc.
Construir una IA avanzada robusta y beneficiosa, se ha convertido en el tema principal de los centros de investigación. Es el ideal de casi todas las cosmovisiones que por medio de las tecnologías buscan mejorar a la sociedad y a los individuos.

Inteligencia artificial general
Carácter científico (intelectual): Construir una IA avanzada, son las investigaciones para el desarrollo de inteligencia artificial como parte de las ciencias cognitivas, retorno a la IA clásica

Inteligencia artificial estrecha
Carácter técnico: (a corto plazo). No tienen un carácter general ni de alcance cosmovisivo,  son aplicaciones puntuales que busca la implementación de la IA en la vida cotidiana.
Construir una IA avanzada con fines productivos (IA estrecha)
  • IA aplicada (sistemas expertos). IA estrecha
  • IA comercial (producto). IA como producto que se comercializa – Ingeniería informática orientada al mercado (empresas privadas)
  • IA para el bien. IA para lograr el mayor beneficio a nivel social – Ingeniería informática orientada a la sociedad (centros financiados)
Los riesgos de la IA
  • El desempleo
  • No estar preparado para la era tecnológica
  • No todas las vías conducen al mismo escenario
  • Propuestas de desarrollo para cada vía
Existe una gran confusión con el logro de una IA. Hay que tener en cuenta las líneas cosmovisiva  (IA consciente), científica (ingeniería de la IA) y la comercial (IA privativa). No es lo mismo una IA comercial que una IA propietaria.
En la era poscapitalista se necesitará cada vez de más inteligencia:
  • Las transnacionales necesitan ser más inteligentes que los competidores (IA propietaria / Transhumanismo liberal)
  • Los militares más inteligentes que sus enemigos
  • Los gobernantes más inteligentes que los opositores.
La IA como ciencia trata de encontrar la solución desde si misma (su tema de investigación) sin inmiscuirse en los problemas sociales. Lo cual no sucede con la línea de investigación cosmovisiva.
Con el surgimiento de IA conscientes, estamos ante un problema que surgirá ante la relación de los humanos con  las inteligencias que alcancen a ser autoconsciente y que de alguna forma cambia el destino de la humanidad y tendremos que elegir entre competir (subordinarlas a nosotros o someternos a ellas) o colaborar (convertirla en un aliado)

Pienso que una IA beneficiosa debería ser una forma de ampliar la inteligencia humana y es que, el primer beneficio de una IA robusta o alineada debe ser ampliar la inteligencia de todos los humanos, ya que la humanidad ante la creciente complejidad del mundo necesita de más inteligencia y sobre todo de más sabiduría para enfrentar los nuevos desafíos de un mundo que se hace cada vez más complejo.

Inteligencia artificial, el futuro del hombre

IA - futuro del hombre
“¿Será posible llegar a una era poshumana? ¿Qué tendrá que suceder o que está sucediendo ya? El hombre construye máquinas –cada vez más potentes– a una velocidad nunca antes imaginada; y mientras el desarrollo de las máquinas parece no tener límites, la especie humana da la impresión que haber detenido su proceso evolutivo. Tiene sentido pensar que las máquinas le darán alcance e incluso lo rebasarán. ¿Y qué sucederá entonces? ¿Tendrá el hombre que someterse al dominio de las máquinas o surgirá alguna forma de fusión entre hombres y máquinas, en la que el hombre pierda su identidad humana y se dé inicio a la era poshumana?”

Disponible en Amazon (kindle)

Ver libros de tapa blanda sobre inteligencia artificial

viernes, 18 de enero de 2019

Ejemplos de sistemas expertos


compoente-se

Veremos dos ejemplos que han sido paradigmas de sistemas expertos dentro de la inteligencia artificial.DENDRAL: Reducción de grandes espacios de búsqueda mediante factorización (heurística).
Ayudar a los químicos a inferir la estructura de los componentes químicos a partir de los datos del espectro de masa.

Se partió de la técnica de generar y probar la cual depende de la forma en la que se desarrolla el espacio de estados y de predecir que ramas conducirán a la solución, hasta que profundidad se debe explorar una rama sin que se pierda una posible solución.

Fue el pionero en el cambio de enfoque hacia las estructuras de control dependientes del dominio.
MYCIN. El manejo de evidencia incierta.
Sistema para el diagnostico de infecciones bacterianas.
Se basa en conocimientos indefinidos y datos imprecisos en vez de los manejos del espacio del problema.

DENDRAL

El paradigma de búsqueda de solución en espacios de estados. El cual se basa en una búsqueda a través de una red de nodos, donde cada uno representa un posible estado del problema, donde casi siempre una búsqueda exhaustiva de todo el espacio es imposible (explosión combinatoria). Un método es controlar la búsqueda en el espacio de estado basándose en la relación que hay entre los estados.

Una técnica muy conocida es la de “generar y probar”. Comenzando por algún estado inicial, se utiliza un generador para producir un conjunto de estados descendentes, se aplica entonces a ese conjunto una serie de pruebas de validez para reducirlo a un tamaño más manejable. Estas pruebas adoptan normalmente la forma de restricciones, también es posible incorporar estas restricciones al generador reduciendo el número de estados descendientes a probar. El método “generar y probar” solo funciona, si cuando un estado se declara invalido, todos sus estados descendientes lo son.
DENDRAL, fue el primer sistema basado en conocimientos que utilizo el método de “generar y probar” para las conexiones de las estructuras de compuestos de química orgánica. El proyecto comenzó en 1965 con el objetivo de proporcionar un soporte en la computadora a los químicos, profesionales que no eran expertos en determinadas técnicas analíticas y tubo tal éxito que inspiro a la creación del área de los sistemas expertos en la IA.

La tarea de la aplicación.
DENDRAL: es un sistema diseñado para ayudar a los químicos a determinar la estructura de algún compuesto desconocido, con especial énfasis en el uso de los datos provenientes de un espectrómetro de masas.

El programa de planificación de DENDRAL
En la práctica hizo falta un programa de planificación para producir las restricciones a la hora de generar. El ciclo completo es PLANFICAR – GENERAR – PROBAR.

Con el planificador se evita la generación superflua y simplifica la fase de prueba.
Semejante a MYCIN, DENDRAL no pretende simular los procesos interpretativos que utilizan los químicos. No obstante si pretende complementar los métodos de estos.

Con la planificaron se infiere una lista con las estructuras necesarias(1) y con las prohibidas (2) las cuales ayudaran, mas tarde a limitar las estructuras proporcionadas por el generador .
(1) Lista correcta (2) Lista incorrecta

Ejemplo de regla:
R1: Si hay dos picos de las unidades de masa X1 y X2, de modo que
X1 + X2 = M + 28
X1 – 28 es un pico alto
X2 – 28 es un pico alto
Al menos, o X1 es alto o X2 es alto
Entonces CETONA

R2: Si se satisface las condiciones para ser una CETONA
43 es un pico alto
58 es un pico alto
M – 43 es un pico bajo
M – 15 es bajo o, posiblemente 0
Entonces METIL-CETONA.

Encadenando hacia delante si se aplica la regla R1 el PLANIFICADOR puede considerar aquellas reglas que tenga en sus condiciones el grupo CETONA.
R3: Si es CETONA y...  Entonces ETIL-CETONA.

O sea encadena con las reglas R2 y R3 de acuerdo con su espectro de masa y la correcta la incluye en la lista correcta y la otra en la lista incorrecta. Lo cual permite al planificador determinar la posición de un grupo funcional y registrar la información adicional para que sea utilizada más tarde por el generador.

Generador de estructura: es un programa que genera el espacio de búsqueda con las posibles estructuras químicas.

MYCIN

El sistema experto MYCIN opera sobre una Base de Conocimientos (BC), bien organizada sobre las enfermedades infecciosas, donde el conocimiento es inexacto por lo que el punto central son las técnicas para expresar medidas de opinión, llamadas factores de certeza.

La estructura de control es simple y está basada en un sistema de producción.
1) Una colección de hechos.
2) Un conjunto de reglas de producción.
3) Un generador de inferencias con encadenamiento hacia delante o hacia a tras (o ambos), junto a una estructura de conocimiento que capacita a la estructura de control para disidir que reglas, de todas las posibles, debe tomar parte en el mecanismo de inferencia.
4) Un mecanismo que realice inferencias, a partir de evidencias inciertas o incompletas.

En MYCIN las agrupaciones de reglas dentro de un determinado contexto se definen en tiempo de generación. El generador de inferencias proporciona una búsqueda dirigida por objetivos o por datos. Fue el primero en tener en cuenta el conocimiento incierto

La existencia de una estructura de control dependiente del dominio, la hace específica. Por eso se han extraído de MYCIN las partes independientes del dominio para formar el MYCIN “vacio” o “hueco”, EMYCIN. El cual se ha empleado en otros dominios tales como PUFF (cuidado respiratorio intensivo), SACON (calculo de estructuras de ingeniería), GRAVIDA (consejos para el embarazo), CLOT (desordenes de la sangre) y VM (manejo de la ventilación).
Hechos.
(contexto)(parámetro)(valor)

El contexto es alguna entidad del mundo real. Ejemplo: un paciente.
Un parámetro es un atributo del contexto. Ejemplo: la edad.
El valor es una particularización del parámetro. Ejemplo: 25 años.
A cada terna se le asocia un factor de certeza (FC).
FC toma valores en el intervalo (-1, 1) donde -1 es la negación, 0 la ignorancia absoluta y 1 total certidumbre.

Ejemplo:
Organismo 1 – Identidad pseudomonas .8 (La identidad del organismo 1 es, con un factor de certeza 0.8, pseudomonas).
Reglas de producción.
Si premisa entonces acción (FC).

En MYCIN las reglas se definen para poder encadenar hacia delante o hacia atrás. Las reglas se utilizan repetidamente utilizando el conocimiento dependiente del dominio para decidir que reglas se deben considerar, hasta que se dé un contenido a los hechos. En algunos casos, las reglas darán contenido a los hechos mediante preguntas al médico.

Ejemplo de reglas:
Si (no se sabe si el organismo fue capaz de desarrollarse en presencia del aire (aeróbicamente))
Y (el lugar de cultivo es la sangre)
O (el laboratorio ha intentado que el organismo se desarrolle sin la presencia del aire (anaeróbicamente)
Y (el organismo fue capaz de desarrollarse anaeróbicamente)
Entonces (hay evidencias de que el organismo es aerobio (.5) O anaerobio (.2).
Las premisas serán verdad si todos los hechos son verdad.
Factor de certeza.

En general:
Si (contexto-parametro-valor (FC1)) y/o (contexto-parametro-valor (FC2)) y/o…….
Entonces (contexto-parametro-valor (FC)).
Min(FC1, FC2,….) = RC*FC
Si la regla no venia arrastrando ningún valor de certeza entonces RC se colocara como su factor de certeza (FC) , si ya tenia con un valor IC. Se calculara el FC actual.
RC, IC>FC = IC + |RC| (1- |IC|) 0
RC, ICIC + RC
1 – min(|IC|, |RC|)

La combinación de –1 y 1 se define como 1.

Este método del facto de certeza permite que el sistema se pueda enfrentar al razonamiento de juicios.

Estructura de control dependiente del dominio
El orden de las reglas no es significativo se aplican todas las reglas relevantes hasta que una determinada consigue un objetivo con certeza, en cuyo caso el resto de las reglas se ignora. La relevancia de una regla se define por la estructura del control dependiente del dominio, la cual se organiza como un árbol de contexto donde se organizan los hechos de la BC en una jerarquía, y se utiliza para definir el flujo de la consulta. Las reglas se agrupan en conjuntos de reglas definidas por el conjunto de tipos de contexto de aplicación de las mismas (una regla siempre se refiere a un determinado tipo de contexto).

Obtención de información a partir del usuario.
Las preguntas se hacen o bien cuando fallan las reglas o bien cuando la información ha de provenir del usuario (ejemplo: datos de laboratorio). Se puede reelaborar una pregunta y permite diferentes conjunto de preguntas para usuarios con experiencia y sin ella, y se basa en la propiedad de “preguntar – primero”, el sistema siempre procura primero obtener el valor de un parámetro a partir del usuario.

El diseñador debe proporcionar un medio aceptable de comunicación con el usuario, MYCIN no fue totalmente satisfactorio en ese aspecto, lo cual se resolvió en ONCOCIN.

Facilidades de explicación
MYCIN como muchos otros SE tienen la facilidad de explicar y justificar su funcionamiento, lo cual es útil para funciones educativas. En cualquier momento el usuario puede preguntarle “como” o “porque” , tomo tal decisión. Esto es a través de reglas

Ejemplo:
Si “está nublado” entonces “va a llover”
“Si “va a llover” entonces “coger la capa”
Ahora se le puede pregunta al sistema:
Porque “coger la capa”?
Porque “está nublado” y “va a llover”.

Los SE son el resultado de una serie de consultas entre los constructores del sistema y expertos en el dominio de conocimiento de interés. Este proceso es laborioso y propenso a errores. Los expertos saben normalmente, más de lo que piensan y no siempre pueden expresar fácilmente sus procesos de razonamiento

Ahora veremos un ejemplo muy sencillo de sistema experto
Como ya sabemos los Sistemas Expertos, constan de:
1. Una base de hechos (BH).
2. Una base de conocimientos (BC).
3. Una máquina o motor de inferencias (MI).

Programa de ejemplo (TINAS)

¿Conocen el problema de las tinas?
Se tienen dos tinas, una de 3 gls y otra de 4 gls, ambas vacías y una pila o llave de agua, para ir llenándolas. Se quiere dejar dos galones en la tina de 4 gls, ejecutando las acciones de llenar una tina, vaciar una tina en la otra y botar el contenido de una tina.
(La tina es un recipiente para contener agua)
Aquí les va el programa en Python.

Programa TINAS

#Base de hechos
x=0
y=0
#Maquina de inferencia
for i in range(1,15):
if y==2:
print "Solucion satisfactoria: Hay dos galones en la tina de 4"
break
#Base de conocimientos
#Regla 1:
if x==0 and y==0:
x=3
y=0
print "Llenar la tina de 3 galoes (3,0)"
#Regla 2:
elif x==0 and y==0:
x=0
y=4
print "Lenar la tina de 4 galones (0,4)"
#Regla 3:
elif x==3 and y==0:
x=0
y=3
print "Vaciar la tina de 3 gls en la de 4 gls (0,3)"
#Regla 4:
elif x==0 and y==4:
x=3
y=1
print "Vaciar la tina de 4gls en la tina de 3gls (3,1)"
#Regla 5:
elif x==0 and y==3:
x=3
y=3
print "Llenar la tina de 3gls (3,3)"
#Regla 6:
elif x==3 and y==1:
x=0
y=1
print "Botar el contenido de la tina de 3gls (0,1)"
#Regla 7:
elif x==3 and y==3:
x=2
y=4
print "Vaciar la tina de 3gls en la de 4gls (2,4)"
#Regla 8:
elif x==0 and y==1:
x=1
y=0
print  "Vaciar la tina de 4gls en la de 3gls (1,0)"
#Regla 9:
elif x==2 and y==4:
x=2
y=0
print "Botar el contenido de la tina de 4gls ((2,0)"
#Regla 10:
elif x==1 and y==0:
x=1
y=4
print "Llenar la tina de 4gls (1,4)"
#Regla 11:
elif x==2 and y==0:
X=0
y=2
print "Vaciar la tina de 3gls en la de 4gls (0,2)"
#Regla 12:
elif x==1 and y==4:
x=3
y=2
print "Vaciar la tina de 4gls en la de 3gls"
#No hay solución
else: print "Solucion no encontrada"

Resultado
(se comenzó llenando la tina de 3 galones)
Llenar la tina de 3 gls (3,0)
Vaciar la tina de 3 gls en la de 4 gls (0,3)
Llenar la tina de 3gls (3,3)
Vaciar la tina de 3gls en la de 4gls (2,4)
Botar el contenido de la tina de 4gls ((2,0)
Vaciar la tina de 3gls en la de 4gls (0,2)
Solucion satisfactoria: Hay dos galones en la tina de 4

Observen que el programa consta de una base de hechos, una máquina de inferencia y una base de conocimientos, compuesta por 12 reglas. Noten que las reglas impares se refieren a comenzar llenando la tina de 3 gls y las reglas pares son para el llenado de la tina de 4 gls.
La máquina de inferencia, lo único que hace es recorrer todas las reglas y en caso de que se llegue a la solución detiene el proceso.

La base de hechos inicializa los hechos (pone en cero las variables) y prepara las condiciones para la interfaz con el usuario.

Es bueno destacar que la base de conocimientos (BC) y la máquina de inferencias (MI) están separadas lógicamente (usted puede seguir agregando reglas sin que esto afecte la ejecución del programa), pero físicamente están unidas dentro del mismo programa. En la practica la BC y la MI deben estar separadas lógica y físicamente.

Sistemas Expertos

Sistema-Experto
Durante años la actividad de la Inteligencia Artificial estuvo dedicada a las investigaciones teóricas y al desarrollo de experimentos a través de programas que demostraran “actitudes inteligentes”, con estos programas se pretendía que la máquina jugara ajedrez, demostrara teoremas matemáticos, etc. No fue hasta los años 70 que surgió un nuevo paradigma en la Inteligencia Artificial “los Sistemas Expertos”, cuya función es desarrollar trabajos similares a los que desarrollaría un especialista en un área determinada.

Disponible en Amazon (kindle)

Ver colección de libros sobre Python

martes, 15 de enero de 2019

Introducción a los sistemas expertos


 Sistema-Experto


Durante años la actividad de la Inteligencia Artificial estuvo dedicada a las investigaciones teóricas y al desarrollo de experimentos a través de programas que demostraran “actitudes inteligentes”, con estos programas se pretendía que la máquina jugara ajedrez, demostrara teoremas matemáticos (Inteligencia artificial, el futuro del hombre), etc.
No fue hasta los años 70 que surgió un nuevo paradigma en la Inteligencia Artificial los "Sistemas Expertos”, cuya función es desarrollar trabajos similares a los que desarrollaría un especialista en un área determinada, la idea no es sustituir a los expertos, sino que estos sistemas sirvan de apoyo a los especialistas en un “dominio” de aplicación específico.

Estos sistemas expertos son en lo esencial sistemas de computación basados en conocimientos cuyos componentes representan un enfoque cualitativo de la programación. Muchas personas pueden creer que un Sistema Experto (SE) es un sistema compuesto por subsistemas y a su vez estos por otros subsistemas hasta llegar a los programas, y que los SE se miden por la cantidad de programas que contienen (Características de los sistemas expertos). Sin embargo la cantidad no es lo que prima en los SE, si no la cualidad del mismo, esta cualidad está dada por la separación de las reglas que describen el problema (Base de Conocimientos), del programa de control que es quien selecciona las reglas adecuadas (Motor de inferencias).

Podemos decir que un Sistema Experto es una Base de Conocimientos (BC), una Base de Hechos (BH) y un Motor (o Máquina) de Inferencias (MI). Por otra parte estos sistemas no se miden por la cantidad de instrucciones o programas sino por la cantidad de reglas que hay contenida en su Base de Conocimientos (¿Cuáles son los componentes de un sistema experto?)

Para desarrollar los sistemas expertos primero es necesario abordar un área de interés, dentro de esta área se seleccionan a los expertos, que son los especialistas capaces de resolver los problemas en dicha área. Por ejemplo el área de interés de las empresas de proyectos, son precisamente los proyectos y un especialista podría ser un arquitecto, un ingeniero civil, etc. Ahora bien, casi siempre estos especialistas, son expertos en un dominio específico y es sobre este dominio, donde poseen su mayor experiencia (Dominio de Experticidad), por ejemplo un Ing. civil especializado en cimientos.
Una vez seleccionado al experto o a los expertos y estos estén de acuerdo en dar sus conocimientos, comienza a jugar su papel el “Ingeniero de Conocimientos”, que es el encargado de extraerle los conocimientos al experto y darle una representación adecuada, ya sea en forma de reglas u otro tipo de representación, conformando así la base de conocimientos del sistema experto.

Formas de representación de los conocimientos:
Reglas de producción
Redes semánticas
Marcos (Frames).

La forma de representación más usada es por reglas de producción, también llamadas reglas de inferencias. Casi todos los sistemas expertos están basados en este tipo de representación, ahora nos ocuparemos de los sistemas basados en reglas (Conceptos básicos sobre sistemas expertos).

Las reglas de producción son del tipo:
SI Premisa ENTONCES Conclusión (SI A ENTONCES B).
Donde tanto las premisas como la conclusión, no son más que una cadena de hechos conectados por “Y” o por “O”, de forma general sería:
SI Hecho1 Y/O Hecho2 Y/O… HechoN ENTONCES Hecho1 Y/O … HechoN

Los hechos son afirmaciones que sirven para representar conceptos, datos, objetos, etc. Y el conjunto de hechos que describen el problema es la base de hechos.

Ejemplo de hechos:
Juan es un estudiante
Juan tiene 8 años
el perro es blanco
a María le gusta el cine
Pedro prefiere la película
la edad de Luis es de 25 años
Pedro tiene un salario de 200 pesos

Una regla es una combinación de hechos que permite representar conocimientos y sacar inferencias de los mismos.

Ejemplo de reglas:
R1: SI Juan es estudiante Y Juan tiene 8 años Entonces Juan estudia en la primaria.
R2: SI el perro es blanco Y el perro se llama Dinky ENTONCES el perro es de Juan.
R3: SI a María le gusta la película Y Juan prefiere la pelota ENTONCES hacen falta dos televisores

Observe como partiendo de hechos conocidos que describen algún conocimiento se pueden inferir nuevos hechos (nuevos conocimientos), por otra parte la regla #2 (R2), no tiene porque ser totalmente cierta, existe la posibilidad de que el perro sea de Juan, quizás se puede afirmar, si fuéramos a cuantificar esa posibilidad, que el perro pertenece a Juan con una certeza de un 80%, y por último la regla #3 (R3) es dependiente del contexto, ya que aquí se supone que ambos viven juntos y que los programas de TV coinciden (El conocimiento incierto en los sistemas expertos)

La Base de Conocimientos (BC). Son el conjunto de reglas que permiten representar los conocimientos del dominio de experto donde cada regla aisladamente tiene significado propio. Normalmente los conocimientos son de tipo declarativo por lo cual la BC casi siempre es una descripción de los conocimientos del experto, por lo tanto requiere de algún mecanismo que obtenga las inferencias adecuadas para resolver el problema, alguien que seleccione las reglas y las vaya ejecutando, ese alguien es el motor de inferencias.

El Motor de Inferencias (MI) es un programa de control cuya función es seleccionar las reglas posibles a satisfacer el problema, para ello se vale de ciertas estrategias de control sistemáticas o de estrategias heurísticas.

Estrategias de control sistemático:
Encadenamiento hacia adelante o hacia atrás.
Búsqueda en profundidad o a lo ancho.
Régimen de control irrevocable o por tentativa.

Estas estrategias son de forma sistemática las cuales deben llevar a la solución del problema. Podemos decir que el control sistemático es un programa de control hecho de forma “algorítmica” que aplican una heurística de propósito general cuya función es una exploración exhaustiva y metódica de la base de conocimientos (Sistema experto. La búsqueda de solución).

Estos mecanismos de control son muy generales y a veces resultan ineficientes ya que siguen una secuencia de búsqueda demasiado rígida, para resolver esto se idearon las estrategias de control heurísticas.

Las estrategias de control heurísticas son programas de control que utilizan una heurística más específica y su función es una selección más restringida orientada por las necesidades del problema. Estas estrategias actúan sobre el control sistemático y en ciertos casos toma el control y dirige la búsqueda hacia ciertos criterios rompiendo así el control sistemático, una vez logrado su objetivo le devuelve el control nuevamente al sistemático.

Estrategias de control heurísticas:
Orden de las reglas.
Mayor credibilidad en las reglas.
Menor número de cláusulas no instanciadas.
Mayor número de conclusiones en las reglas.

Podemos decir que un sistema experto, es un sistema informático que utiliza técnicas apropiadas para la representación de conocimientos y la manipulación de este, de forma tal que exhiba el comportamiento de un avezado especialista en un determinado dominio del saber.

viernes, 11 de enero de 2019

¿Estamos preparados para el surgimiento de una inteligencia artificial superior a la humana?

 
Han pasado 25 años desde que Vinge anunció el surgimiento de una singularidad tecnológica y las superinteligencias, acontecimiento que debería surgir antes del 2030. La pregunta es: ¿Estamos preparados para el surgimiento de una inteligencia superior a la humana. Para dar comienzo a este tema, comenzaremos por publicar las idea sobre la singularidad tecnológica expuestas en el libro: “Inteligencia artificial, el futuro del hombre”.

Singularidad tecnologica

Idea de una singularidad tecnologica se sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicara cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado lo cual conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un gráfico elaborado por Hans Moravec la paridad entre el hardware y el cerebro se alcanzara alrededor del 2020 lo cual dará lugar a las máquinas superinteligentes
También se asume que con respecto al software la máquina, también, ha mejorado mucho; en la IA débil ya las maquinas pueden diagnosticar células sanguíneas, guiar misiles de crucero y, por fin, pueden vencer a cualquier jugador de ajedrez. Con respecto al hardware se están investigando tecnologías de circuito que serán un millón de veces más potente que el cerebro humano, aunque para muchos el proyecto más interesante es el de la ingeniería inversa del cerebro humano: escanear el cerebro desde su interior gracias a billones de minúsculos escáner de alta resolución o nanobots que pasarán a través de los capilares.
Los defensores de las máquinas inteligentes van mucho más lejos y sugieren que las propias máquinas construirán computadoras cada vez más inteligentes, ellos parten de la base de un hardware cada vez más potente, aceptan que mientras más capacidad de procesamiento tenga, será más "inteligente", y quién niega que una máquina inteligente no sea capaz de aumentar las capacidades de las próximas generaciones construyendo máquinas cada vez mejores y así infinitamente, sin que el hombre participe en este proceso. ¿No sería esto el fin de la humanidad?
Hasta hoy se pensaba que la evolución de los seres humanos continuaría siendo un largo proceso evolutivo, que a través de mutaciones nos llevaría a individuos mejores –o peores–. Para otros, este proceso se había detenido y los humanos continuarían siendo los mismos por los siglos de los siglos. Lo interesante es que la discusión no termina ahí, nuevas ideas están surgiendo alrededor del futuro de la humanidad, una de estas teorías es la sustitución del hombre por alguna entidad superinteligente; medio máquina, medio humana, capaz de continuar con el ritmo acelerado de desarrollo industrial, para el cual esa "cosa" llamada humano ha quedado obsoleta. Estas ideas no resultarían tan interesantes de no ser por el hecho de que sus defensores afirman que estamos en la antesala de una nueva era poshumana: "La Singularidad está cerca. Cuando los humanos trascendamos la biología".
.
Muchos de estos autores ven a las máquinas como inteligencias fragmentadas, que pueden estar conectadas a una red como sistema cooperativo, y que esta conexión las lleve a una forma de organización altamente eficiente, que le permita un "despertar" como una gran inteligencia (sistemas emergentes). Parten del concepto, que en la formación del mundo, como sistema evolutivo, ha tenido gran influencia la noción de "emergencia", esto es que la integración de elementos que están en un nivel inferior producirá la transformación a un nivel superior, que poseerá nuevas propiedades. El concepto de emergencia plantea cierta indeterminación en el papel de las ciencias relacionadas con el hombre como las psicológicas, sociales y cognoscitivas. En nuestros días se ha puesto nuevamente de moda el concepto de inteligencia "emergente" donde las máquinas producto de su velocidad de procesamiento llegaran a ser capaces de manipular tal cantidad de información con lo cual alcanzarán un nivel creciente de "conocimientos" hasta llegar a despertar como una entidad inteligente.
Conclusión que extraen de la comparación de la evolución de las máquinas con la de los animales: ya que los humanos fueron el producto de una larga evolución desde los organismos unicelulares pasando por los mamíferos hasta llegar al homo sapiens. ¿A partir de qué momento surgió la inteligencia? ¿Por qué no aceptar que las máquinas también son organismos en evolución que puedan llegar a "pensar"? Si aceptamos a la conciencia como la forma de la materia altamente organizada, ¿quién puede negar que las máquinas sean una nueva forma de la materia altamente organizada y que en su proceso evolutivo alcancen niveles de inteligencia incluso superiores a los del hombre?
Mientras los filósofos y sociólogos parecen haber llegado a un callejón sin salida y hablan del fin del romanticismo social y de la muerte de las verdades absolutas. Los nuevos cibernéticos proponen una nueva "ideología" que vendrá a salvar al mundo: la ideología de las máquinas como herederas del hombre o de la convergencia entre humanos y computadoras, donde se plante la fusión entre el árbol evolutivo de los seres vivos y el de las máquinas.

Presupuestos para una singularidad tecnológica

Vinge define una máquina superinteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de este y está convencido que esa inteligencia superior será la que impulsará el progreso y este será mucho más rápido e incluso superará a la actual evolución natural, por lo que aparecerán problemas miles de veces más deprisa que la selección natural y afirma que estaremos entrando a un régimen radicalmente diferente de nuestro pasado humano, y a es, a este evento, al que le da el nombre de singularidad.
El transhumanista Nick Bostrom define una superinteligencia de la siguiente forma:
Tendrá superinteligencia cualquier intelecto que se comporta de manera bastamente superior en comparación con los mejores cerebro humanos en prácticamente todos los aspectos y en especial estos tres:
  • Creatividad científica
  • Sabiduría en general
  • Desempeño científico
Esta definición deja abierta la forma como se implementa esa superinteligencia Artificial: una computadora digital
  • Colectiva: una red de computadoras
  • Biológica: cultivo de tejidos corticales
  • Hibrida: fusión entre computadoras y humanos
En general los teóricos del la singularidad definen la superinteligencia: como cualquier forma de inteligencia artificial basada en la capacidad del sistema de autoaprendizaje. Estas redes neuronales artificiales serían capaces de superar a los mejores cerebros humanos en prácticamente cualquier disciplina, incluyendo creatividad científica; sentido común, y habilidades sociales. Muchos científicos han presentado el argumento de que tanto el hardware necesario como el software requerido para la superinteligencia serán desarrollados en las primeras décadas del siglo XXI.
A diferencia de los investigadores de la Inteligencia Artificial, que pensaban que la mente podía ser representada por medio de algoritmos y que esta podía ser programada totalmente en una computadora. Cree que las maquinas dado el progreso acelerado de la potencia de su hardware despertarán en algún momento como una inteligencia, esto nos lleva al concepto de emergencia basado en que las máquinas serán cada vez más veloces, tendrán más memoria y que esto emergerá en una nueva inteligencia. El mismo concepto aplica para Internet, donde las conexiones entre humanos y maquinas que se comportaran como neuronas dentro de una gran red, por lo que en cualquier momento de ellas emergerá una inteligencia (cerebro global).
Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguientes conceptos:
  • La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
  • La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
  • Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos.
  • La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

Caminos hacia la singularidad

La característica central de este siglo ha sido la aceleración del progreso tecnológico. Estamos al borde de un cambio comparable a la aparición de la vida humana sobre la Tierra. Existen diferentes interpretaciones de la Singularidad de Vinge (la de Kurzweil es una de ellas), así como las vías para alcanzarla, algunas más próximas y evidentes, y otras más lejanas y complejas.
Para Vernor Vinge, la causa exacta de este cambio es la creación inminente de entidades de inteligencia mayor que la humana. Y afirma que la ciencia puede lograr esta revolución de diferentes modos, y esta es otra razón para tener confianza en que el evento va a ocurrir. Según su criterio debería ocurrir entre el 2005 y el 2030 (Los caminos hacia la singularidad tecnológica).
  1. Pueden desarrollarse computadoras “conscientes” con una inteligencia equivalente a la humana o superior. (Hoy existe mucha controversia sobre si podremos crear el equivalente a un humano en una máquina, pero si la respuesta es “sí”, entonces quedan pocas dudas de que en seguida podremos construir entidades aún más inteligentes.).
  2. Las grandes redes de computadoras con sus usuarios asociados, pueden despertar como entidades superinteligentes.
  3. Las interconexiones entre humanos y computadoras pueden llegar a tal nivel de profundidad que los que la usen actúen como superinteligencias.
  4. La ciencia biológica puede lograr métodos que mejore el intelecto humano natural.
Las tres primeras dependen de mejoras en el soporte físico (hardware) de las computadoras, el cual ha seguido una curva de crecimiento increíble en las últimas décadas. Por lo que le da más importancia al hardware de la computadora que a sus programas y se concentra en la creación de máquinas inteligentes independientes de si emulan la mente humana (IA débil). Es más, lo dice rotundamente, cuando afirma que existen otros caminos diferentes a la IA para llegar a la superhumanidad y a esta otra aproximación él le llama amplificación de la inteligencia, la cual se está sucediendo de una forma natural, cada vez que se mejora nuestra capacidad para acceder a la información y para comunicarnos. Esto nos lleva a la conclusión de una inteligencia "emergente" que podrá surgir de un momento a otro. Por lo que se desprende que para Vingen la inteligencia en las computadoras va a surgir de forma espontánea y que estará basada principalmente en la velocidad de las computadoras, idea ya antes formulada por Moravec.
Las máquinas inteligentes (concebidas dentro de la IA débil) permiten una serie de conclusiones que serían imposibles dentro de las concepciones de la IA fuerte. Una de las ideas más importantes es la emergencia, las máquinas pueden seguir su propio esquema evolutivo de entidades cada vez más inteligentes hasta llegar a superar la inteligencia humana, sin necesidad de copiar a la mente humana. Si tratáramos de copiar a la mente humana como propone la IA fuerte, esta estaría limitada por la propia inteligencia del hombre, jamás podría ser más inteligente que el "original" en todo caso igualarlo.
La idea de la singularidad como se sustenta sobre la base del hardware, asume que las máquinas superaran al hombre por su rapidez a la hora de pensar, pero no se tiene en cuenta la flexibilidad del cerebro. La idea es muy sencilla, siempre todas las expectativas se han basado en alguna interpretación parcial de algún logro y ahora está en la palestra la posibilidad de que las máquinas de jugar ajedrez superan al hombre, y esto no es porque la máquina pueda ser más "creativa", no, esto se basa en la velocidad de la computadora (hard) para analizar las posibles variantes y de encontrar la mejor respuesta (claro que esto es heurística pura) y hace rato que la inteligencia artificial desechó la heurística como único método de lograr máquinas inteligentes (Vinge le llama superinteligencia débil a la que se basa únicamente en la rapidez de pensamiento).
Por otra parte, Vingen, considera que el poder y la influencia de Internet están siendo muy poco considerados: "La total anarquía de la red mundial es una evidencia de su potencial. A medida que crecen la conectividad, el ancho de banda, el tamaño de la capacidad de archivo y la velocidad de proceso (su habilidad para comunicarse en anchos de banda variables, incluyendo algunos mucho más elevados que la voz o los mensajes escritos). ¿Qué pasará cuando partes de un ego pueden ser copiadas y unidas a otras, cuando la autoconsciencia puede aumentar o disminuir para aproximarse a la naturaleza del problema bajo consideración? Es algo parecido a una biosfera recapitulada como un procesador de datos, pero un millón de veces más rápida y con millones de humanos como agentes inteligentes (nosotros mismos)".
Vingen también propone una inteligencia superhumana fuerte, la cual podría parecerse a una Sociedad de la Mente (idea de Minsky) con varios componentes muy calificados, donde algunos de esos "equivalentes humanos" podrían ser usados nada más que para procesamiento digital de señales. Y agrega: "para aquellos que no hayan cambiado (los que decidan seguir siendo humanos) el logro será un trato benigno, quizás dándoles la apariencia de ser los dueños de unos semidioses esclavos (las máquinas superinteligentes)".
La singularidad tecnológica fue propuesta por Vernor Vinge en 1993, desde entonces ha llovido bastante, y se hace necesario revisar algunos conceptos sobre la singularidad tecnológica y su clasificación como posibles superinteligencias.
La primera vía. El surgimiento de una superinteligencia basada en la idea de que las máquinas dado el crecimiento veloz que tiene el hardware (ley de Moore) tendrán cada vez más capacidad de memoria y más velocidad de procesamiento de la información y llegará un momento en que igualará y luego superará la velocidad del cerebro, este es el principio básico del que partió Vinge, para el surgimiento de una singularidad tecnológica; donde se maneja el concepto de una inteligencia que emerge de forma espontánea y adquiere consciencia de sí misma. Estamos hablando de que los humanos sean capaces de construir una inteligencia artificial que los iguale y que después, esta inteligencia no humana, sea capaz de superarse a si misma y dará a lugar a una superinteligencia artificial y la incluyo dentro de una visión racionalista
La segunda proviene de la idea del Ciborg donde se fusiona el organismo humano con los mecanismos cibernéticos. Y es que, la idea de crear una inteligencia artificial partiendo de cero, para muchos resulta una tarea casi imposible, en cambio, parece más lógico aprovechar la creación de la naturaleza y trabajar sobre ella. Resulta obvio. ¿Por qué no aprovechar el camino recorrido por la inteligencia humana en lugar de crear una nueva? Son muchos los que piensan así y prefieren trabajar en aras de una inteligencia híbrida donde se combine lo mejor de los humanos con lo mejor de las máquinas y con ello trascender la condición humana y superar sus límites biológicos y con ello el surgimiento de una nueva inteligencia poshumana, a la que nombro como superinteligencia hibrida y la considero como parte de la vision transhumanista
En tercer lugar la que más se aplica actualmente, y la menos divulgada como posible superinteligencia y surge de las redes cada vez más complejas que se irán conformando debido a la relación entre humanos, y entre humanos y maquinas, en la que Internet está jugando un papel importante dada las aplicaciones en el contexto de la Web 2.0 y de la naciente Web 3.0. No se puede ignorar el impacto que está teniendo la Web social y la gran cantidad de conocimiento que se está compartiendo en las Wikis, redes sociales y blogs, que se podrían ir auto organizando por medio de la Web semántica, conduciéndonos a una superestructura tecnológica de la cual emergerá una superinteligencia, como consecuencia de las complejas conexiones lógicas (y no física), que será producto de la cooperación entre humanos y máquinas. Muchos la conocen como cerebro global, prefiero utilizar superinteligencia global, la cual la incluyo dentro de la visión transdisciplinar.
Mientras las tres anteriores están relacionadas con las tecnologías conexas, aquellas que no se fundamentan en las ciencias de la vida, pero que tienen una incidencia importante sobre esta (Nanotecnología, Robótica, Inteligencia Artificial, etc.); en cambio, esta última, surge producto del desarrollo de la biología, ya que cifra sus esperanzas en la ingeniería genética. Aquí se manejan conceptos, muy debatidos en la actualidad, como el de eugenesia negativa o positiva o el de la clonación. En general se aspira al humano mejorado (humano+) por medio de la bioingeniería, la misma, irá conduciendo a la humanidad a una fusión progresiva y menos radical que la hibrida, aquí respetando a Vinge, la defino como superinteligencia biológica y se puede incluir dentro de la visión transhumanista.

Las visiones que sustentan a las superinteligencias

Cuando en los 80s se hablaba de una IA que igualará la inteligencia humana se pensaba en los programas que la hacían funcionar, hoy se piensa en la cantidad, la velocidad, la capacidad y la integración de los dispositivos del hardware. En un futuro, se pensara en los procesos evolutivos que se producen producto de la interacción de las máquinas con el entorno y en la auto organización que se irá alcanzando. Ha sido la singularidad tecnológica la que ha retomado la idea de una inteligencia artificial que iguala y luego supera a los humanos y ante los peligros de una super IA ha surgido un nuevo tema de investigación, el desarrollo de una IA avanzada beneficiosa que responda a los intereses humanos.
Hoy el temor se centra en una inteligencia artificial (IA) capaz de superar a los humanos y los peligros que esto podría conllevar. No obstante los riesgos, cada vez se propaga más, en los jóvenes, la idea de una IA avanzada y parece como si no existieran más alternativas. El problema radica en que la IA se está construyendo desde un pensamiento positivista-cognitivista-reduccionista-mecanicista. Se asume que la única posibilidad de construir una inteligencia artificial es desde la visión tecnologista-racionalista y se ignoran otras visiones.
En el paradigma mecanicista todo está determinado y en el neo mecanicista (al existir la emergencia) ya todo no esta tan definido y no es el programa y su representación en símbolos sino la velocidad, su aceleración y las conexiones que se producen, lo cual lleva a Moravec a pensar que las super IAs se producirán independientemente de los humanos, una vez que el hardware logre igualar o superar al cerebro humano, entonces, las máquinas podrán autoprogramarse y hacerse cada vez más inteligentes.
Estamos ante el surgimiento de la era de las tecnologias, que ha traído como consecuencia la aspiración a construir una inteligencia sobrehumana desde tres grandes visiones: visión racionalista, visión transhumanista y la visión transdisciplinar. La racionalista y la transhumanista forman parte del paradigma mecanicista (y neo-mecanicista). La visión transdisciplinar la defino como parte del paradigma de la complejidad y de las nuevas tendencias que están surgiendo dentro de la IA, principalmente, de las investigaciones de la ciencia de la complejidad y de otras líneas de investigación como la inteligencia colectiva y el cerebro global así como de la cosmovisión de la complejidad.
Visión racionalista se soporta sobre la idea de que es posible construir una superinteligencia superior a la humana, como ya vimos en la singularidad tecnolgica, la misma se va construyendo fuera del contexto humano aunque si, en muchos casos en un contexto virtual o digital (la IA se está construyendo en la nube) en este caso la IA nace y crece en un mundo digital, que al final será el destino de la humanidad (la poshumanidad). Esta es la vision predominante y es defendida por Kurzweil, Moravec, Mimsky, entre otros.

Alternativas a la visión racionalista-tecnologista

  • Vision transhumanista. Ante el surgimiento de una super IA, la mejor opción es mejorar a los humanos por medio de las tecnologias. La fusión entre humanos y tecnologias para convertirse en superhumano capaz de enfrenta a la super IA
  • Vision sostenible o bioconservadora. Tener bajo control la construccion de la que no debe pasar de ser una aplicacion (infraestructura) que se subordina totalmente a los humanos y caso de riesgo se debe prohibir.
  • Visión transdisciplinar (de la complejidad). La IA se integra al entorno humano e interactúa de forma colaborativa con las personas de forma abierta, donde tanto humanos como tecnologías deben mejorarse buscando ser cada vez más inteligentes y sabios.
Siempre he dicho que me inclino por la vision transdisciplinar y las diferentes vias que existe para lograr una inteligencia artificial avanzada siendo mi interes el desarrollo de una inteligencia artificial colaborativa que busca la colaboración entre humanos e inteligencias artificiales y que dada su interacción se vayan haciendo más inteligentes donde la IA se construye de forma abierta y es capaz de aprender de la relación con las personas y en la que ambos no solo superan la inteligencia  humana sino que alcanzan juntos la sabiduria, que tanta falta le hace a la humanidad.
Libro recomendado: Inteligencia artificial, el futuro del hombre

miércoles, 9 de enero de 2019

¿Qué es la inteligencia artificial general?

Ben Goertzel uno de los artifices de la inteligencia artificial general




La Inteligencia Artificial General (AGI, en inglés) es un intento de retomar la idea de una inteligencia artificial fuerte  dado los nuevos conceptos que ha ido surgiendo en la actualidad, sobre todo las idea del surgimiento de una superinteligencia artificial y de una posible singularidad tecnológica, siendo Ray Kurzweil el punto de referencia de este movimiento.


Haciendo historia, la Inteligencia Artificial (IA) luego de la euforia de sus primeros años, y ante los fracasos de sus pronósticos, siendo el proyecto de quinta generación japonés, uno de los más connotados, se sumergió en una profunda crisis, al extremo que muchos científicos abandonaron su línea de investigación y otros como Minsky, uno de los padres de la IA junto a Mc Carthy, se mostraba molestó ante la falta de apoyo cada vez mayor que estaba sufriendo las investigaciones en la IA.

En su momento los Sistemas Expertos (SE) se convirtieron en la gran esperanza, aunque no fue muy acogida por los teóricos de la IA (algunos le llamaron los hijos bastardos de la IA) si conto con el apoyo financiero y logístico para su despegue y fueron muchos los que pasaron a engrosar las filas de investigadores de este nueva aplicación. De nuevo las expectativas se fueron por encima de la realidad y nuevamente el sentimiento de fracaso invadió a los científicos.

Parecía cuestión de tiempo, que la IA fuera a pasar a un segundo plano y perdiera su influencia como una de las líneas más promisorias dentro de las tecnologías de la información. Para beneplácito de muchos la IA, al igual que la Cibernética está cogiendo un segundo aire

Serían las ideas de Hans Moravec, Vernor Vinge y sobre todo las de Kurzweil, las que le darían un nuevo impulso a la IA y se retomaría nuevamente la casi olvidada idea de una Inteligencia Artificial Fuerte. Es bueno aclarar que para comprender a la IA hay que verla desde tres enfoques: IA fuerte, IA débil y la IA comercial.

La IA fuerte, como ya dijimos en el artículo anterior, está convencida de que la mente humana se puede reproducir en una computadora, la IA débil, se dedica a desarrollar programas que sean capaces de resolver actividades consideradas inteligentes, y no les preocupa que la máquina, como tal, pueda considerarse inteligente; a la IA comercial solo le interesa aplicar las técnicas de la IA en elaborar sistemas que puedan ser comercializados y no le importa si estos simulan o no la inteligencia.

Podemos decir que muchas técnicas, salidas de los laboratorios de la IA, se están aplicando, hoy, en muchos sistemas que ni siquiera se menciona su relación con la inteligencia artificial.
Es bueno destacar que la inteligencia artificial general toma elementos de la IA fuerte y la IA débil, evitando el excesivo optimismo de algunos defensores de la inteligencia artificial fuerte.

¿Por qué Inteligencia Artificial General?

El objetivo original del campo de IA fue la construcción de “máquinas inteligentes”, es decir, los sistemas informáticos con inteligencia similar a la humana.  Desde hace décadas la mayoría de los investigadores de la IA se han centrado en lo que se ha llamado ” la IA estrecha”,  la producción de sistemas de IA que muestran la inteligencia respecto a las tareas específicas, muy limitados.  Debido a la dificultad de esta tarea, en los últimos años, cada vez más los investigadores han reconocido la necesidad  -y la viabilidad- de volver a los objetivos originales de la IA mediante el tratamiento de la inteligencia en su conjunto. Cada vez más, hay una llamada a hacer frente a los problemas más difíciles de la “inteligencia de nivel humano” y más ampliamente a la inteligencia artificial general (IAG).

La investigación difiere de la investigación en IA ordinaria haciendo hincapié en la versatilidad y la integridad de la inteligencia, y llevando a cabo la práctica de la ingeniería de acuerdo con un esquema de un sistema comparable, en cierto sentido,  a la mente humana (Ver el libro: Inteligecia artificial, el futuro del hombre)

El evento principal donde se discute el tema de una IA general son las conferencias AGI que desempeña un papel importante en este resurgimiento de la investigación en inteligencia artificial en el sentido más profundo del término original de la “inteligencia artificial”. Las conferencias buscan alentar la investigación interdisciplinaria sobre la base de diferentes concepciones de la inteligencia, y la exploración de diferentes enfoques.
Los organizadores se plantean la necesidad de volver a los objetivos originales de la IA, mediante el tratamiento de la inteligencia en su conjunto y hacen un llamado a una transición a hacer frente uno de los problemas más difíciles, la comprensión de la mente humana, y resaltan como diferencia con respecto a la IA convencional, que la inteligencia artificial general hace hincapié en la versatilidad y la integridad de la inteligencia (en franca oposición a los sistemas expertos), y por llevar a cabo la práctica de una ingeniera que siga el esquema de la mente humana.

Un poco de historia

Hoy se habla de inteligencia artificial fuerte (IA fuerte), inteligencia artificial débil (IA débil), super inteligencia artificial (Super IA), inteligencia artificial estrecha (la IA clásica) y la nueva inteligencia artificial general (IA general). Cuando se habla de inteligencia artificial general se hace referencia a una IA de propósito general como una continuidad a la IA clásica (la que fue renombrada como IA estrecha).

Todos vienen del inglés: Strong Artificial Intelligence, Weak Artificial Intelligence, Super Artificial Intelligence, Narrow Artificial Intelligence y Artificial General Intelligence (AGI). Aun no existe un acuerdo sobre la traducción de la AGI, yo prefiero llamarla Inteligencia Artificial general (IA general), otros nombre son inteligencia general artificial o general inteligencia artificial.


En los primeros años de la IA luego del paradigma cibernético con su intento de construir una mente mecánica, le siguió el paradigma cognitivo y la idea de reproducir la mente por medio de algoritmos, ya que la mente no era otra cosa que estados mentales que se procesaban en el cerebro al igual que los programas en una computadora.

Lo cual llevó a muchos investigadores en el campo teórico a pensar que una vez que se descifraran los procesos de la mente era seguro desarrollar los algoritmos que representaban esos procesos, es obvio, ya que la mente lo que hace es manipular símbolos por medios algorítmicos. De ahí surgieron los métodos heurísticos, las reglas de producción, los mecanismos de resolución de problemas, etc.
También surgieron los primeros desacuerdos entre los investigadores quienes no se ponían de acuerdo, en, si esa representación simbólica, se basaba en la lógica (la sintaxis, cálculo de predicados) o en la semántica (estructuras semánticas, guiones). Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrapastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero, métodos a parte, ambos compartían un sueño: descubrir los programas que hacen funcionar la mente.

De todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.
Ahora, para que la máquina tenga todos los algoritmos que conforman la mente, primero, hay que ir descubriendo los mecanismos de la mente, traducirlos en algoritmos para incluirlos en la computadora, así sucesivamente hasta que se haya reproducido totalmente la mente humana, y pueda funcionar en una computadora. Fueron muchos investigadores en esa época, principio de los 50, dieron esto por hecho y afirmaron que en los anos 80s ya existirían máquinas con inteligencia humana, en ese entonces no se hablaba de superar la inteligencia humana, ni de singularidad tecnológica, etc.

Qué es la IA general

Según sus creadores la IA general tiene las siguientes características
  • Hace hincapié en el carácter del uso general de la inteligencia
    • Asume un punto de vista holístico o integral de la inteligencia
    • Cree que ha llegado el tiempo para construir una IA que sea comparable a la inteligencia humana.
Lo que nos acerca a la idea original de la IA que debido a sus tropiezos se fue separando de esos objetivos. Y retoma la idea de una IA fuerte (ver artículo anterior).
La IA general al igual que la llamada IA estrecha, se propone convertirse en una ciencia exacta y define su línea teórica en tres campos
  • Una teoría de la inteligencia,
  • Un modelo formal de la teoría,
  • Una implementación computacional del modelo.
El último punto me recuerda los laboratorios de IA donde se experimentaba con el mundo de bloques.
Hasta el momento, las principales técnicas utilizadas en proyectos IA general incluyen las técnicas de la IA clásica:
• Lógica matemática
• Teoría de la probabilidad (tratamiento de la incertidumbre)
• Sistema de producción (estrategias para las reglas)
• Base de conocimientos (representación del conocimiento)
• Algoritmos de aprendizaje (ahora se ha puesto de moda el aprendizaje profundo)
• Robótica (sistemas de planificación)
• Redes neuronales
• Computación evolutiva (algoritmos genéticos)
• Sistema multi-agente (agentes inteligentes)


La IA general, levanta cierto escepticismo, algunos creen que es más de lo mismo y se preguntan ¿Por qué ahora si? ¿Quién sabe?, tal vez se pueda aprender de los errores anteriores o a lo mejor las condiciones tecnológicas han cambiado tanto, que ahora si es posible.