viernes, 18 de enero de 2019

Ejemplos de sistemas expertos


compoente-se

Veremos dos ejemplos que han sido paradigmas de sistemas expertos dentro de la inteligencia artificial.DENDRAL: Reducción de grandes espacios de búsqueda mediante factorización (heurística).
Ayudar a los químicos a inferir la estructura de los componentes químicos a partir de los datos del espectro de masa.

Se partió de la técnica de generar y probar la cual depende de la forma en la que se desarrolla el espacio de estados y de predecir que ramas conducirán a la solución, hasta que profundidad se debe explorar una rama sin que se pierda una posible solución.

Fue el pionero en el cambio de enfoque hacia las estructuras de control dependientes del dominio.
MYCIN. El manejo de evidencia incierta.
Sistema para el diagnostico de infecciones bacterianas.
Se basa en conocimientos indefinidos y datos imprecisos en vez de los manejos del espacio del problema.

DENDRAL

El paradigma de búsqueda de solución en espacios de estados. El cual se basa en una búsqueda a través de una red de nodos, donde cada uno representa un posible estado del problema, donde casi siempre una búsqueda exhaustiva de todo el espacio es imposible (explosión combinatoria). Un método es controlar la búsqueda en el espacio de estado basándose en la relación que hay entre los estados.

Una técnica muy conocida es la de “generar y probar”. Comenzando por algún estado inicial, se utiliza un generador para producir un conjunto de estados descendentes, se aplica entonces a ese conjunto una serie de pruebas de validez para reducirlo a un tamaño más manejable. Estas pruebas adoptan normalmente la forma de restricciones, también es posible incorporar estas restricciones al generador reduciendo el número de estados descendientes a probar. El método “generar y probar” solo funciona, si cuando un estado se declara invalido, todos sus estados descendientes lo son.
DENDRAL, fue el primer sistema basado en conocimientos que utilizo el método de “generar y probar” para las conexiones de las estructuras de compuestos de química orgánica. El proyecto comenzó en 1965 con el objetivo de proporcionar un soporte en la computadora a los químicos, profesionales que no eran expertos en determinadas técnicas analíticas y tubo tal éxito que inspiro a la creación del área de los sistemas expertos en la IA.

La tarea de la aplicación.
DENDRAL: es un sistema diseñado para ayudar a los químicos a determinar la estructura de algún compuesto desconocido, con especial énfasis en el uso de los datos provenientes de un espectrómetro de masas.

El programa de planificación de DENDRAL
En la práctica hizo falta un programa de planificación para producir las restricciones a la hora de generar. El ciclo completo es PLANFICAR – GENERAR – PROBAR.

Con el planificador se evita la generación superflua y simplifica la fase de prueba.
Semejante a MYCIN, DENDRAL no pretende simular los procesos interpretativos que utilizan los químicos. No obstante si pretende complementar los métodos de estos.

Con la planificaron se infiere una lista con las estructuras necesarias(1) y con las prohibidas (2) las cuales ayudaran, mas tarde a limitar las estructuras proporcionadas por el generador .
(1) Lista correcta (2) Lista incorrecta

Ejemplo de regla:
R1: Si hay dos picos de las unidades de masa X1 y X2, de modo que
X1 + X2 = M + 28
X1 – 28 es un pico alto
X2 – 28 es un pico alto
Al menos, o X1 es alto o X2 es alto
Entonces CETONA

R2: Si se satisface las condiciones para ser una CETONA
43 es un pico alto
58 es un pico alto
M – 43 es un pico bajo
M – 15 es bajo o, posiblemente 0
Entonces METIL-CETONA.

Encadenando hacia delante si se aplica la regla R1 el PLANIFICADOR puede considerar aquellas reglas que tenga en sus condiciones el grupo CETONA.
R3: Si es CETONA y...  Entonces ETIL-CETONA.

O sea encadena con las reglas R2 y R3 de acuerdo con su espectro de masa y la correcta la incluye en la lista correcta y la otra en la lista incorrecta. Lo cual permite al planificador determinar la posición de un grupo funcional y registrar la información adicional para que sea utilizada más tarde por el generador.

Generador de estructura: es un programa que genera el espacio de búsqueda con las posibles estructuras químicas.

MYCIN

El sistema experto MYCIN opera sobre una Base de Conocimientos (BC), bien organizada sobre las enfermedades infecciosas, donde el conocimiento es inexacto por lo que el punto central son las técnicas para expresar medidas de opinión, llamadas factores de certeza.

La estructura de control es simple y está basada en un sistema de producción.
1) Una colección de hechos.
2) Un conjunto de reglas de producción.
3) Un generador de inferencias con encadenamiento hacia delante o hacia a tras (o ambos), junto a una estructura de conocimiento que capacita a la estructura de control para disidir que reglas, de todas las posibles, debe tomar parte en el mecanismo de inferencia.
4) Un mecanismo que realice inferencias, a partir de evidencias inciertas o incompletas.

En MYCIN las agrupaciones de reglas dentro de un determinado contexto se definen en tiempo de generación. El generador de inferencias proporciona una búsqueda dirigida por objetivos o por datos. Fue el primero en tener en cuenta el conocimiento incierto

La existencia de una estructura de control dependiente del dominio, la hace específica. Por eso se han extraído de MYCIN las partes independientes del dominio para formar el MYCIN “vacio” o “hueco”, EMYCIN. El cual se ha empleado en otros dominios tales como PUFF (cuidado respiratorio intensivo), SACON (calculo de estructuras de ingeniería), GRAVIDA (consejos para el embarazo), CLOT (desordenes de la sangre) y VM (manejo de la ventilación).
Hechos.
(contexto)(parámetro)(valor)

El contexto es alguna entidad del mundo real. Ejemplo: un paciente.
Un parámetro es un atributo del contexto. Ejemplo: la edad.
El valor es una particularización del parámetro. Ejemplo: 25 años.
A cada terna se le asocia un factor de certeza (FC).
FC toma valores en el intervalo (-1, 1) donde -1 es la negación, 0 la ignorancia absoluta y 1 total certidumbre.

Ejemplo:
Organismo 1 – Identidad pseudomonas .8 (La identidad del organismo 1 es, con un factor de certeza 0.8, pseudomonas).
Reglas de producción.
Si premisa entonces acción (FC).

En MYCIN las reglas se definen para poder encadenar hacia delante o hacia atrás. Las reglas se utilizan repetidamente utilizando el conocimiento dependiente del dominio para decidir que reglas se deben considerar, hasta que se dé un contenido a los hechos. En algunos casos, las reglas darán contenido a los hechos mediante preguntas al médico.

Ejemplo de reglas:
Si (no se sabe si el organismo fue capaz de desarrollarse en presencia del aire (aeróbicamente))
Y (el lugar de cultivo es la sangre)
O (el laboratorio ha intentado que el organismo se desarrolle sin la presencia del aire (anaeróbicamente)
Y (el organismo fue capaz de desarrollarse anaeróbicamente)
Entonces (hay evidencias de que el organismo es aerobio (.5) O anaerobio (.2).
Las premisas serán verdad si todos los hechos son verdad.
Factor de certeza.

En general:
Si (contexto-parametro-valor (FC1)) y/o (contexto-parametro-valor (FC2)) y/o…….
Entonces (contexto-parametro-valor (FC)).
Min(FC1, FC2,….) = RC*FC
Si la regla no venia arrastrando ningún valor de certeza entonces RC se colocara como su factor de certeza (FC) , si ya tenia con un valor IC. Se calculara el FC actual.
RC, IC>FC = IC + |RC| (1- |IC|) 0
RC, ICIC + RC
1 – min(|IC|, |RC|)

La combinación de –1 y 1 se define como 1.

Este método del facto de certeza permite que el sistema se pueda enfrentar al razonamiento de juicios.

Estructura de control dependiente del dominio
El orden de las reglas no es significativo se aplican todas las reglas relevantes hasta que una determinada consigue un objetivo con certeza, en cuyo caso el resto de las reglas se ignora. La relevancia de una regla se define por la estructura del control dependiente del dominio, la cual se organiza como un árbol de contexto donde se organizan los hechos de la BC en una jerarquía, y se utiliza para definir el flujo de la consulta. Las reglas se agrupan en conjuntos de reglas definidas por el conjunto de tipos de contexto de aplicación de las mismas (una regla siempre se refiere a un determinado tipo de contexto).

Obtención de información a partir del usuario.
Las preguntas se hacen o bien cuando fallan las reglas o bien cuando la información ha de provenir del usuario (ejemplo: datos de laboratorio). Se puede reelaborar una pregunta y permite diferentes conjunto de preguntas para usuarios con experiencia y sin ella, y se basa en la propiedad de “preguntar – primero”, el sistema siempre procura primero obtener el valor de un parámetro a partir del usuario.

El diseñador debe proporcionar un medio aceptable de comunicación con el usuario, MYCIN no fue totalmente satisfactorio en ese aspecto, lo cual se resolvió en ONCOCIN.

Facilidades de explicación
MYCIN como muchos otros SE tienen la facilidad de explicar y justificar su funcionamiento, lo cual es útil para funciones educativas. En cualquier momento el usuario puede preguntarle “como” o “porque” , tomo tal decisión. Esto es a través de reglas

Ejemplo:
Si “está nublado” entonces “va a llover”
“Si “va a llover” entonces “coger la capa”
Ahora se le puede pregunta al sistema:
Porque “coger la capa”?
Porque “está nublado” y “va a llover”.

Los SE son el resultado de una serie de consultas entre los constructores del sistema y expertos en el dominio de conocimiento de interés. Este proceso es laborioso y propenso a errores. Los expertos saben normalmente, más de lo que piensan y no siempre pueden expresar fácilmente sus procesos de razonamiento

Ahora veremos un ejemplo muy sencillo de sistema experto
Como ya sabemos los Sistemas Expertos, constan de:
1. Una base de hechos (BH).
2. Una base de conocimientos (BC).
3. Una máquina o motor de inferencias (MI).

Programa de ejemplo (TINAS)

¿Conocen el problema de las tinas?
Se tienen dos tinas, una de 3 gls y otra de 4 gls, ambas vacías y una pila o llave de agua, para ir llenándolas. Se quiere dejar dos galones en la tina de 4 gls, ejecutando las acciones de llenar una tina, vaciar una tina en la otra y botar el contenido de una tina.
(La tina es un recipiente para contener agua)
Aquí les va el programa en Python.

Programa TINAS

#Base de hechos
x=0
y=0
#Maquina de inferencia
for i in range(1,15):
if y==2:
print "Solucion satisfactoria: Hay dos galones en la tina de 4"
break
#Base de conocimientos
#Regla 1:
if x==0 and y==0:
x=3
y=0
print "Llenar la tina de 3 galoes (3,0)"
#Regla 2:
elif x==0 and y==0:
x=0
y=4
print "Lenar la tina de 4 galones (0,4)"
#Regla 3:
elif x==3 and y==0:
x=0
y=3
print "Vaciar la tina de 3 gls en la de 4 gls (0,3)"
#Regla 4:
elif x==0 and y==4:
x=3
y=1
print "Vaciar la tina de 4gls en la tina de 3gls (3,1)"
#Regla 5:
elif x==0 and y==3:
x=3
y=3
print "Llenar la tina de 3gls (3,3)"
#Regla 6:
elif x==3 and y==1:
x=0
y=1
print "Botar el contenido de la tina de 3gls (0,1)"
#Regla 7:
elif x==3 and y==3:
x=2
y=4
print "Vaciar la tina de 3gls en la de 4gls (2,4)"
#Regla 8:
elif x==0 and y==1:
x=1
y=0
print  "Vaciar la tina de 4gls en la de 3gls (1,0)"
#Regla 9:
elif x==2 and y==4:
x=2
y=0
print "Botar el contenido de la tina de 4gls ((2,0)"
#Regla 10:
elif x==1 and y==0:
x=1
y=4
print "Llenar la tina de 4gls (1,4)"
#Regla 11:
elif x==2 and y==0:
X=0
y=2
print "Vaciar la tina de 3gls en la de 4gls (0,2)"
#Regla 12:
elif x==1 and y==4:
x=3
y=2
print "Vaciar la tina de 4gls en la de 3gls"
#No hay solución
else: print "Solucion no encontrada"

Resultado
(se comenzó llenando la tina de 3 galones)
Llenar la tina de 3 gls (3,0)
Vaciar la tina de 3 gls en la de 4 gls (0,3)
Llenar la tina de 3gls (3,3)
Vaciar la tina de 3gls en la de 4gls (2,4)
Botar el contenido de la tina de 4gls ((2,0)
Vaciar la tina de 3gls en la de 4gls (0,2)
Solucion satisfactoria: Hay dos galones en la tina de 4

Observen que el programa consta de una base de hechos, una máquina de inferencia y una base de conocimientos, compuesta por 12 reglas. Noten que las reglas impares se refieren a comenzar llenando la tina de 3 gls y las reglas pares son para el llenado de la tina de 4 gls.
La máquina de inferencia, lo único que hace es recorrer todas las reglas y en caso de que se llegue a la solución detiene el proceso.

La base de hechos inicializa los hechos (pone en cero las variables) y prepara las condiciones para la interfaz con el usuario.

Es bueno destacar que la base de conocimientos (BC) y la máquina de inferencias (MI) están separadas lógicamente (usted puede seguir agregando reglas sin que esto afecte la ejecución del programa), pero físicamente están unidas dentro del mismo programa. En la practica la BC y la MI deben estar separadas lógica y físicamente.

Sistemas Expertos

Sistema-Experto
Durante años la actividad de la Inteligencia Artificial estuvo dedicada a las investigaciones teóricas y al desarrollo de experimentos a través de programas que demostraran “actitudes inteligentes”, con estos programas se pretendía que la máquina jugara ajedrez, demostrara teoremas matemáticos, etc. No fue hasta los años 70 que surgió un nuevo paradigma en la Inteligencia Artificial “los Sistemas Expertos”, cuya función es desarrollar trabajos similares a los que desarrollaría un especialista en un área determinada.

Disponible en Amazon (kindle)

Ver colección de libros sobre Python

martes, 15 de enero de 2019

Introducción a los sistemas expertos


 Sistema-Experto


Durante años la actividad de la Inteligencia Artificial estuvo dedicada a las investigaciones teóricas y al desarrollo de experimentos a través de programas que demostraran “actitudes inteligentes”, con estos programas se pretendía que la máquina jugara ajedrez, demostrara teoremas matemáticos (Inteligencia artificial, el futuro del hombre), etc.
No fue hasta los años 70 que surgió un nuevo paradigma en la Inteligencia Artificial los "Sistemas Expertos”, cuya función es desarrollar trabajos similares a los que desarrollaría un especialista en un área determinada, la idea no es sustituir a los expertos, sino que estos sistemas sirvan de apoyo a los especialistas en un “dominio” de aplicación específico.

Estos sistemas expertos son en lo esencial sistemas de computación basados en conocimientos cuyos componentes representan un enfoque cualitativo de la programación. Muchas personas pueden creer que un Sistema Experto (SE) es un sistema compuesto por subsistemas y a su vez estos por otros subsistemas hasta llegar a los programas, y que los SE se miden por la cantidad de programas que contienen (Características de los sistemas expertos). Sin embargo la cantidad no es lo que prima en los SE, si no la cualidad del mismo, esta cualidad está dada por la separación de las reglas que describen el problema (Base de Conocimientos), del programa de control que es quien selecciona las reglas adecuadas (Motor de inferencias).

Podemos decir que un Sistema Experto es una Base de Conocimientos (BC), una Base de Hechos (BH) y un Motor (o Máquina) de Inferencias (MI). Por otra parte estos sistemas no se miden por la cantidad de instrucciones o programas sino por la cantidad de reglas que hay contenida en su Base de Conocimientos (¿Cuáles son los componentes de un sistema experto?)

Para desarrollar los sistemas expertos primero es necesario abordar un área de interés, dentro de esta área se seleccionan a los expertos, que son los especialistas capaces de resolver los problemas en dicha área. Por ejemplo el área de interés de las empresas de proyectos, son precisamente los proyectos y un especialista podría ser un arquitecto, un ingeniero civil, etc. Ahora bien, casi siempre estos especialistas, son expertos en un dominio específico y es sobre este dominio, donde poseen su mayor experiencia (Dominio de Experticidad), por ejemplo un Ing. civil especializado en cimientos.
Una vez seleccionado al experto o a los expertos y estos estén de acuerdo en dar sus conocimientos, comienza a jugar su papel el “Ingeniero de Conocimientos”, que es el encargado de extraerle los conocimientos al experto y darle una representación adecuada, ya sea en forma de reglas u otro tipo de representación, conformando así la base de conocimientos del sistema experto.

Formas de representación de los conocimientos:
Reglas de producción
Redes semánticas
Marcos (Frames).

La forma de representación más usada es por reglas de producción, también llamadas reglas de inferencias. Casi todos los sistemas expertos están basados en este tipo de representación, ahora nos ocuparemos de los sistemas basados en reglas (Conceptos básicos sobre sistemas expertos).

Las reglas de producción son del tipo:
SI Premisa ENTONCES Conclusión (SI A ENTONCES B).
Donde tanto las premisas como la conclusión, no son más que una cadena de hechos conectados por “Y” o por “O”, de forma general sería:
SI Hecho1 Y/O Hecho2 Y/O… HechoN ENTONCES Hecho1 Y/O … HechoN

Los hechos son afirmaciones que sirven para representar conceptos, datos, objetos, etc. Y el conjunto de hechos que describen el problema es la base de hechos.

Ejemplo de hechos:
Juan es un estudiante
Juan tiene 8 años
el perro es blanco
a María le gusta el cine
Pedro prefiere la película
la edad de Luis es de 25 años
Pedro tiene un salario de 200 pesos

Una regla es una combinación de hechos que permite representar conocimientos y sacar inferencias de los mismos.

Ejemplo de reglas:
R1: SI Juan es estudiante Y Juan tiene 8 años Entonces Juan estudia en la primaria.
R2: SI el perro es blanco Y el perro se llama Dinky ENTONCES el perro es de Juan.
R3: SI a María le gusta la película Y Juan prefiere la pelota ENTONCES hacen falta dos televisores

Observe como partiendo de hechos conocidos que describen algún conocimiento se pueden inferir nuevos hechos (nuevos conocimientos), por otra parte la regla #2 (R2), no tiene porque ser totalmente cierta, existe la posibilidad de que el perro sea de Juan, quizás se puede afirmar, si fuéramos a cuantificar esa posibilidad, que el perro pertenece a Juan con una certeza de un 80%, y por último la regla #3 (R3) es dependiente del contexto, ya que aquí se supone que ambos viven juntos y que los programas de TV coinciden (El conocimiento incierto en los sistemas expertos)

La Base de Conocimientos (BC). Son el conjunto de reglas que permiten representar los conocimientos del dominio de experto donde cada regla aisladamente tiene significado propio. Normalmente los conocimientos son de tipo declarativo por lo cual la BC casi siempre es una descripción de los conocimientos del experto, por lo tanto requiere de algún mecanismo que obtenga las inferencias adecuadas para resolver el problema, alguien que seleccione las reglas y las vaya ejecutando, ese alguien es el motor de inferencias.

El Motor de Inferencias (MI) es un programa de control cuya función es seleccionar las reglas posibles a satisfacer el problema, para ello se vale de ciertas estrategias de control sistemáticas o de estrategias heurísticas.

Estrategias de control sistemático:
Encadenamiento hacia adelante o hacia atrás.
Búsqueda en profundidad o a lo ancho.
Régimen de control irrevocable o por tentativa.

Estas estrategias son de forma sistemática las cuales deben llevar a la solución del problema. Podemos decir que el control sistemático es un programa de control hecho de forma “algorítmica” que aplican una heurística de propósito general cuya función es una exploración exhaustiva y metódica de la base de conocimientos (Sistema experto. La búsqueda de solución).

Estos mecanismos de control son muy generales y a veces resultan ineficientes ya que siguen una secuencia de búsqueda demasiado rígida, para resolver esto se idearon las estrategias de control heurísticas.

Las estrategias de control heurísticas son programas de control que utilizan una heurística más específica y su función es una selección más restringida orientada por las necesidades del problema. Estas estrategias actúan sobre el control sistemático y en ciertos casos toma el control y dirige la búsqueda hacia ciertos criterios rompiendo así el control sistemático, una vez logrado su objetivo le devuelve el control nuevamente al sistemático.

Estrategias de control heurísticas:
Orden de las reglas.
Mayor credibilidad en las reglas.
Menor número de cláusulas no instanciadas.
Mayor número de conclusiones en las reglas.

Podemos decir que un sistema experto, es un sistema informático que utiliza técnicas apropiadas para la representación de conocimientos y la manipulación de este, de forma tal que exhiba el comportamiento de un avezado especialista en un determinado dominio del saber.

viernes, 11 de enero de 2019

¿Estamos preparados para el surgimiento de una inteligencia artificial superior a la humana?

 
Han pasado 25 años desde que Vinge anunció el surgimiento de una singularidad tecnológica y las superinteligencias, acontecimiento que debería surgir antes del 2030. La pregunta es: ¿Estamos preparados para el surgimiento de una inteligencia superior a la humana. Para dar comienzo a este tema, comenzaremos por publicar las idea sobre la singularidad tecnológica expuestas en el libro: “Inteligencia artificial, el futuro del hombre”.

Singularidad tecnologica

Idea de una singularidad tecnologica se sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicara cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado lo cual conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un gráfico elaborado por Hans Moravec la paridad entre el hardware y el cerebro se alcanzara alrededor del 2020 lo cual dará lugar a las máquinas superinteligentes
También se asume que con respecto al software la máquina, también, ha mejorado mucho; en la IA débil ya las maquinas pueden diagnosticar células sanguíneas, guiar misiles de crucero y, por fin, pueden vencer a cualquier jugador de ajedrez. Con respecto al hardware se están investigando tecnologías de circuito que serán un millón de veces más potente que el cerebro humano, aunque para muchos el proyecto más interesante es el de la ingeniería inversa del cerebro humano: escanear el cerebro desde su interior gracias a billones de minúsculos escáner de alta resolución o nanobots que pasarán a través de los capilares.
Los defensores de las máquinas inteligentes van mucho más lejos y sugieren que las propias máquinas construirán computadoras cada vez más inteligentes, ellos parten de la base de un hardware cada vez más potente, aceptan que mientras más capacidad de procesamiento tenga, será más "inteligente", y quién niega que una máquina inteligente no sea capaz de aumentar las capacidades de las próximas generaciones construyendo máquinas cada vez mejores y así infinitamente, sin que el hombre participe en este proceso. ¿No sería esto el fin de la humanidad?
Hasta hoy se pensaba que la evolución de los seres humanos continuaría siendo un largo proceso evolutivo, que a través de mutaciones nos llevaría a individuos mejores –o peores–. Para otros, este proceso se había detenido y los humanos continuarían siendo los mismos por los siglos de los siglos. Lo interesante es que la discusión no termina ahí, nuevas ideas están surgiendo alrededor del futuro de la humanidad, una de estas teorías es la sustitución del hombre por alguna entidad superinteligente; medio máquina, medio humana, capaz de continuar con el ritmo acelerado de desarrollo industrial, para el cual esa "cosa" llamada humano ha quedado obsoleta. Estas ideas no resultarían tan interesantes de no ser por el hecho de que sus defensores afirman que estamos en la antesala de una nueva era poshumana: "La Singularidad está cerca. Cuando los humanos trascendamos la biología".
.
Muchos de estos autores ven a las máquinas como inteligencias fragmentadas, que pueden estar conectadas a una red como sistema cooperativo, y que esta conexión las lleve a una forma de organización altamente eficiente, que le permita un "despertar" como una gran inteligencia (sistemas emergentes). Parten del concepto, que en la formación del mundo, como sistema evolutivo, ha tenido gran influencia la noción de "emergencia", esto es que la integración de elementos que están en un nivel inferior producirá la transformación a un nivel superior, que poseerá nuevas propiedades. El concepto de emergencia plantea cierta indeterminación en el papel de las ciencias relacionadas con el hombre como las psicológicas, sociales y cognoscitivas. En nuestros días se ha puesto nuevamente de moda el concepto de inteligencia "emergente" donde las máquinas producto de su velocidad de procesamiento llegaran a ser capaces de manipular tal cantidad de información con lo cual alcanzarán un nivel creciente de "conocimientos" hasta llegar a despertar como una entidad inteligente.
Conclusión que extraen de la comparación de la evolución de las máquinas con la de los animales: ya que los humanos fueron el producto de una larga evolución desde los organismos unicelulares pasando por los mamíferos hasta llegar al homo sapiens. ¿A partir de qué momento surgió la inteligencia? ¿Por qué no aceptar que las máquinas también son organismos en evolución que puedan llegar a "pensar"? Si aceptamos a la conciencia como la forma de la materia altamente organizada, ¿quién puede negar que las máquinas sean una nueva forma de la materia altamente organizada y que en su proceso evolutivo alcancen niveles de inteligencia incluso superiores a los del hombre?
Mientras los filósofos y sociólogos parecen haber llegado a un callejón sin salida y hablan del fin del romanticismo social y de la muerte de las verdades absolutas. Los nuevos cibernéticos proponen una nueva "ideología" que vendrá a salvar al mundo: la ideología de las máquinas como herederas del hombre o de la convergencia entre humanos y computadoras, donde se plante la fusión entre el árbol evolutivo de los seres vivos y el de las máquinas.

Presupuestos para una singularidad tecnológica

Vinge define una máquina superinteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de este y está convencido que esa inteligencia superior será la que impulsará el progreso y este será mucho más rápido e incluso superará a la actual evolución natural, por lo que aparecerán problemas miles de veces más deprisa que la selección natural y afirma que estaremos entrando a un régimen radicalmente diferente de nuestro pasado humano, y a es, a este evento, al que le da el nombre de singularidad.
El transhumanista Nick Bostrom define una superinteligencia de la siguiente forma:
Tendrá superinteligencia cualquier intelecto que se comporta de manera bastamente superior en comparación con los mejores cerebro humanos en prácticamente todos los aspectos y en especial estos tres:
  • Creatividad científica
  • Sabiduría en general
  • Desempeño científico
Esta definición deja abierta la forma como se implementa esa superinteligencia Artificial: una computadora digital
  • Colectiva: una red de computadoras
  • Biológica: cultivo de tejidos corticales
  • Hibrida: fusión entre computadoras y humanos
En general los teóricos del la singularidad definen la superinteligencia: como cualquier forma de inteligencia artificial basada en la capacidad del sistema de autoaprendizaje. Estas redes neuronales artificiales serían capaces de superar a los mejores cerebros humanos en prácticamente cualquier disciplina, incluyendo creatividad científica; sentido común, y habilidades sociales. Muchos científicos han presentado el argumento de que tanto el hardware necesario como el software requerido para la superinteligencia serán desarrollados en las primeras décadas del siglo XXI.
A diferencia de los investigadores de la Inteligencia Artificial, que pensaban que la mente podía ser representada por medio de algoritmos y que esta podía ser programada totalmente en una computadora. Cree que las maquinas dado el progreso acelerado de la potencia de su hardware despertarán en algún momento como una inteligencia, esto nos lleva al concepto de emergencia basado en que las máquinas serán cada vez más veloces, tendrán más memoria y que esto emergerá en una nueva inteligencia. El mismo concepto aplica para Internet, donde las conexiones entre humanos y maquinas que se comportaran como neuronas dentro de una gran red, por lo que en cualquier momento de ellas emergerá una inteligencia (cerebro global).
Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguientes conceptos:
  • La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
  • La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
  • Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos.
  • La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

Caminos hacia la singularidad

La característica central de este siglo ha sido la aceleración del progreso tecnológico. Estamos al borde de un cambio comparable a la aparición de la vida humana sobre la Tierra. Existen diferentes interpretaciones de la Singularidad de Vinge (la de Kurzweil es una de ellas), así como las vías para alcanzarla, algunas más próximas y evidentes, y otras más lejanas y complejas.
Para Vernor Vinge, la causa exacta de este cambio es la creación inminente de entidades de inteligencia mayor que la humana. Y afirma que la ciencia puede lograr esta revolución de diferentes modos, y esta es otra razón para tener confianza en que el evento va a ocurrir. Según su criterio debería ocurrir entre el 2005 y el 2030 (Los caminos hacia la singularidad tecnológica).
  1. Pueden desarrollarse computadoras “conscientes” con una inteligencia equivalente a la humana o superior. (Hoy existe mucha controversia sobre si podremos crear el equivalente a un humano en una máquina, pero si la respuesta es “sí”, entonces quedan pocas dudas de que en seguida podremos construir entidades aún más inteligentes.).
  2. Las grandes redes de computadoras con sus usuarios asociados, pueden despertar como entidades superinteligentes.
  3. Las interconexiones entre humanos y computadoras pueden llegar a tal nivel de profundidad que los que la usen actúen como superinteligencias.
  4. La ciencia biológica puede lograr métodos que mejore el intelecto humano natural.
Las tres primeras dependen de mejoras en el soporte físico (hardware) de las computadoras, el cual ha seguido una curva de crecimiento increíble en las últimas décadas. Por lo que le da más importancia al hardware de la computadora que a sus programas y se concentra en la creación de máquinas inteligentes independientes de si emulan la mente humana (IA débil). Es más, lo dice rotundamente, cuando afirma que existen otros caminos diferentes a la IA para llegar a la superhumanidad y a esta otra aproximación él le llama amplificación de la inteligencia, la cual se está sucediendo de una forma natural, cada vez que se mejora nuestra capacidad para acceder a la información y para comunicarnos. Esto nos lleva a la conclusión de una inteligencia "emergente" que podrá surgir de un momento a otro. Por lo que se desprende que para Vingen la inteligencia en las computadoras va a surgir de forma espontánea y que estará basada principalmente en la velocidad de las computadoras, idea ya antes formulada por Moravec.
Las máquinas inteligentes (concebidas dentro de la IA débil) permiten una serie de conclusiones que serían imposibles dentro de las concepciones de la IA fuerte. Una de las ideas más importantes es la emergencia, las máquinas pueden seguir su propio esquema evolutivo de entidades cada vez más inteligentes hasta llegar a superar la inteligencia humana, sin necesidad de copiar a la mente humana. Si tratáramos de copiar a la mente humana como propone la IA fuerte, esta estaría limitada por la propia inteligencia del hombre, jamás podría ser más inteligente que el "original" en todo caso igualarlo.
La idea de la singularidad como se sustenta sobre la base del hardware, asume que las máquinas superaran al hombre por su rapidez a la hora de pensar, pero no se tiene en cuenta la flexibilidad del cerebro. La idea es muy sencilla, siempre todas las expectativas se han basado en alguna interpretación parcial de algún logro y ahora está en la palestra la posibilidad de que las máquinas de jugar ajedrez superan al hombre, y esto no es porque la máquina pueda ser más "creativa", no, esto se basa en la velocidad de la computadora (hard) para analizar las posibles variantes y de encontrar la mejor respuesta (claro que esto es heurística pura) y hace rato que la inteligencia artificial desechó la heurística como único método de lograr máquinas inteligentes (Vinge le llama superinteligencia débil a la que se basa únicamente en la rapidez de pensamiento).
Por otra parte, Vingen, considera que el poder y la influencia de Internet están siendo muy poco considerados: "La total anarquía de la red mundial es una evidencia de su potencial. A medida que crecen la conectividad, el ancho de banda, el tamaño de la capacidad de archivo y la velocidad de proceso (su habilidad para comunicarse en anchos de banda variables, incluyendo algunos mucho más elevados que la voz o los mensajes escritos). ¿Qué pasará cuando partes de un ego pueden ser copiadas y unidas a otras, cuando la autoconsciencia puede aumentar o disminuir para aproximarse a la naturaleza del problema bajo consideración? Es algo parecido a una biosfera recapitulada como un procesador de datos, pero un millón de veces más rápida y con millones de humanos como agentes inteligentes (nosotros mismos)".
Vingen también propone una inteligencia superhumana fuerte, la cual podría parecerse a una Sociedad de la Mente (idea de Minsky) con varios componentes muy calificados, donde algunos de esos "equivalentes humanos" podrían ser usados nada más que para procesamiento digital de señales. Y agrega: "para aquellos que no hayan cambiado (los que decidan seguir siendo humanos) el logro será un trato benigno, quizás dándoles la apariencia de ser los dueños de unos semidioses esclavos (las máquinas superinteligentes)".
La singularidad tecnológica fue propuesta por Vernor Vinge en 1993, desde entonces ha llovido bastante, y se hace necesario revisar algunos conceptos sobre la singularidad tecnológica y su clasificación como posibles superinteligencias.
La primera vía. El surgimiento de una superinteligencia basada en la idea de que las máquinas dado el crecimiento veloz que tiene el hardware (ley de Moore) tendrán cada vez más capacidad de memoria y más velocidad de procesamiento de la información y llegará un momento en que igualará y luego superará la velocidad del cerebro, este es el principio básico del que partió Vinge, para el surgimiento de una singularidad tecnológica; donde se maneja el concepto de una inteligencia que emerge de forma espontánea y adquiere consciencia de sí misma. Estamos hablando de que los humanos sean capaces de construir una inteligencia artificial que los iguale y que después, esta inteligencia no humana, sea capaz de superarse a si misma y dará a lugar a una superinteligencia artificial y la incluyo dentro de una visión racionalista
La segunda proviene de la idea del Ciborg donde se fusiona el organismo humano con los mecanismos cibernéticos. Y es que, la idea de crear una inteligencia artificial partiendo de cero, para muchos resulta una tarea casi imposible, en cambio, parece más lógico aprovechar la creación de la naturaleza y trabajar sobre ella. Resulta obvio. ¿Por qué no aprovechar el camino recorrido por la inteligencia humana en lugar de crear una nueva? Son muchos los que piensan así y prefieren trabajar en aras de una inteligencia híbrida donde se combine lo mejor de los humanos con lo mejor de las máquinas y con ello trascender la condición humana y superar sus límites biológicos y con ello el surgimiento de una nueva inteligencia poshumana, a la que nombro como superinteligencia hibrida y la considero como parte de la vision transhumanista
En tercer lugar la que más se aplica actualmente, y la menos divulgada como posible superinteligencia y surge de las redes cada vez más complejas que se irán conformando debido a la relación entre humanos, y entre humanos y maquinas, en la que Internet está jugando un papel importante dada las aplicaciones en el contexto de la Web 2.0 y de la naciente Web 3.0. No se puede ignorar el impacto que está teniendo la Web social y la gran cantidad de conocimiento que se está compartiendo en las Wikis, redes sociales y blogs, que se podrían ir auto organizando por medio de la Web semántica, conduciéndonos a una superestructura tecnológica de la cual emergerá una superinteligencia, como consecuencia de las complejas conexiones lógicas (y no física), que será producto de la cooperación entre humanos y máquinas. Muchos la conocen como cerebro global, prefiero utilizar superinteligencia global, la cual la incluyo dentro de la visión transdisciplinar.
Mientras las tres anteriores están relacionadas con las tecnologías conexas, aquellas que no se fundamentan en las ciencias de la vida, pero que tienen una incidencia importante sobre esta (Nanotecnología, Robótica, Inteligencia Artificial, etc.); en cambio, esta última, surge producto del desarrollo de la biología, ya que cifra sus esperanzas en la ingeniería genética. Aquí se manejan conceptos, muy debatidos en la actualidad, como el de eugenesia negativa o positiva o el de la clonación. En general se aspira al humano mejorado (humano+) por medio de la bioingeniería, la misma, irá conduciendo a la humanidad a una fusión progresiva y menos radical que la hibrida, aquí respetando a Vinge, la defino como superinteligencia biológica y se puede incluir dentro de la visión transhumanista.

Las visiones que sustentan a las superinteligencias

Cuando en los 80s se hablaba de una IA que igualará la inteligencia humana se pensaba en los programas que la hacían funcionar, hoy se piensa en la cantidad, la velocidad, la capacidad y la integración de los dispositivos del hardware. En un futuro, se pensara en los procesos evolutivos que se producen producto de la interacción de las máquinas con el entorno y en la auto organización que se irá alcanzando. Ha sido la singularidad tecnológica la que ha retomado la idea de una inteligencia artificial que iguala y luego supera a los humanos y ante los peligros de una super IA ha surgido un nuevo tema de investigación, el desarrollo de una IA avanzada beneficiosa que responda a los intereses humanos.
Hoy el temor se centra en una inteligencia artificial (IA) capaz de superar a los humanos y los peligros que esto podría conllevar. No obstante los riesgos, cada vez se propaga más, en los jóvenes, la idea de una IA avanzada y parece como si no existieran más alternativas. El problema radica en que la IA se está construyendo desde un pensamiento positivista-cognitivista-reduccionista-mecanicista. Se asume que la única posibilidad de construir una inteligencia artificial es desde la visión tecnologista-racionalista y se ignoran otras visiones.
En el paradigma mecanicista todo está determinado y en el neo mecanicista (al existir la emergencia) ya todo no esta tan definido y no es el programa y su representación en símbolos sino la velocidad, su aceleración y las conexiones que se producen, lo cual lleva a Moravec a pensar que las super IAs se producirán independientemente de los humanos, una vez que el hardware logre igualar o superar al cerebro humano, entonces, las máquinas podrán autoprogramarse y hacerse cada vez más inteligentes.
Estamos ante el surgimiento de la era de las tecnologias, que ha traído como consecuencia la aspiración a construir una inteligencia sobrehumana desde tres grandes visiones: visión racionalista, visión transhumanista y la visión transdisciplinar. La racionalista y la transhumanista forman parte del paradigma mecanicista (y neo-mecanicista). La visión transdisciplinar la defino como parte del paradigma de la complejidad y de las nuevas tendencias que están surgiendo dentro de la IA, principalmente, de las investigaciones de la ciencia de la complejidad y de otras líneas de investigación como la inteligencia colectiva y el cerebro global así como de la cosmovisión de la complejidad.
Visión racionalista se soporta sobre la idea de que es posible construir una superinteligencia superior a la humana, como ya vimos en la singularidad tecnolgica, la misma se va construyendo fuera del contexto humano aunque si, en muchos casos en un contexto virtual o digital (la IA se está construyendo en la nube) en este caso la IA nace y crece en un mundo digital, que al final será el destino de la humanidad (la poshumanidad). Esta es la vision predominante y es defendida por Kurzweil, Moravec, Mimsky, entre otros.

Alternativas a la visión racionalista-tecnologista

  • Vision transhumanista. Ante el surgimiento de una super IA, la mejor opción es mejorar a los humanos por medio de las tecnologias. La fusión entre humanos y tecnologias para convertirse en superhumano capaz de enfrenta a la super IA
  • Vision sostenible o bioconservadora. Tener bajo control la construccion de la que no debe pasar de ser una aplicacion (infraestructura) que se subordina totalmente a los humanos y caso de riesgo se debe prohibir.
  • Visión transdisciplinar (de la complejidad). La IA se integra al entorno humano e interactúa de forma colaborativa con las personas de forma abierta, donde tanto humanos como tecnologías deben mejorarse buscando ser cada vez más inteligentes y sabios.
Siempre he dicho que me inclino por la vision transdisciplinar y las diferentes vias que existe para lograr una inteligencia artificial avanzada siendo mi interes el desarrollo de una inteligencia artificial colaborativa que busca la colaboración entre humanos e inteligencias artificiales y que dada su interacción se vayan haciendo más inteligentes donde la IA se construye de forma abierta y es capaz de aprender de la relación con las personas y en la que ambos no solo superan la inteligencia  humana sino que alcanzan juntos la sabiduria, que tanta falta le hace a la humanidad.
Libro recomendado: Inteligencia artificial, el futuro del hombre

miércoles, 9 de enero de 2019

¿Qué es la inteligencia artificial general?

Ben Goertzel uno de los artifices de la inteligencia artificial general




La Inteligencia Artificial General (AGI, en inglés) es un intento de retomar la idea de una inteligencia artificial fuerte  dado los nuevos conceptos que ha ido surgiendo en la actualidad, sobre todo las idea del surgimiento de una superinteligencia artificial y de una posible singularidad tecnológica, siendo Ray Kurzweil el punto de referencia de este movimiento.


Haciendo historia, la Inteligencia Artificial (IA) luego de la euforia de sus primeros años, y ante los fracasos de sus pronósticos, siendo el proyecto de quinta generación japonés, uno de los más connotados, se sumergió en una profunda crisis, al extremo que muchos científicos abandonaron su línea de investigación y otros como Minsky, uno de los padres de la IA junto a Mc Carthy, se mostraba molestó ante la falta de apoyo cada vez mayor que estaba sufriendo las investigaciones en la IA.

En su momento los Sistemas Expertos (SE) se convirtieron en la gran esperanza, aunque no fue muy acogida por los teóricos de la IA (algunos le llamaron los hijos bastardos de la IA) si conto con el apoyo financiero y logístico para su despegue y fueron muchos los que pasaron a engrosar las filas de investigadores de este nueva aplicación. De nuevo las expectativas se fueron por encima de la realidad y nuevamente el sentimiento de fracaso invadió a los científicos.

Parecía cuestión de tiempo, que la IA fuera a pasar a un segundo plano y perdiera su influencia como una de las líneas más promisorias dentro de las tecnologías de la información. Para beneplácito de muchos la IA, al igual que la Cibernética está cogiendo un segundo aire

Serían las ideas de Hans Moravec, Vernor Vinge y sobre todo las de Kurzweil, las que le darían un nuevo impulso a la IA y se retomaría nuevamente la casi olvidada idea de una Inteligencia Artificial Fuerte. Es bueno aclarar que para comprender a la IA hay que verla desde tres enfoques: IA fuerte, IA débil y la IA comercial.

La IA fuerte, como ya dijimos en el artículo anterior, está convencida de que la mente humana se puede reproducir en una computadora, la IA débil, se dedica a desarrollar programas que sean capaces de resolver actividades consideradas inteligentes, y no les preocupa que la máquina, como tal, pueda considerarse inteligente; a la IA comercial solo le interesa aplicar las técnicas de la IA en elaborar sistemas que puedan ser comercializados y no le importa si estos simulan o no la inteligencia.

Podemos decir que muchas técnicas, salidas de los laboratorios de la IA, se están aplicando, hoy, en muchos sistemas que ni siquiera se menciona su relación con la inteligencia artificial.
Es bueno destacar que la inteligencia artificial general toma elementos de la IA fuerte y la IA débil, evitando el excesivo optimismo de algunos defensores de la inteligencia artificial fuerte.

¿Por qué Inteligencia Artificial General?

El objetivo original del campo de IA fue la construcción de “máquinas inteligentes”, es decir, los sistemas informáticos con inteligencia similar a la humana.  Desde hace décadas la mayoría de los investigadores de la IA se han centrado en lo que se ha llamado ” la IA estrecha”,  la producción de sistemas de IA que muestran la inteligencia respecto a las tareas específicas, muy limitados.  Debido a la dificultad de esta tarea, en los últimos años, cada vez más los investigadores han reconocido la necesidad  -y la viabilidad- de volver a los objetivos originales de la IA mediante el tratamiento de la inteligencia en su conjunto. Cada vez más, hay una llamada a hacer frente a los problemas más difíciles de la “inteligencia de nivel humano” y más ampliamente a la inteligencia artificial general (IAG).

La investigación difiere de la investigación en IA ordinaria haciendo hincapié en la versatilidad y la integridad de la inteligencia, y llevando a cabo la práctica de la ingeniería de acuerdo con un esquema de un sistema comparable, en cierto sentido,  a la mente humana (Ver el libro: Inteligecia artificial, el futuro del hombre)

El evento principal donde se discute el tema de una IA general son las conferencias AGI que desempeña un papel importante en este resurgimiento de la investigación en inteligencia artificial en el sentido más profundo del término original de la “inteligencia artificial”. Las conferencias buscan alentar la investigación interdisciplinaria sobre la base de diferentes concepciones de la inteligencia, y la exploración de diferentes enfoques.
Los organizadores se plantean la necesidad de volver a los objetivos originales de la IA, mediante el tratamiento de la inteligencia en su conjunto y hacen un llamado a una transición a hacer frente uno de los problemas más difíciles, la comprensión de la mente humana, y resaltan como diferencia con respecto a la IA convencional, que la inteligencia artificial general hace hincapié en la versatilidad y la integridad de la inteligencia (en franca oposición a los sistemas expertos), y por llevar a cabo la práctica de una ingeniera que siga el esquema de la mente humana.

Un poco de historia

Hoy se habla de inteligencia artificial fuerte (IA fuerte), inteligencia artificial débil (IA débil), super inteligencia artificial (Super IA), inteligencia artificial estrecha (la IA clásica) y la nueva inteligencia artificial general (IA general). Cuando se habla de inteligencia artificial general se hace referencia a una IA de propósito general como una continuidad a la IA clásica (la que fue renombrada como IA estrecha).

Todos vienen del inglés: Strong Artificial Intelligence, Weak Artificial Intelligence, Super Artificial Intelligence, Narrow Artificial Intelligence y Artificial General Intelligence (AGI). Aun no existe un acuerdo sobre la traducción de la AGI, yo prefiero llamarla Inteligencia Artificial general (IA general), otros nombre son inteligencia general artificial o general inteligencia artificial.


En los primeros años de la IA luego del paradigma cibernético con su intento de construir una mente mecánica, le siguió el paradigma cognitivo y la idea de reproducir la mente por medio de algoritmos, ya que la mente no era otra cosa que estados mentales que se procesaban en el cerebro al igual que los programas en una computadora.

Lo cual llevó a muchos investigadores en el campo teórico a pensar que una vez que se descifraran los procesos de la mente era seguro desarrollar los algoritmos que representaban esos procesos, es obvio, ya que la mente lo que hace es manipular símbolos por medios algorítmicos. De ahí surgieron los métodos heurísticos, las reglas de producción, los mecanismos de resolución de problemas, etc.
También surgieron los primeros desacuerdos entre los investigadores quienes no se ponían de acuerdo, en, si esa representación simbólica, se basaba en la lógica (la sintaxis, cálculo de predicados) o en la semántica (estructuras semánticas, guiones). Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrapastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero, métodos a parte, ambos compartían un sueño: descubrir los programas que hacen funcionar la mente.

De todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.
Ahora, para que la máquina tenga todos los algoritmos que conforman la mente, primero, hay que ir descubriendo los mecanismos de la mente, traducirlos en algoritmos para incluirlos en la computadora, así sucesivamente hasta que se haya reproducido totalmente la mente humana, y pueda funcionar en una computadora. Fueron muchos investigadores en esa época, principio de los 50, dieron esto por hecho y afirmaron que en los anos 80s ya existirían máquinas con inteligencia humana, en ese entonces no se hablaba de superar la inteligencia humana, ni de singularidad tecnológica, etc.

Qué es la IA general

Según sus creadores la IA general tiene las siguientes características
  • Hace hincapié en el carácter del uso general de la inteligencia
    • Asume un punto de vista holístico o integral de la inteligencia
    • Cree que ha llegado el tiempo para construir una IA que sea comparable a la inteligencia humana.
Lo que nos acerca a la idea original de la IA que debido a sus tropiezos se fue separando de esos objetivos. Y retoma la idea de una IA fuerte (ver artículo anterior).
La IA general al igual que la llamada IA estrecha, se propone convertirse en una ciencia exacta y define su línea teórica en tres campos
  • Una teoría de la inteligencia,
  • Un modelo formal de la teoría,
  • Una implementación computacional del modelo.
El último punto me recuerda los laboratorios de IA donde se experimentaba con el mundo de bloques.
Hasta el momento, las principales técnicas utilizadas en proyectos IA general incluyen las técnicas de la IA clásica:
• Lógica matemática
• Teoría de la probabilidad (tratamiento de la incertidumbre)
• Sistema de producción (estrategias para las reglas)
• Base de conocimientos (representación del conocimiento)
• Algoritmos de aprendizaje (ahora se ha puesto de moda el aprendizaje profundo)
• Robótica (sistemas de planificación)
• Redes neuronales
• Computación evolutiva (algoritmos genéticos)
• Sistema multi-agente (agentes inteligentes)


La IA general, levanta cierto escepticismo, algunos creen que es más de lo mismo y se preguntan ¿Por qué ahora si? ¿Quién sabe?, tal vez se pueda aprender de los errores anteriores o a lo mejor las condiciones tecnológicas han cambiado tanto, que ahora si es posible.