viernes, 1 de marzo de 2019

Breve recorrido temático por la inteligencia artificial


Heurística

En sus inicios la inteligencia artificial (IA) se fundamentó en las búsquedas heurísticas. Se creía que el hombre resolvía todos los problemas a través de métodos heurísticos y se pensaba que la mente estaba conformada por potentes mecanismos heurísticos capaces de partir de lo general a lo particular tal como sucedía con los algoritmos de computación. Se creía que todos los problemas se podían resolver recorriendo un árbol de objetivos y la solución del problema, consistía en encontrar el camino correcto, desechando todas aquellas vías poco fértiles. La dificultad estaba en cómo desechar esas ramas o caminos improductivos, quién podría garantizar que ese camino después no fuese el más adecuado, hasta qué profundidad había que recorrer el árbol para estar seguro de que esa vía era errónea, cómo evitar, qué producto de la ramificación creciente del árbol, un exceso de combinaciones incalculables (explosión combinatoria). También se elaboraron programas para juegos que van desde los tan complejos como el ajedrez, pasando por el de damas, hasta los más sencillos como el tic tac toe. Este último, dada la velocidad actual de las computadoras es posible resolverlo a través de una exploración exhaustiva.

Entonces, se soñaba con hallar un algoritmo general basado en los principios heurísticos que fuera capaz de resolver cualquier tipo de problema. Ejemplo de ello fue el GPS (solucionador general de problemas) con el cual se podía demostrar cualquier tipo de teorema matemático, pero era incapaz de resolver problemas de carácter elemental que requieran un mínimo de sentido común. Con el tiempo estos resolvedores generales fueron abandonados y se trató de darle solución a problemas más específicos, problemas que dependían de un dominio de aplicación y los cuales se solucionaban a través de los conocimientos que se poseían sobre ese dominio, lo que dio lugar a la explosión de los sistemas basados en conocimientos más conocidos como sistemas expertos, los cuales debido a la estrechez de su dominio en la solución de los problemas, no cumplían con las expectativas de los usuarios. Esto, entre otras cosas, trajo como consecuencia la crisis del paradigma simbolista dentro de la IA lo que originó nuevos paradigmas.

Desde sus comienzos la inteligencia artificial (IA), intentó salirse del esquema cibernético demasiado abarcador y, precisamente, se trazó como línea de investigación, propósitos más concretos, como el de reproducir la inteligencia en una computadora. Quizás por inercia, influidos, aun, por la cibernética, muchos de los investigadores siguieron trabajando en líneas más generales como el demostrador general de problemas (GPS en inglés) o los primeros intentos con las redes neuronales (que no soportaron las críticas de Minsky). Todas estas líneas se fueron abandonadas y sustituidas por investigaciones más concretas, en realidad se quería que la inteligencia artificial (IA) fuera una ciencia exacta, de ahí el uso del aparato matemática y la creación de laboratorios de IA.

En matemática se perfeccionaron los cálculos estadísticos, el análisis del razonamiento, el tratamiento de la incertidumbre, la lógica matemática y una de las líneas más promisorias: la lógica difusa de Zadeh. También se crearon nuevos lenguajes de programación siendo el Lisp (creado por MacCarthy, uno de los padres de la IA) y el Prolog. Pero como decía una ciencia no está completa sino cuenta con modelos experimentales y la IA creó sus propios laboratorios para modelar la inteligencia.

Mundo de bloques

Otro de los intentos de la inteligencia artificial fue tratar de comprender los estados mentales a través de “mundos de juguetes”, producto del desconocimiento existente sobre la naturaleza de la inteligencia y, por otro lado, existía la creencia de que lo aprendido en esos dominios de juguete se podría extender sin dificultades a problemas más complicados pero debido a la complejidad de los problemas del mundo real estos no pueden capturarse en modelos reducidos y por tanto deben plantearse directamente.

El laboratorio consistía en un brazo mecanismo controlado por una computadora y una mesa sobre la que se colocaban varios bloques, para que la computadora realizara diferentes operaciones sobre los bloques, como cogerlo, ponerlo encima de otro, quitarlo, seleccionar entre diferentes figuras: triangulo, cuadrado, etc. Con este ingenioso método se podían simular varias acciones humanas, como el lenguaje natural, ya que la comunicación en muchos casos era por medio del lenguaje natural, permitía el estudio de la planificación de tareas y el uso de agentes inteligentes que cooperaban en la solución, el estudio de la visión por computadoras y la representación de patrones, etc. A pesar de que algunos de forma despectiva le llamaron mundo de juguetes y criticaron sus logros sin tener en cuenta el impacto que han tenido posteriormente, muchas de las investigaciones que allí nacieron.

Sistemas expertos

Además de estas tareas de la vida diaria, mucha gente puede también realizar tareas más especializadas en las cuales es necesaria una cuidadosa adquisición de experiencia. Son tareas como el diseño en ingeniería, los descubrimientos científicos, los diagnósticos médicos y la planificación financiera. Los programas que pueden resolver problemas sobre dominios también están bajo la tutela de la IA. Otro campo importante donde la IA ha tenido éxito es en la simulación de las formas de trabajar, de abordar y de resolver los problemas en aquellas ramas de la actividad humana donde la experiencia y la experticidad juegan un papel predominante, dando lugar a los denominados Sistemas Expertos.

En esta época se magnificaron las potencialidades de las investigaciones y alcances de la Inteligencia Artificial, los innegables avances, el rápido crecimiento de las diferentes ramas que la integran y el avance tecnológico conllevaron a que los investigadores se erigieran en ‘profetas’, y al interpretar los indiscutibles logros de esta nueva ciencia pronosticaran el inminente desarrollo de sistemas INTELIGENTES, capaces de sustituir al hombre no sólo en tareas burdas y repetitivas, sino en el campo del pensamiento, el razonamiento y la creación. Varios de ellos predijeron desde mediados de siglo que a finales del mismo ya existirían máquinas ‘inteligentes’.

Debido a su matiz comercial, los SE no fueron muy bien acogidos por los investigadores puros, pues estos sistemas eran considerados como hijos bastardos de la Inteligencia Artificial. No obstante muchos científicos abandonaron sus laboratorios para ir a desarrollar SE, y dar así origen a lo que muchos llamaron la IA aplicada con objetivos muy definidos: elaborar sistemas que fueran capaces de solucionar problemas propios de un experto para un campo específico.

Todo ello trajo como consecuencia que los SE invadieran el espacio de la informática y numerosas empresas de alta tecnología, mientras los gobiernos de EE.UU. y Japón comenzaron a invertir millonarias sumas en las investigaciones de la IA y miles de aplicaciones se realizaron y actualmente se utilizan.En la década de los 80, se pensaba que la humanidad se encontraba “…ante un reto de imprevisibles consecuencias”, pues se avecinaban cambios que trastocarían muchos paradigmas que rigen el mundo. Los investigadores de la Inteligencia Artificial se hacían preguntas como:
  • ¿Qué será de los matemáticos cuando los Sistemas Expertos sean capaces de deducir todos los teoremas que se deriven de una cierta axiomática?
  • ¿Qué harán los abogados cuando haya una herramienta capaz de preguntar a sus clientes y de darles consejo sin posibilidad de error y utilizando toda la legislación y jurisprudencia?
  • ¿Qué será de los médicos cuando existan bases del saber capaces de almacenar los conocimientos y la experiencia de cientos de especialistas en una materia?.
En octubre de 1981 se sentaron las bases para el desarrollo de las computadoras de 5ta generación en una conferencia Internacional en Tokio, Japón. En este proyecto se adoptó el lenguaje PROLOG como lenguaje fundamental que sería soportado por el hardware a construir.

Inteligencia artificial fuerte y débil

En los primeros años de la IA luego del paradigma cibernético con su intento de construir una mente mecánica, le siguió el paradigma cognitivo y la idea de reproducir la mente por medio de algoritmos, ya que la mente no era otra cosa que estados mentales que se procesaban en el cerebro al igual que los programas en una computadora. Lo cual llevó a muchos investigadores en el campo teórico a pensar que una vez que se descifraran los procesos de la mente era seguro desarrollar los algoritmos que representaban esos procesos, es obvio, ya que la mente lo que hace es manipular símbolos por medios algorítmicos. De ahí surgieron los métodos heurísticos, las reglas de producción, los mecanismos de resolución de problemas, etc.

También surgieron los primeros desacuerdos entre los investigadores quienes no se ponían de acuerdo, en, si esa representación simbólica, se basaba en la lógica (la sintaxis, cálculo de predicados) o en la semántica (estructuras semánticas, guiones). Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrapastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero, métodos a parte, ambos compartían un sueño: descubrir los programas que hacen funcionar la mente.

De todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.
Ahora, para que la máquina tenga todos los algoritmos que conforman la mente, primero, hay que ir descubriendo los mecanismos de la mente, traducirlos en algoritmos para incluirlos en la computadora, así sucesivamente hasta que se haya reproducido totalmente la mente humana, y pueda funcionar en una computadora. Fueron muchos investigadores en esa época, principio de los 50, dieron esto por hecho y afirmaron que en los anos 80s ya existirían máquinas con inteligencia humana, en ese entonces no se hablaba de superar la inteligencia humana, ni de singularidad tecnológica, etc.
La idea de una IA fuerte ha sido el sueño de casi todos los investigadores de ese campo. Sostiene que todas las operaciones mentales son manifestaciones sofisticadas de complicados procesos computacionales, y que es irrelevante si tales procesos son llevados a cabo por un sujeto humano, un objeto físico o un dispositivo electrónico. Por lo que acepta que la mente humana puede ser reproducida o copiada para otro medio, el cerebro se considera un soporte más.

En cambio para la IA débil (menos radical que la anterior, y también más extendida desde el fracaso del enfoque idealista de los primeros años) computación no supone consciencia, y la simulación artificial de actividades mentales en ningún caso da origen a fenómenos mentales como dolor, reconocimiento, entendimiento o intencionalidad. No obstante se acepta la posibilidad de una simulación de la mente que suponga identidad funcional, aunque nunca identidad estructural.
La IA débil considera que la mente funciona diferente a los sistemas de computación y solo aspiran a desarrollar sistemas informáticos que tenga un comportamiento tan inteligente como el del ser humano. Se acepta la creación de un algoritmo suficientemente complejo que podría ser codificado a través de un programa computacional y controlar un robot de la misma forma que lo haría un ser humano.

¿Podrá la máquina superar la inteligencia humana? La idea está ligada al desarrollo de la Inteligencia Artificial y su sueño de reproducir la mente humana en una computadora. Puede parecer absurdo, pero si partimos de la metáfora, aceptada por todos los investigadores de la IA, que tanto el cerebro, que contiene la mente, como el hardware, que contiene los programas; se basan en el procesamiento de la información. Por lo que la mente no es otra cosa que algoritmos altamente complejos que pueden ser codificados en forma de programas.

Los defensores de la IA fuerte están convencidos de que se podrán reproducir todas las capacidades humanas, incluyendo la consciencia en una máquina. Y aunque esta idea ha ido variando con el tiempo, no ha cambiado en su esencia.

Nuevos enfoques de la IA

.Actualmente, la ciencia deja de encerrarse en sí misma y se fija en lo que le rodea, comprende que la mejor manera de entender cómo funciona algo en un ser humano es entenderlo primero en los animales más simples. Es así que la ciencia descubre las propiedades emergentes de la inteligencia, como resultado de la interacción compleja de sencillos elementos y emula con los procesos genéticos evolutivos en la búsqueda de mejores soluciones a problemas realmente complejos.

Luego del fracaso en los 80s del paradigma simbólico, basado en los métodos heurísticos, los sistemas basados en conocimientos. Se necesitaba de nuevos enfoques de ahí que se retomaran
Nuevas tendencias en la IA:
  • Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus conexiones en lugar de los algoritmos de la mente.
  • Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes agentes (con conocimientos parciales) que al integrarse logran resolver problemas complejos en lugar de grandes bases de conocimientos cerradas.
  • Máquinas superinteligentes: Se cifra la esperanza en el hardware, máquinas cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software.
  • Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos.
  • Robots reactivos, se desarrollan pequeños robots capaces de interactuar con en el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma manual, de ahí que recibieran el mote de sistemas autistas.
La IA durante sus primeros años se mantuvo fiel al paradigma simbolista, el cual a su vez se dividía en dos grupo, los que se apoyaban en la lógica para la representación de los conocimientos, un ejemplo de ello el lenguaje Prolog y los que se apoyaban en la semántica y buscaban representar los conocimientos a través de estructuras semánticas como guiones, marcos (frames), redes semánticas, etc. Pero ambos se basaban en la presentación de los estados mentales en forma de algoritmos. Con el tiempo surgió un nuevo paradigma: el conexionista el cual más que representar los estados mentales buscaba la representación de las conexiones que se establecen entre las diferentes de una organismo, ya sean neuronas (redes neuronales), agentes (agentes inteligentes), genes (algoritmos genéticos) y como de estas conexiones se genera un accionar inteligente.

Hoy en día el enfoque más prometedor parece ser en de las redes neuronales, el cual está siendo adoptado actualmente por Google, en su aspiración de crear una inteligencia artificial. Las redes neuronales a diferencia de los sistemas simbolistas que obligaba a describir todo el conocimiento humano en forma de reglas, lo cual obligaba a tener en cuenta toda la experiencia humana, tarea imposible. Las redes neuronales permiten crear un núcleo de conexiones, que esta puedan sobre su propia experiencia ir ampliándose, similar a como funciona el cerebro.

Otro de los problemas era el aprendizaje automático, como lograr que la maquina fuera aprendiendo por sí misma, si era un sistema que estaba aislado de la realidad y había que estar suministrándole los datos del mundo exterior, era necesario que las máquinas estuvieran interactuando con el mundo real, lo cual llevo a un retorno a la cibernética y sus ciberanimalitos. Hoy Rodney Brooks, investigador del MIT, tiene deambulando por su oficina pequeñas arañas cibernéticas, cuyo único objetivo es aprender a desplazarse por el laboratorio.

En estos tiempos se ha puesto de moda el concepto de aprendizaje profundo, el cual consiste en comprender y profundizar sobre los conocimientos propios y obtener nuevos conocimientos. Lo cual requiere de la ya mencionada interacción con el mundo, un sistema aislado como se pretendía con los sistemas expertos, es imposible que aprenda por sí mismo. La forma más utilizada ha sido, desde la cibernética hasta nuestros tiempos, el uso de pequeños robots con uno conocimientos mininos, pero que sus “cerebro electrónico” sea capaz de crear nuevas conexiones y nuevas interpretaciones de la realidad, la otra seria un sistema (software) que este en interacción con el medio, el caso del buscador de Google, que esta interactuando con los usuarios y puede aprender de ello, por eso no es de extrañar que Google este apostando al aprendizaje profundo y realizan enormes inversiones. Lo interesante en Google, es que esta combinando las ideas de las redes neuronales con las del aprendizaje profundo y para ello ha contratado a varios expertos en las dos ramas los que tiene trabajando en la creación de un buscador inteligente, lo que justifica porque el desinterés de Google en la web semántica, evidentemente su proyecto es otro.

Inteligencia artificial distribuida

En la Inteligencia Artificial Distribuida (IAD) se estudia la solución cooperativa de problemas por un grupo de agentes distribuidos. Tal cooperación se basa en que ninguno posee la información (experticidad, recursos, etc.) para resolver completamente el problema y donde un agente tiene como característica la de ser una entidad más o menos autónoma, con conocimientos propios y de su entorno así como con la posibilidad de interactuar con dicho entorno y otros agentes. A diferencia de los sistemas expertos, llamados por muchos “sistemas autistas” estas nuevas investigaciones se ocupan de que los mismos sean capaces de interactuar con el entorno o lo que es lo mismo que sean abiertos y flexibles.

Por otra parte, los agentes inteligentes se perfilan como una de las aplicaciones de la IA más prometedoras debido a su estrecha relación con Internet (la tercera revolución de la informática). Sin crear falsas expectativas, debemos recordar los sistemas expertos y los agentes inteligentes dadas las ventajas que representan para el acceso a las redes. Ellos están llamados a cambiar nuestra forma de trabajo al permitir a los usuarios moverse en ambientes más cómodos y amistosos.

Inteligencia artificial general

El objetivo original del campo de IA fue la construcción de “máquinas inteligentes”, es decir, los sistemas informáticos con inteligencia similar a la humana.  Desde hace décadas la mayoría de los investigadores de la IA se han centrado en lo que se ha llamado ” la IA estrecha”,  la producción de sistemas de IA que muestran la inteligencia respecto a las tareas específicas, muy limitados.  Debido a la dificultad de esta tarea, en los últimos años, cada vez más los investigadores han reconocido la necesidad  -y la viabilidad- de volver a los objetivos originales de la IA mediante el tratamiento de la inteligencia en su conjunto. Cada vez más, hay una llamada a hacer frente a los problemas más difíciles de la “inteligencia de nivel humano” y más ampliamente a la inteligencia artificial general (IAG). La investigación difiere de la investigación en IA ordinaria haciendo hincapié en la versatilidad y la integridad de la inteligencia, y llevando a cabo la práctica de la ingeniería de acuerdo con un esquema de un sistema comparable, en cierto sentido,  a la mente humana.
¿Qué es la inteligencia artificial general (IA general)?

Según sus creadores la IA general tiene las siguientes características
  • Hace hincapié en el carácter del uso general de la inteligencia
  • Asume un punto de vista holístico o integral de la inteligencia
  • Cree que ha llegado el tiempo para construir una IA que sea comparable a la inteligencia humana.
Lo que nos acerca a la idea original de la IA que debido a sus tropiezos se fue separando de esos objetivos. Y retoma la idea de una IA fuerte
La IA general al igual que la llamada IA estrecha, se propone convertirse en una ciencia exacta y define su línea teorice en tres campos
  • Una teoría de la inteligencia,
  • Un modelo formal de la teoría,
  • Una implementación computacional del modelo.
El último punto me recuerda los laboratorios de IA donde se experimentaba con el mundo de bloques.
Hasta el momento, las principales técnicas utilizadas en proyectos IA general incluyen las técnicas de la IA clásica:
  • Lógica matemáticaTeoría de la probabilidad (tratamiento de la incertidumbre)
  • Sistema de producción (estrategias para las reglas)
  • Base de conocimientos (representación del conocimiento)
  • Algoritmos de aprendizaje (ahora se ha puesto de moda el aprendizaje profundo)
  • Robótica (sistemas de planificación)
  • Redes neuronales
  • Computación evolutiva (algoritmos genéticos)
  • Sistema multi-agente (agentes inteligentes)
La IA general, levanta cierto escepticismo, algunos creen que es más de lo mismo y se preguntan ¿Por qué ahora si? ¿Quién sabe?, tal vez se pueda aprender de los errores anteriores o a lo mejor las condiciones tecnológicas han cambiado tanto, que ahora si es posible..

Máquinas inteligentes

Mientras la Inteligencia Artificial se desangra en pugnas internas y en definir qué es y que no es Inteligencia Artificial, en la computación convencional el hardware marcha a paso acelerado en la construcción de máquinas cada vez más rápidas, con más memoria y más posibilidades de cálculos simbólicos, que se pronostica alcanzará la creación de máquinas inteligentes a corto plazo sin necesidad de la Inteligencia Artificial.

Si partimos del hecho que las máquinas son cada vez más veloces, piensen en las primeras computadoras que no alcanzaban los 10 Megahertzios (Mhz) a las actuales que ya sobrepasan los 3 Gigahertzios y no se vislumbra ningún límite para que esta velocidad no siga aumentando. Con la obtención de máquinas superveloces, estas podrán efectuar un billón de operaciones por segundos, con lo cual según Moravec estarán en condiciones de alcanzar el nivel de la inteligencia humana. Aun más, teniendo en cuenta que el cerebro humano trabaja a una frecuencia de 100 hertzios o ciclos por segundo y que no se vislumbra una cota que limite la velocidad de procesamiento de la computadora basada en un hardware cada vez más sofisticado, con mayor capacidad de memoria, varios procesadores centrales (la materia gris de la máquina), mayor velocidad de acceso a los periféricos; parece posible, incluso, que la máquina pueda superar al hombre.

Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguientes conceptos:
  • La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
  • La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
  • La máquinas se irán auto construyéndose a sí misma cada vez más perfeccionadas, más veloces, con más memoria, dotadas de mejores algoritmos, podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos.
  • La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.
¿Hay alguna razón que nos pueda llevar a pensar que será así?

Hoy la maquina supera al campeón del mundo en ajedrez, no sería esto razón suficiente. Sin embargo la maquina no utiliza la misma forma de pensar que el humano, su fuerza se basa en su velocidad de calculo que le permite explorar de forma casi exhaustiva todas las variantes, además, por supuesto, de contar con valoraciones estratégicas, pero lo que la hace invencible es su velocidad para calcular las variantes, lo que se llama algoritmo de fuerza bruta. Pero, esto apoya la tesis que según las maquinas mejoren su hardware obtendrán resultados mejores así, hasta superar a los humanos en todas sus facetas.

¿Será posible que las maquinas sean más inteligentes que los humanos sin tener conciencia de sí misma?

Los programas de ajedrez son una demostración palpable de lo que podría llamarse una inteligencia basada en la fuerza bruta, dado que su método consiste en la velocidad de cálculo, lo cual le permite buscar en grandes espacios y procesar una cantidad enorme de información, velocidad de procesamiento que supera ampliamente la del cerebro humano. Muchos creen que la rapidez creciente en el cálculo de las computadoras, que no parece tener límites, debe conducir al surgimiento de las llamadas máquinas inteligentes, afirmación sustentada en que las computadoras al poder valorar más variantes de un problema, ya sea el juego de ajedrez, un cálculo de ingeniería, un diseño industrial o un diagnóstico mecánico, será capaz de alcanzar soluciones más rápidas y eficientes, relegando la de los humanos a un segundo plano. Este argumento se fundamenta en el auge acelerado que se evidencia en el hardware de las computadoras, mientras subestima el desarrollo del software e ignora las posibilidades del cerebro.

Para muchos es preocupante que los aciertos de la IA surjan de métodos tan simples como búsqueda por fuerza bruta, y que la contribución más importante para el avance de la IA haya sido la Ley de Moore y los aumentos implacables en la velocidad de la computadora,

Superinteligencia artificial

Podemos preguntarnos si es posible el surgimiento de una inteligencia superior a la humana, comenzaremos por la definición de Singularidad tecnológica: “Es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia sobrehumana, cambiando nuestro entorno de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir”. De lo que se desprende que para que se produzca ese progreso tecnológico acelerado que se nos escapa de las manos y somos incapaces de predecir una vez que se desencadeno, es el surgimiento de una inteligencia superior a la humana.

Siguiendo a Vinge, el primero en usar el término singularidad tecnológica, esta inteligencia artificial superior a la humana se puede lograr por cuatro vías: superinteligencia artificial (cuando las máquinas se hacen más inteligentes que los humanos), superinteligencia hibrida (cuando los humanos y las máquinas se funden en un Cyborg), superinteligencia global (cuando humanos y máquinas por medios de internet interactúan y crean una inteligencia colectiva o cerebro global) y la superinteligencia biológica (donde se mejora la inteligencia a través de la manipulación genética). Siendo la superinteligencia artificial la más defendida por los teóricos de la singularidad.
Aunque la superinteligencia artificial parecía la más lejana de las cuatro dado el estado del arte de las investigaciones en inteligencia artificial y el sueño de una inteligencia artificial parecía abandonado, los denodados esfuerzos de Ray Kurzweil, la han puesto de nuevo de moda y prueba de ello son la creación de la Universidad de la Singularidad por el propio Kurzweil y su ingreso en Google como directivo para el desarrollo de la IA. Ya el hecho de que Google se haya tomado en serio las ideas de Kurzweil, demuestra que la transnacional está convencida de la posibilidad de alcanzar una superinteligencia artificial y por lo tanto la aceptación del surgimiento de una singularidad tecnológica y el ideal de una inteligencia artificial capaz de autoprogramarse, de aprender por sí misma y en un futuro ser autoconsciente.

Imagen: Terabito