lunes, 27 de octubre de 2014

El desafío de la inteligencia artificial (2)

Hoy el temor se centra en una inteligencia artificial capaz de superar a los humanos y los peligros que esto conlleva.

 

SuperIAAhora la pregunta es, si surgirá una inteligencia artificial (IA) superior a la inteligencia humana. ¿Ya está la IA madura como por fin lograr la ansiada inteligencia artificial que iguale o supere a los humanos? Y surge otra pregunta tendrá consciencia esa superinteligencia?
Cuando hablamos de una superinteligencia artificial está implícito que tendrá una consciencia, no concebimos la inteligencia separada de la consciencia. Aunque yo no creo que tenga porque ser así. Y este es otro punto de vista, ¿se necesitara construirle una consciencia a las máquinas? ¿O esta emergerá por si misma?
Los argumentos para la creación de una IA han ido cambiando a lo largo del tiempo, al igual que las expectativas.

El paradigma simbolista

A finales de los 50, después de la arremetida contra la cibernética, surge la inteligencia artificial, como una ciencia en sí misma, basada en la idea de construir programas capaces de emular con la inteligencia humana. Entonces, se consideraba que la mente estaba compuesta por complejos algoritmos y que el cerebro era centro donde se procesaba la información, por lo que las investigaciones se orientaran a descifrar los programas que conforman los estados mentales o sea describir los conceptos en forma algorítmica. Para ello se desarrollaron nuevos programas basados en la lógica y la semántica del pensamiento humano. El paradigma simbólico o simbolista.

No podían faltar las predicciones, y muchos investigadores, a principio de los 60, afirmaron que en los años 80 se habría alcanzado una inteligencia artificial que no se diferenciaría de la humana. Demás esta decir que eso nunca se logró. Pero las esperanzas no se perdieron y en los 70 surgió una de las aplicaciones que mas expectativa despertó en la comunidad de IA: los sistemas expertos, los cual crearon una fiebre parecida a la del oro, y muchas empresas se lanzarón al desarrollo de sistemas expertos con fines comerciales. Pero, el proyecto más interesante, fue el proyecto japonés de quinta generación, con el cual esperaban construir una tecnología, soportada sobre el lenguaje prolog, capaz de manipular conceptos como lo hace la mente humana, una máquina basada en inferencia por segundos . Todos estos proyecto fracasaron y en los años 90, la decepción no se hizo esperar. Los investigadores de la IA se dieron cuenta que algo estaba mal.

El paradigma conexionista

Las críticas sobre el paradigma simbolista fueron en exceso duras y fueron muchos los que lo abandonaron, incluido el sueño de hacerse rico con los sistemas expertos. Ya nadie creía en una heurística general que resolviera todos los problemas, ni en encontrar una representación algorítmica adecuada a la resolución de problemas, tampoco el aprendizaje automático rendía los frutos esperados, y los sistemas expertos se hacía demasiado costosos debido a la necesidad de estar actualizando constantemente su base de conocimientos, dado su falta de contacto con el entorno (alguien los llamo sistemas autistas). Por lo que se abandonó la simulación por medio de símbolos y algoritmos de la mente de la mente por la simulación de las conexiones del cerebro, entre otros métodos conexionistas como los algoritmos genéticos, los agentes inteligentes, etc.
Ahora en lugar de buscar la representación del conocimiento humano (Ver Conocer de Francisco Valera) se buscaba la representación de elementos no inteligentes (neuronas, agentes, genes) que son capaces de ir conectados entre si para darle solución a un problema. Conexiones que se van almacenando como un aprendizaje. Esta flexibilidad permite que estos sistemas no dependan de una ingeniero de conocimientos que los este alimentando constantemente, además rompen con el esquema secuencial de paradigma simbólico que obliga a contar con una máquina de inferencia que vaya ejecutando las reglas, ahora estos entes (neuronas, agentes, genes) son se capaces de conectarse entre si y de ajustarse al problema e ir guardando su experiencia.

Siendo las redes neuronales en las que más se está trabajando. Pero surgía un nuevo problema, como simular las conexiones del cerebro en una computadora que no alcanza la velocidad de procesamiento del cerebro. Aquí surge Moravec, de quien ya hablamos, quien hace una comparación entre la velocidad de procesamiento del cerebro y la velocidad de procesamiento de la máquina, Moravec y el fin de la especie humana, y según Moravec, para el 2020 se alcanzara la equivalencia entre el cerebro humano y la máquina.

La explosión de inteligencia

Lo anterior ha ido conduciendo a un nuevo enfoque de la IA, lo cual ha divido a los investigadores de IA en dos grupos, los que defienden la explosión de la inteligencia (cuando las maquinas superan e igualan al humano) por medio del software (los programas) y los que creen en la velocidad del hardware. Y ante la dificultad que han venido desarrollando la programación de una IA tanto desde el paradigma simbolista como el conexionista, muchos investigadores se inclinan por la velocidad del hardware, y con ello la idea de construir máquinas cada vez más potentes y que en un futuro próximo (después del 2020) serán capaces de igualar la velocidad de procesamiento de información del cerebro, basándose en la inteligencia artificial fuerte. En realidad, el proyecto de crear una superinteligencia consiste en que una vez que las máquinas alcancen la inteligencia humana, ellas sean capaces de construirse a si mismas cada vez mejores
En cambio los defensores de una explosión de inteligencia por medio del software, son más moderados (con excepción de Minsky y de Google que a ratos parecen contradecirse) y no están dispuestos a seguir arriesgándose públicamente, a pesar del las aplicaciones que se han logrado por medio de las redes neuronales en los últimos tiempos.

Viabilidad de la inteligencia artificial (IA)

En el artículo anterior habíamos visto la viabilidad de una inteligencia artificial ya que para muchos esa será la forma más rápida de alcanzar la inteligencia artificial. Hoy la máquina supera al campeón del mundo en ajedrez, no sería esto razón suficiente. Sin embargo, ya hemos visto que la máquina no utiliza la misma forma de pensar que el humano, su fuerza se basa en su velocidad de cálculo que le permite explorar de forma casi exhaustiva todas las variantes, además, por supuesto, de contar con valoraciones estratégicas, pero lo que la hace invencible es su velocidad para calcular las variantes, el algoritmo de fuerza bruta. Pero, esto apoya la tesis que según las máquinas mejoren su hardware obtendrán resultados mejores así, hasta superar a los humanos en todas sus facetas.

A diferencia de los padres de la Inteligencia Artificial, que pensaban que la mente podía ser representada por medio de algoritmos y que esta podía ser programada totalmente en una computadora. Creen que las maquinas dado el progreso acelerado de la potencia de su hardware despertarán en algún momento como una inteligencia, esto nos lleva al concepto de emergencia basado en que las máquinas serán cada vez más veloces, tendrán más memoria y que esto emergerá en una nueva inteligencia. El mismo concepto se aplica para Internet, donde las conexiones entre humanos y maquinas se comportaran como neuronas dentro de una gran red, por lo que en cualquier momento de ellas emergerá una inteligencia (cerebro global).

Personalmente me deja cierta preocupación que los aciertos de la IA surjan de métodos tan simples como búsqueda por fuerza bruta, y que la contribución más importante para el avance de la IA haya sido la Ley de Moore y los aumentos implacables en la velocidad de la computadora.

En cambio los investigadores de IA, siguen creyendo que, aunque pueda tomar décadas para aclarar todos los detalles, no hay nada adicional subyacente en el pensamiento: es solo tratamiento de la información. Y siguen aferrados a la metáfora de que el cerebro es equivalente al hardware de una computadora, por lo que es totalmente factible transferir la mente de un soporte (el cerebro) a otro (la máquina).

Hay quienes afirman que la idea de crear una inteligencia artificial partiendo de cero, resulta una tarea casi imposible, en cambio, parece más lógico aprovechar la creación de la naturaleza y trabajar sobre ella. Parece obvio. ¿Por qué no aprovechar el camino recorrido por la inteligencia humana en lugar de crear una nueva? Son muchos los que piensan así y prefieren trabajar en aras de una superinteligencia híbrida donde se combine lo mejor de los humanos con lo mejor de las máquinas.

En general los teóricos del la singularidad definen la superinteligencia: como cualquier forma de inteligencia artificial basada en la capacidad del sistema de autoaprendizaje. Estas redes neuronales artificiales serían capaces de superar a los mejores cerebros humanos en prácticamente cualquier disciplina, incluyendo creatividad científica; sentido común, y habilidades sociales. Muchos científicos han presentado el argumento de que tanto el hardware necesario como el software requerido para la superinteligencia serán desarrollados en las primeras décadas del siglo XXI (Inteligencia artificial, el futuro del hombre).

Veamos los presupuestos que se tienen en cuenta para lograr una explosión de inteligencia basada en el hardware:
• La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
• La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
• Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos.
• La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

Ahora mencionemos las ventajas que tendrá el surgimiento de la IA. Moravec, destaca las siguientes:
• Aumentar la velocidad de cálculo
• Extender la vida
• Vivir en un espacio reducido; en una computadora
• Viajar a la velocidad de la luz
• Incrementar los conocimientos; podrían aumentar su memoria, agregar nuevos sentidos, etc.
• Aprender y comunicarse directamente; comunicación directa mente a mente.

Riesgos de la IA

Hoy son varios los escenarios que pone en peligro a la raza humana entre los que se destacan, la degradación del planeta y el desarrollo acelerado de las tecnologías, que cada vez responde menos al desarrollo humano, y parece escapar a todo control. Siendo la aceleración tecnológica representa un mayor peligro que el deterior del planeta.

El director del instituto, el filósofo sueco Nick Bostrom, en el documento Riesgo existencial como prioridad global, argumenta que los dirigentes internacionales tienen que prestarle mucha atención a una serie de amenazas y advierte: “lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad”. A lo que insiste “Son amenazas sobre las que no tenemos historial de supervivencia”. Y agrega: “Estamos al nivel de los niños en términos de responsabilidad moral, pero con la capacidad tecnológica de adultos”.

Señalemos algunos de los riesgos existenciales:
• Inteligencia artificial mal programada.
• Mal uso de la nanotecnología.
• Mala utilización de la biotecnología.
• Uso generalizado de las prótesis (convirtiéndose en un robot)
• Tecnologías autónomas que se escapan de las manos (máquinas que se auto construyen a si mismas)

Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una “explosión de inteligencia” en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable. “La inteligencia artificial es una de las tecnologías que pone más y más poder en paquetes más y más pequeños”, dice, quien antes trabajó en Google. “Así como con la biotecnología y la nanotecnología, se pueden hacer cosas que resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender proyectos que pueden afectar a todo el mundo”.

El progreso tecnológico ha ido pasando de las herramientas, las máquinas manejadas por el hombre, a las máquinas autónomas cada vez más inteligentes (según avancen las técnicas de inteligencia artificial) que irán inevitablemente formando parte de la vida social de los humanos, ya no como herramientas o máquinas (automóviles, computadoras, grúas, etc.) sino como máquinas superinteligentes capaces de tomar decisiones junto a los humanos. Ahora, la pregunta es: ¿estamos preparado para ese futuro?

Hasta ahora estamos apostando por el progreso tecnológico y se ha ignorado el progreso humano, de ahí las consecuencias que se vislumbran hacia una tecnología fuera de control. Podemos afirma que vamos a ciegas hacia el futuro y resulta significativo que un pionero de la ideología transhumanista, como Nick Bostrom, comience a preocuparse de las consecuencias imprevista de la aplicación sin control de las tecnologías.

Como he dicho en otras ocasiones, el problema no es de si podemos controlar a la IA sino de cuáles son nuestros intereses y cuales nuestros ideales, pienso que el verdadero problema está más en nuestra propia mentalidad y en lo que esperamos de las máquinas, ya que estas se insertarán en nuestro contexto; o como un colaborador, si somos capaces de serlo; o en un competidor, si seguimos enfrentándonos los unos a los otros. Tampoco creo que los expertos desde sus centros de investigación puedan encontrar los mejores resultados, los problemas nunca se han podido resolver con propuestas, y sobre todo si estas no van a la causa de los problemas: nuestra mentalidad individualista, consumista, competitiva y hegemónica, que nos lleva a vivir en constante enfrentamiento. Ahora, ¿quien le pone el cascabel al gato? Los problemas siguen “vivitos y coleando”, y como solución se propone una tecno-utopía, donde las tecnologías vendrán a resolver todos los problemas como por arte de magia, ya no hay que preocuparse del medio ambiente, de la contaminación, de los enfrentamientos, de la pobreza… Por supuesto que este super-optimismo no convence a casi nadie, pero se está convirtiendo en una esperanza en un mundo carente de grandes ideales y donde el consumismo y el TENER (en lugar del SER) se han convertido en la primera premisa de la humanidad.

viernes, 24 de octubre de 2014

El desafío de la inteligencia artificial (1)

418El desarrollo de la inteligencia artificial puede ser el mayor logro de la humanidad… Pero también el último.
Stephen Hawking

La idea de un mundo fuera de control donde surge una inteligencia superior a los humanos e independiente de los intereses humanos al estilo Moravec, sin dudas, es demasiado peligrosa (por no decir descabellada). Ahora dado el desarrollo acelerado de las tecnologías, estas nos van a superar en muchos aspectos (conscientes o no) por lo que algunos ven como única solución una fusión entre humanos y tecnologías (Cyborg).

Y es que todo indica que la aceleración de las tecnologías y su propio progreso, nos llevara a una simbiosis entre humanos y tecnologías, siendo la singularidad la simbiosis menos favorable ya que el ser humano se hace dependiente de las tecnologías (para algunos esto es lo mejor que nos puede pasar). Para comprender las ideas de Kurzweil más moderadas hay que comprender las ideas más radicales de Hans Moravec.
Moravec es el más fervoroso defensor de la era de los robots quienes serán los herederos del planeta. Considera el fin de la especie humana como inevitable debido a causas naturales: volcanes, epidemias, choque con meteoritos, etc., y considera que la solución es acelerar la extinción de los humanos y el surgimiento de una nueva especie producto de una evolución artificial: los robots.

A diferencia de Vinge quien acepta que la singularidad puede no suceder, Moravec esta convencido que las máquinas superaran a los humanos y los deslazarán de su lugar predominante. Al igual que Vinge se basa en el crecimiento acelerado de las máquinas en su evolución que, en poco tiempo, han alcanzado resultados que a los humanos les ha llevado siglos de evolución.

Moravec se fundamenta en la velocidad de las máquinas o sea en las operaciones o instrucciones por segundo que esta realiza, las cuales han ido aumentando desde 1971 que solo alcanzaban las 1000 instrucciones por segundo (1 MIPS) pasando por 10 y 100 MIPS en los 90s hasta llegar a más de las 1000 MIPS en la época actual y partiendo de ese crecimiento acelerado Moravec asume que alrededor del 2020 las máquinas habrán alcanzado los 100 millones de MIPS, que según sus cálculos basados en la metáfora del cerebro como procesador de información, para entonces, se logrará alcanzar la capacidad del cerebro humano y a partir de este momento, los humanos inevitablemente serán superados por las máquinas.

Al igual que Vinge, asume que será el mejoramiento del hardware la vía más directa para alcanzar la inteligencia artificial y que una vez que se superen las operaciones por segundo que realiza el cerebro, las máquinas “emergerán” como una superinteligencia”. Lo cual se asume por analogía con la humanidad, la que en un punto dado de su evolución “emergió como un ser inteligente”, de lo que se desprende que las máquinas también evolucionaran por una vía artificial hasta llegar a suplantar a los humanos.

Moravec, encuentra una justificación para sus ideas al considerar a los robots como una continuación de nosotros mismos y no significaran una extinción más de lo que una nueva generación de niños provoca la extinción de la generación que le precedió. Y afirma que los ellos serán “nuestros hijos mentales”.
Y va más allá cuando dice que las máquinas no se quedaran en un mero interés también, serán capaces reconstruirnos átomo a átomo y crear nuevos modelos de civilizaciones humanos. Afirmación que nos lleva que la humanidad es una simulación diseñada por las maquinas (nuestros hijos mentales). Moravec cree que pueden existir muchas versiones de humanos viviendo en mundos artificiales.

Para Moravec la raza humana esta seguramente extinta y lo que vivimos es una simulación. ¿Entonces? Regresamos a la religión y a la idea de un dios perfecto que crea un mundo imperfecto. Como es posible que esas máquinas perfectas hayan creado un mundo tan imperfecto del que se queja Moravec cuando dice:
“La forma humana no está diseñada para ser un “científico”, dice. Nuestra capacidad mental es extremadamente limitada. Tienes que padecer todo tipo de entrenamientos “no naturales” para lograr un cerebro medianamente adecuado para este tipo de trabajo… Vives apenas lo suficiente para comenzar a comprender las cosas antes de tu cerebro empiece a deteriorarse. Y entonces, te mueres.”

Moravec es un nuevo mesías que está convencido de la superioridad de las máquinas y que ese es el único futuro posible y ve a la tecnología como la forma de transformar al ser humano en algo más grandioso y cree que la grandeza y el poder de su destino excede todo los límites, por lo que afirma que su propósito es empujar las cosas hacia ese destino. La conclusión es sencilla; la especie humana ya se agotó y su final es inevitable y con ello el fin de todas las especies las cuales serán sustituidas por entidades artificiales que dará inicio a un nuevo progreso: el progreso tecnológico, en el que no hay lugar para los humanos.

 La característica central de este siglo ha sido la aceleración del progreso tecnológico. Estamos al borde de un cambio comparable a la aparición de la vida humana sobre la Tierra. La causa exacta de este cambio es la creación inminente de entidades de inteligencia mayor que la humana.

La idea de una sigungularidad de Vernor Vinge la sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicara cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado lo cual conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un grafico elaborado por Hans Moravec la paridad entre el hardware y el cerebro se alcanzara alrededor del 2020 lo cual dará lugar a las máquinas superinteligentes.

Se esta hablando del surgimiento de una superinteligencia artificial superior a la inteligencia humana, dado el crecimiento veloz que tiene el hardware y no en el desarrollo de programas que emularan la inteligencia humana como se pretendía en los primeros años de la Inteligencia artificial. Además, se parte de una inteligencia artificial fuerte que asume que la consciencia es codificable (consideran que los estados mentales son algoritmos altamente complejos).

Vinge define una máquina superinteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de este y está convencido que esa inteligencia superior será la que impulsara el progreso y este será mucho más rápido e incluso superará a la actual evolución natural, por lo que aparecerán problemas miles de veces más deprisa que la selección natural y afirma que estaremos entrando a un régimen radicalmente diferente de nuestro pasado humano, y a ese evento al que le da el nombre de singularidad tecnológica.

Postulados para el surgimiento de una superinteligencia artificial

Un primer postulado es que se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la máquina pueda analizar exhaustivamente todas las posibles soluciones. Este es el caso de muchos juegos, tales como las damas, el ajedrez, etc., aquí la inteligencia de la máquina se basa en su velocidad para calcular las variantes, lo cual le permite prever los que puede suceder en el tablero.

Un segundo postulado, es la emergencia, la cual asume, que debido a la velocidad en el procesamiento de la información de la máquina, llegará un momento, que podrá manipular una gran cantidad de información y dada su complejidad podría, también, despertar como una inteligencia.

Un tercer postulado es que las máquinas al alcanzar cierta inteligencia serán capaces Aunque Vinge hace hincapié en el surgimiento de una inteligencia artificial que por el desarrollo del hardware es capaz de superar a los humanos, también plantea otras vías para alcanzar una superinteligencia superior a la de la humanidad actual y vaticina que será una realidad en un futuro cercano, antes del 2030, y se podrá lograr esta revolución de cuatro maneras diferentes, razón para tener confianza en que el evento va a ocurrir.

Partiendo de las posibles vías para alcanzar la superinteligencia me di a la tarea de clasificarlas:

Superinteligencia artificial: El surgimiento de una superinteligencia artificial basada en la idea de que las máquinas cada vez tienen más capacidad de memoria y más velocidad de procesamiento de la información, llegará un momento en que igualará y luego superará la velocidad del cerebro, esta es la idea predilecta de Ray Kurzweil, del cual hablaremos en un próximo articulo.

Superinteligencia hibrida: Aspira a la fusión entre humanos y tecnologías por medio de la interconexión entre humanos y computadoras, tales como, prótesis, implantes de chip, etc. Estamos ante la idea de una transhumanidad que transcienda a la condición humana y con ello superar todos los límites de la especie humana y dar surgimiento a una nueva especie posthumana. Esto nos conduce a una singularidad donde humanos y máquinas se fusionan.

Superinteligencia colectiva: Surge de las redes cada vez más complejas que se irán conformando debido a la relación entre humanos y tecnologías. Sigue las ideas Pierre Levy de una inteligencia colectiva, en la que Internet está jugando un papel importante y ya algunos están hablando del surgimiento de un cerebro global que se está formando desde ahora en el contexto de la Web 2.0 y de la naciente Web 3.0, lo cual nos lleva a la formación de una superinteligencia que se forma por la interacción social entre humanos cada vez mejores y máquinas cada vez más inteligentes.

Superinteligencia biológica: Mejoramiento humano por bioingeniería sobre todo modificaciones genéticas, dado que es una inteligencia mejorada por medio de la biología. surge producto del desarrollo de la biotecnología lo que ira conduciendo a la humanidad a una fusión progresiva y menos radical que la superinteligencia hibrida.

Mientras el primero aspira a la creación de una inteligencia artificial que por medio su velocidad de procesamiento es capaz a superar la velocidad de procesamiento (de información) del cerebro, postulado de la inteligencia artificial fuerte. En las otras tres se aspira a una ampliación de la inteligencia humana por medio de la tecnología, lo cual a toda luces parece lo más lógico, en lugar de crear una superinteligencia artificial, capaz de construirse a si misma cada vez más inteligente (explosión de la inteligencia) porque no lograr una superinteligencia que se vaya ampliando dado la interacción, más bien simbiosis, entre humanos y tecnologías. De esto seguiremos hablando.

martes, 10 de junio de 2014

Preparar la ciberguerra

La pasada semana, el Almirante Michael Rogers - nuevo director de la Agencia Nacional de Seguridad (NSA) y máximo responsable del Mando Cibernético (USCYBERCOM) en sustitución del controvertido General Keith Alexander - presentó los retos a los que se enfrentará el USCYBERCOM durante los próximos años. Éstos derivan del plan de transformación de este mando que el Pentágono presentó a principios de 2013. Dependiente del mando estratégico estadounidense, el USCYBERCOM tiene como misión planificar, coordinar, integrar, sincronizar y llevar a cabo todas aquellas actividades destinadas a que las Fuerzas Armadas estadounidense dispongan de libertad de acción en el ciberespacio y nieguen la misma a sus adversarios.

El USCYBERCOM ha planteado una transformación enfocada a la creación de tres fuerzas componentes: la Cyber National Mission Force que, operativa desde septiembre de 2013, tiene la misión de evitar ciberataques contra las infraestructuras críticas del país y atacar las cibercapacidades de sus potenciales adversarios; la Cyber Combat Mission Force para proporcionar a los Mandos Componentes que operan en el extranjero las capacidades necesarias para planear y ejecutar ciberoperaciones - definidas éstas como el empleo de capacidades cibernéticas con el fin de conseguir los objetivos militares en o mediante el ciberespacio - como parte integral de sus operaciones; y la Cyber Protection Force, con el objeto de defender la infraestructura de información y telecomunicaciones dependiente del Pentágono. En la práctica, estas dos últimas fuerzas son una extensión de las capacidades defensivas, ofensivas y de explotación que históricamente han poseído el USCYBERCOM y sus antecesores.

Para hacer efectiva esta transformación, el USCYBERCOM trabaja sobre seis habilitadores: 
  1. Definición del concepto operativo y estructura de mando y control cibernética para operar con eficacia en el ciberespacio. El USCYBERCOM dispone de comandos operativos cibernéticos que luchan en esta dimensión, pero se hace necesario disponer de respuestas a un conjunto de cuestiones como: ¿Quién opera en el ciberespacio? ¿Quién realizará las decisiones críticas sobre lo que pueden y no pueden hacer las Fuerzas Armadas en el ciberespacio? ¿Cuál es la cadena de mando en el ciberespacio? 
  2. Tecnología. En la actualidad, se estima que el Pentágono dispone de unas 15.000 redes de datos, incluyendo aquellas que manejan información clasificada. El volumen, heterogeneidad y obsolescencia tecnológica de muchas de esas redes supone una amenaza para la seguridad de la información y la infraestructura informativa del Pentágono. El objetivo fundamental del USCYBERCOM es que el Departamento de Defensa estadounidense disponga de una infraestructura de información y telecomunicaciones resiliente. Para ello, el Almirante Rogers pretende redefinir las funciones de la Defense Information System Agency (DISA) con el fin de hacerla más operativa y permitir al USCYBERCOM centrarse en los aspectos meramente tácticos. Actualmente, la DISA, el USCYBERCOM y la NSA están trabajando en la implementación del Joint Information Environment (JIE) (PDF), que permitirá migrar las actuales arquitecturas de estas redes a la nube, con lo que se pretende mejorar la eficiencia tecnológica y su seguridad además de facilitar la compartición de información y optimizar los procesos de toma de decisión. En la actualidad, las fuerzas estadounidenses desplegadas en Europa están haciendo uso de una versión en pruebas del JIE que para finales de año comenzará a ser empleada también en el Pacifico. Del mismo modo, el Pentágono ha encargado al DARPA el desarrollo e implementación del Plan X , un programa de guerra cibernética que deberá proporcionar al Pentágono "tecnologías revolucionarias para la comprensión, la planificación, gestión y ejecución de la ciberguerra en tiempo real, a gran escala y en entornos de red dinámicos". 
  3. Formación y Capacitación. A finales de 2016, el USCYBERCOM deberá estar formado por 6.000 miembros divididos en 133 equipos. Todos ellos deberán haber recibido formación general y específica en base a unos planes de formación diseñados para cubrir las necesidades del mando. La formación será complementada con ejercicios de capacitación similares a los que ya están en funcionamiento como Cyber Flag o Cyber Guard . 
  4. Conocimiento de Ciber-situación. Resulta imposible defenderse de lo desconocido, por ello el conocimiento de la ciber-situación es uno de los elementos críticos ya que deberá proporcionar a los mandos del USCYBERCOM el conocimiento inmediato del ciberespacio propio, el del resto de naciones, el del enemigo y el de cualquier otro de interés, así como el conocimiento del estado y disponibilidad de las capacidades operativas que son necesarias para el planeamiento, dirección y gestión de las operaciones ejecutadas para garantizar la seguridad del ciberespacio estadounidense. Un conocimiento de ciber-situación fiable no solo se obtiene como resultado de la combinación de actividades de inteligencia y operativas en el ciberespacio, sino también en el espacio electromagnético y en cualquier otra de las dimensiones del entorno operativo (tierra, mar, aire y espacio). 
  5. Colaboración público-privada. En la actualidad más del 85% de la infraestructura de información y comunicaciones sobre las que operan las redes del Pentágono y de las principales infraestructuras críticas del país son propiedad o están gestionadas por el sector privado. La compartición de la información se ha convertido en un elemento clave en los procesos de colaboración público-privada, sobre todo la relativa a ciberataques, vital para construir un ciberespacio resiliente y disponer de un conocimiento de ciber-situación fiable. Esta compartición de información no solo debe realizarse con otros organismos dependientes del Pentágono o agencias del sistema nacional de inteligencia sino también con las compañías privadas del país. 
  6. Legislación. Como ya ocurriese durante el mandato del General Alexander, el Almirante Rogers ha abogado por delimitar tanto las funciones del USCYBERCOM como las de la NSA para impedir que se pudiesen llevar a cabo acciones irresponsables como fruto de posibles 'vacíos legales'. Esta urgencia legislativa se agudizó tras las filtraciones de Edward Snowden en Mayo de 2013. 
 El Departamento de Defensa estadounidense hace varias décadas que comprendió la importancia estratégica del ciberespacio y, actuando en consecuencia, se encuentra inmerso en un continuo y complejo proceso de redefinición con el objetivo de implantar una gestión del cambio efectiva que permita adecuar sus cibercapacidades a las necesidades operativas que exige cada momento.

 En definitiva, el ciberespacio es una dimensión configurada para ejercer poder y así lo están interpretando las principales potencias mundiales.

Fuente: El Mundo

jueves, 5 de junio de 2014

Google, Kurzweil y el futuro de la humanidad.

No todas las personas saben lo que quieren hacer con su vida, y más difícil aun saber lo que debe hacer toda la humanidad y cuál es su destino. Ray Kurzweil es uno de esos raros casos que tiene muy clara su idea de cuál es el mejor futuro para la humanidad. Sus ideas podrán gustarnos o no, pero su esfuerzo por conocer el futuro de la humanidad, es uno de los más originales y abarcadores. Y aunque sus ideas parten de la archiconocida ley de Moore, basada en el Hard y en el aumento de la velocidad de procesamiento de la información, enfocado dentro de una inteligencia artificial fuerte, donde cerebro y computadora son sistemas procesadores de información y en la conclusión de que la velocidad de procesamiento de las computadoras superará a la velocidad del cerebro por lo que, inevitablemente, llegaremos a un inteligencia artificial (IA) superior a la humana. Así de fácil.

Esta idea tiene su culminación en la definición de una singularidad tecnológica elaborada por Vernor Vinge y justificada hasta la saciedad por Ray Kurzweil, quien mezcla las ideas de Vinge con las de Hans Moravec y ve el surgimiento de una superinteligencia artificial como un hecho que cambiará de un planazo la vida en el planeta y a que a partir del surgimiento de esa superinteligencia, todo será diferente; al igual que Moravec, considera que eso es lo mejor que nos puede pasar. Aunque algunos tienen sus dudas: primero de que eso pueda suceder y segundo de todo sea tan perfecto y ven implicaciones que escapan al optimismo de sus defensores.

La inteligencia artificial y el futuro del hombre, ha comenzado a ser analizada desde varios ángulos, y no solo desde el tecnológico, dejando aparecer un cierto desasosiego que cada vez se hace más patente. Y es que si antes la construcción de una IA parecía un hecho muy lejano, hoy la están construyendo, ante nuestros ojos y se está convirtiendo en parte de nuestras vidas, que va desde buscadores cada vez más inteligentes, teléfonos inteligentes, espejuelos, autos, drones, etc. Y todos conectados a grandes sistemas procesadores de información propiedad de grandes transnacionales.

Hoy la información ha dejado de pertenecernos y es procesada y manipulada por los que de una forma u otra han ido adueñándose del poder, la información es poder, y del control de nuestras vidas.
Quizás la IA no hubiese pasado de ser un sueño, pero los esfuerzos de Kurzwel, el actor social más importante para el logro de una superinteligencia artificial y de otros grandes futuristas, la cual ha tenido dos grandes hechos:
• Creación de la Universidad de la Singularidad
• Ingreso de Kurzweil como jefe de proyecto en Google.

El hecho de que Kurzweil haya comenzado a trabajar en Google, demuestra cual es el interés de la transnacional en el futuro, hacia donde quiere llegar y que aspiraciones tiene con respecto a las tecnologías. Pienso que Kurzweil más que un ejecutor se ha convertido en el representante de la nueva ideología tecnologista imperante en el mundo (junto al transhumanismo). Y ese es uno de nuestros grandes errores no ver el impacto de las tecnologías como ideología, que con nosotros o sin nosotros va cambiar los destinos del planeta.

Ahora, esa adquisición hecha por Google nos lleva en primer lugar a la construcción de una inteligencia artificial superior a la humana. De ahí los esfuerzos de Google en el aprendizaje profundo, en las redes neuronales, en las computadoras cuánticas, entre otras. Para ello van a partir de la popularidad de su buscador (su dominio) y de toda la información que poseen sobre sus usuarios (nosotros). La conclusión es simple, solo hay que hacer que ese buscador sea cada vez inteligente para que pueda procesar, de forma inteligente, toda esa información y llegar a saber lo que desean los usuarios, saber no solo que buscan sino lo que quieren, que piensan y por supuesto decirles lo que tienen que hacer para ser más atractivos al buscador, enseñarlos a ser más eficientes, todo a imagen y semejanza de una superinteligencia que llegará a saber más de los humanos que ellos mismos.

Por supuesto estamos partiendo de la idea de un usuario pasivo que espera a que le den la información elaborada y procesada por una superinteligencia y, demás está decir, que no es la única alternativa que tenemos los humanos, en realidad no estamos condenados a ser eternos usuarios sometidos a un gran procesador superinteligente que nos brinde toda la información sin el menor esfuerzo, al que inevitablemente llegaremos a adorar. Sin dudas tenemos otras opciones y desde hoy podemos ir construyendo una superinteligencia que no sea propiedad de nadie, que sea libre, que no esté centralizada, que sea abierta y colaborativa. Estamos a tiempo de negarnos a ir a ciegas a un futuro diseñado por las elite de poder: militares, transnacionales, gobiernos; podemos desde ahora comenzar a diseñar nuestro propio futuro, y ese es nuestro mayor desafío.

jueves, 29 de mayo de 2014

¿Se convertirá la inteligencia artificial en una amenaza? (2)

Los riesgos del futuro

¿Cuál es el riesgo que enfrentamos? O ¿Dónde está el riesgo? Ya en “Crisis en el siglo XXI” analizábamos los riesgos y las propuestas a  los peligros para el futuro. También (en articulos anteriores), habíamos mencionado que en estos tiempos no podemos hablar de una inteligencia artificial (IA) académica que se va construyendo en un centro de investigación para luego al mejor estilo científico, compartir los descubrimientos, hoy la IA, está naciendo en las grandes transnacionales, lo cual va a tener sus consecuencias, dado el contexto actual de poder. Pero las consecuencias justifican los enormes beneficios potenciales que surgirán.

Personalmente no me preocupa que se esté construyendo una superinteligencia artificial (Google y compañía), lo que me preocupa es que no estemos consciente de sus consecuencias y de que existen otras alternativas. Y lo peor, que estemos desde hoy, transfiriendo nuestra forma de pensar a las máquinas. Por ejemplo, ¿qué pasaría si en el país más poderoso del mundo surge una superinteligencia que quiera la paz, la solidaridad, la colaboración? ¿No sería destruida inmediatamente? Sin dudas, cualquier superinteligencia que surja tendrá que responder a los intereses hegemónicos, ya sea de los gobiernos, de las transnacionales, de los militares, etc. El sentido común nos dice que si los padres de un niño son delincuentes, el problema no es que el niño salga inteligente sino en la formación que recibirá de sus padres o sea en el entorno (contexto) en que se educa. El que las máquinas se conviertan en una superinteligencia no es un problema, el problema radica en el contexto en que esa inteligencia superior se irá formando, es seguro que Google no construirá una superinteligencia que comparta sus conocimientos sino en una que incremente la competitividad de Google y aumente su control sobre la Web.

En realidad, el problema no es de si podemos controlar a la IA sino de cuáles son nuestros intereses y cuales nuestros ideales, pienso que el verdadero problema está más en nuestra propia mentalidad y en lo que esperamos de las máquinas, ya que estas se insertarán en nuestro contexto; o como un colaborador, si somos capaces de serlo; o en un competidor, si seguimos enfrentándonos los unos a los otros. Tampoco creo que los expertos desde sus centros de investigación puedan encontrar los mejores resultados, los problemas nunca se han podido resolver con propuestas, y sobre todo si estas no van a la causa de los problemas: nuestra mentalidad individualista, consumista, competitiva y hegemónica, que nos lleva a vivir en constante enfrentamiento. Ahora, ¿quien le pone el cascabel al gato? Los problemas siguen “vivitos y coleando”, y como solución se propone una tecno-utopía, donde las tecnologías vendrán a resolver todos los problemas como por arte de magia, ya no hay que preocuparse del medio ambiente, de la contaminación, de los enfrentamientos, de la pobreza… Por supuesto que este super-optimismo no convence a muchos, pero se está convirtiendo en una esperanza en un mundo carente de grandes ideales y donde el consumismo y el TENER (en lugar del SER) se han convertido en la primera premisa de la humanidad.

Debemos tener una comprensión clara de los riesgos de una IA, en parte coincido con Maravec, en el sentido de que los robots (como parte de la IA) serán nuestros hijos mentales, claro no en el sentido que él lo dice, sino en el sentido de que aprenderán de nosotros y harán lo mismo que nosotros hacemos; luchar por el poder, por los mercados, por la hegemonía mundial, sin dudas no harán nada que no hayan aprendido de nosotros. Solo que, esta vez, estaremos ante una inteligencia que podrá superarnos en muchos sentidos. Pienso que las máquinas serán parte ineludible y necesaria de nuestra historia, pero, aun no estamos preparado para lidiar con ella, no porque sean una amenaza sino porque nosotros las convertiremos en una amenaza y en vez de obtener lo mejor de ellas, las arrastraremos a nuestra conveniencia y nuestros intereses individuales de predominio. Tal vez la IA nos obligue a ser mejores y a repensar nuestra condición humana; eso, si queremos seguir existiendo como especie humana.

viernes, 23 de mayo de 2014

Singularidad tecnológica y transhumanismo. ¿De qué estamos hablando?

En este artículo debería seguir hablando sobre si la IA será una amenaza, pero he notado que existe cierta confusión de términos, que es necesario aclarar.

La confusión se centra entre lo que es el transhumanismo y la singularidad tecnológica, incluso el propio Kurzweil declaró recientemente: “Nunca me ha gustado el transhumanismo etiqueta, ya que implica que estamos reemplazando a la humanidad”, y agrega. “No creo que eso sea cierto. Lo que estamos haciendo es aumentar la capacidad humana”. Precisamente eso es lo que quiere hacer el transhumanismo, aumentar o potenciar las capacidades humanas por medio de las tecnologías. ¿Entonces?… Comencemos por la singularidad tecnológica.

La singularidad tecnólogica nace de un artículo escrito por Vernor Vinge donde plantea el surgimiento de una inteligencia superior a la humana y, aunque hace hincapié en el surgimiento de una inteligencia artificial que podría superar a la humana, basándose en el crecimiento acelerado de los equipos de computo (ley de Moore), también tiene en cuenta otras vías para alcanzar una superinteligencia que supere a la de los humanos.

En cambio para Kurzweil primero surgirá la superinteligencia artificial y luego como consecuencia de estas surgirán las otras, idea muy parecida a la que defiende Hans Moravec, pero no tan categórica y parcializada, ver Moravec y el fin de la especie humana.

No soy de los que se casa con una idea, y he buscado otros enfoques que aclaren más la idea y últimamente me inclino por la definición de una simbiosis entre humanos y tecnologías, pero antes volvamos a los conceptos iníciales de Vinge de una singularidad tecnológica.

Para Vinge la singularidad tecnológica se producirá cuando surja una superinteligencia y propone cuatro tipos, a los que llamé, siguiendo a Vinge y comparándola con los conceptos que la sustentan.
  1. Superinteligencia artificial – La singularidad de Kurzweil
  2.  Superinteligencia hibrida – Transhumanismo fuerte
  3. Superinteligencia biológica – Transhumanismo débil
  4. Superinteligencia colectiva – Sostenibilidad tecnológica
Habíamos dicho al principio que Kurzweil se basa el surgimiento de una inteligencia artificial fuerte, que es la desencadenante de todo el proceso y nos lleva a la singularidad. Por lo que primero tiene que surgir una inteligencia que iguale y luego supero a los humanos para que se produzca la singularidad, la cual no es la idea original de Vinge y si la de Moravec, como ya decía, pero enfocado a los robots y no a los programas como Kurzweil. Los enfoques de cada uno son tratados en el libro: “Inteligencia artificial, el futuro del hombre“.

Para el transhumanismo es un proceso casi natural donde los humanos se irán realizando implantes, prótesis, mejoras genéticas, que lo irán perfeccionando, convirtiéndolo en más inteligente, más bello, más saludable, etc. Siguiendo la idea de una simbiosis humanos-tecnologías, mientras en la singularidad estaríamos en una endosimbiosis parasitaria, en el transhumanismo estaremos en una endosimbiosis mutual (para el fuerte) y una endosimbiosis comensal (para la débil). Puedo anticipar que dadas sus características se irán dividiendo en los defensores de un transhumanismo más radical, convertirse en Cyborg, o uno más conservador que solo aspira a mejora las facultades humanas, teniendo en cuenta los riesgos. James Hughes, divide el transhumanismo en liberal (al que llamo fuerte) y transhumanismo democrático (al que nombro débil).
Resumiendo, las ideas hasta ahora.

Singularidad de Kurzweil
  • Singularidad tecnológica
  • Superinteligencia artificial (IA fuerte)
  • Endosimbiosis parasitaria
Transhumanismo fuerte
  • Transhumanismo liberal
  • Superinteligencia hibrida (Cyborg)
  • Endosimbiosis mutual
Transhumanismo débil
  • Transhumanismo democrático
  • Superinteligencia biológica (Humano mejorado)
  • Endosimbiosis comensal
Aquí estoy asumiendo que el transhumanismo débil se orientara, o tendrán preferencia, por las mejoras genética, más cerca de la condición humana, que por las cibernéticas; el clásico Cyborg.
Por supuesto, no puede faltar la idea de una sostenibilidad tecnológica, la que siempre he defendido.

Superestructura tecnológica sostenible y colaborativa
  • Sostenibilidad tecnológica
  • Superinteligencia colectiva (IA debil)
  • Ectosimbiosis mutual
El problema radica en cómo será la sinergia entre las diferentes tendencias tecnológicas. ¿Podrán coexistir entre sí? De momento tenemos.
Ideología tecnologista (defiende una endosimbiosis entre humanos y tecnologías)
  • Singularidad tecnológica
  • Transhumanismo (fuerte y débil)
Alternativa a las ideologías tecnologista (defiende una ectosimbiosis mutual)
  • Sostenibilidad tecnológica
Es bueno resaltar que la ideología tecnologista se irá convirtiendo en la ideología predominante en el siglo XXI y queramos o no, el futuro de la humanidad dependerá de nuestra comprensión de las tecnologías, de lo que somos, de nuestros verdaderos valores humanos y de cómo seamos capaces de relacionarnos entre nosotros, con las nuevas tecnologías y nuestro entorno.

martes, 20 de mayo de 2014

¿Se convertirá la inteligencia artificial en una amenaza? (1)

Inteligencia artificial fuerte y débil

La creación de una Inteligencia Artificial (IA) siempre se consideró como una tarea exclusiva de científicos superdotados que trabajaban en modernos centros de investigación, ubicados en los países más desarrollados del planeta. Era algo ajeno a las verdaderas necesidades informáticas del mundo. Trabajar en la IA fuera de los grandes centros, era considerado una pérdida de tiempo, y si lo hacías desde un país en vías de desarrollo, era una locura. Y, aunque, en este último aspecto no se ha cambiado mucho, si estamos ante un nuevo fenómeno: la IA se ha escapado de los grandes centros de investigación para integrarse a las aéreas de investigación de las transnacionales de las nuevas tecnologías.

En los inicios de la IA, cuando todo era más claro, solo existían dos grandes enfoques teóricos (más bien filosóficos), los que defendían la idea de una inteligencia artificial fuerte y los que se inclinaban por una IA débil. Esto puede parecer trivial pero dada la interpretación que se le dé a lo que estamos representando podemos sacar diferentes conclusiones de un mismo resultado. La IA fuerte asume que la mente está formada por algoritmos altamente complejos que pueden ser descifrado y convertidos en programas de computadora, y de ahí llegan a la conclusión que la mente humana puede ser digitalizada en una computadora, en cambio la IA débil considera que la mente funciona diferente a las sistemas de computación y solo aspiran a desarrollar sistemas informáticos que tenga un comportamiento tan inteligente como el del ser humano.

Con el surgimiento de los sistemas expertos, la IA tomo un matiz comercial y se soñó con la posibilidad de desarrollar aplicaciones basadas en los conocimientos de una experto para un área de terminada. Aquí se retomaba la idea de una IA débil, eran sistemas de corte informático, aunque en buena lid, a los creadores no les preocupaba mucho las cuestiones filosóficas, su interés era más bien comercial.

Hasta ese momento existían tres grandes líneas, bien diferenciadas.
• Sistemas cognitivos (IA fuerte)
• Sistemas informáticos (IA débil)
• Sistemas expertos (Comerciales)

Teniendo en cuenta que la IA se ha caracterizado por hacer predicciones y crear expectativas, los sistemas expertos no fueron una excepción y el esperado bum comercial no paso de unas pocas ventas y muchas empresas fracasaron en el intento, al igual que las predicciones hechas por la IA en sus primeros años debido a la euforia de los avances en la demostración de problemas matemáticos y los juegos, lo que llevo a la idea de que era posible encontrar una heurística capaz de resolver todos los problemas (el solucionador general de problemas), esto llevó a una crisis en la inteligencia artificial y a buscar nuevos paradigmas de representación.

No obstante las recaídas que ha tenido la IA esta ha resurgido con más fuerza en nuestros tiempos y hoy se ha convertido en la mayor esperanza para la humanidad, tanto para los defensores del transhumanismo como para los defensores de una singularidad tecnológica, que parecen lo mismo pero no son iguales, aunque ambos coinciden en el surgimiento de una superinteligencia superior a la humana. Precisamente esta es la creencia actual, y no es tanto que se puede construir una inteligencia superior a la humana, que ya está surgiendo ante nuestros ojos, como producto de una tecnología, que cada vez se acelera más y se hace más potente y autónoma.

Entonces, ¿surgirá una superinteligencia que supere a la humana? Para muchos esta ya está sucediendo, y más preocupante aun, si ellos mismo están haciendo todo lo posible porque suceda, y peor aún; cuentan con todos los medios para lograrlo. Por lo que estamos hablando, ya no de investigadores aislados sino de grandes empresas que están convencidas de que es posible y han desplegado una cantidad enormes de recursos con ese fin, y si vemos los nombres de las compañías: Google, Apple, Facebook, IBM, Microsoft, Amazon, etc. Sin dudas, hay que pensar un poco antes de decir que no surgirá una inteligencia artificial, que al menos igualará en muchos aspectos, a los humanos. La pregunta es: ¿Que pasará cuando esto suceda?

Aceptando que surgirá una IA que llegará a superar a los humanos, estaremos ante el mayor impacto tecnológico que ha tenido la humanidad, tal vez, en toda su historia y no lo digo yo, Stephen Hawking, una de las mentes más privilegiadas, junto a otros expertos del tema, han dicho: “El éxito en la creación de IA sería el evento más grande en la historia humana. Por desgracia, también podría ser la última, a menos que aprendamos cómo evitar los riesgos”.


Referencia:
Inteligencia artificial, el futuro del hombre