El último ingenio de los científicos de Google aprende a orientarse por redes complejas sin que nadie le haya programado para ello

JAVIER SAMPEDRO / NOTICIA MATERIA

Los científicos de DeepMind, la rama de inteligencia artificial de Google, han logrado un avance en esa disciplina que ha merecido el artículo principal de Nature. Se trata de una combinación de red neural (un programa que imita la organización del cerebro en capas de abstracción progresiva, y que aprende de la experiencia) y un ordenador bastante convencional, que procesa datos complejos y símbolos. Su logro más llamativo es que aprende a navegar por el metro de Londres, sin que nadie le haya enseñado antes el mapa. También entiende genealogías familiares y resuelve puzles de bloques. Por desgracia no se llama Watson ni Holmes, sino DNC (ordenador neural diferenciable, en sus siglas inglesas). Pese a ello es un prodigio matemático y, tal vez, filosófico.

Supón que tienes que ir de Bond Street a Westminster. ¿Habrá que tirar hacia Oxford Circus en dirección a Holborn? ¿O por el contrario tirar por la línea roja para Notting Hill y hacer trasbordo a la amarilla?

Si no has viajado en el metro de Londres, tal vez no percibas la magnitud del problema al que se ha enfrentado DNC. Supón que tienes que ir de Bond Street a Westminster. ¿Habrá que tirar hacia Oxford Circus en dirección a Holborn? ¿O por el contrario tirar por la línea roja para Notting Hill y hacer trasbordo a la amarilla? Por supuesto, para resolver esta clase de problemas haces uso de un plano del metro. Pero eso es trampa para DNC. El robot del metro tiene que aprender a usar el metro por sí solo, sin ningún conocimiento previo de la red londinense.

Alex Graves, Greg Wayne y otros 18 científicos de Google DeepMind, en Londres, han dado este gran paso en la inteligencia artificial por el más venerable de los procedimientos: cuando dos disciplinas discrepan en la estrategia, suma sus fuerzas; sube un piso para mirar ambas desde una perspectiva en que ya no son incompatibles, sino dos ángulos de la misma solución. La historia del conocimiento está repleta de destellos innovadores basados en ese mismo enfoque abarcador.

Todas las máquinas de pensar estamos obligadas a aprender esos conceptos del entorno en que nos ha tocado vivir

Los ordenadores convencionales se manejan muy bien con los problemas de la lógica simbólica. Sócrates es mortal, puesto que es un hombre y todos los hombres son mortales. Son reglas simples que ya formuló Aristóteles, y los ordenadores –o máquinas de Turing, en honor al personaje que interpretó hace unos años Benedict Cumberbatch, el padre de la inteligencia artificial Alan Turing— se manejan de maravilla con esas simplezas. Pero la inmensa mayoría de la realidad no se aviene a la lógica simbólica. ¿Hace frío o calor? ¿Es una remodelación o una crisis de gobierno? ¿Cuál es la mejor ruta para ir de Bond Street a Westminster?

Ni las máquinas ni nuestro propio cerebro pueden estar programados para todas estas variables graduales y relativas al contexto. Todas las máquinas de pensar estamos obligadas a aprender esos conceptos del entorno en que nos ha tocado vivir. Adaptarse a los detalles del medio implica flexibilidad de comportamiento, aprendizaje de procedimientos y abstracción de conceptos generales. En inteligencia artificial, este no es el dominio del ordenador convencional, sino el de las redes neurales.

El destello creativo de Graves, Wayne y sus colegas de Londres ha sido combinar lo mejor de esos dos mundos: la potencia de razonamiento simbólico de los programas informáticos usuales (las máquinas de Turing) con la asombrosa capacidad de aprendizaje de las nuevas redes neurales. Estas redes, organizadas en decenas o cientos de capas de abstracción progresiva, como nuestro cerebro, son el fundamento del deep learning (aprendizaje profundo), la disciplina que ha revolucionado en años recientes la inteligencia artificial.

El siguiente objetivo de los científicos de Google es desarrollar sus DNC hasta que sean capaces de aprender de un golpe

“Una habitación”, explican Graves y Wayne, “suele tener sillas, como se puede saber por mera estadística, pero la forma y la localización de una silla concreta en la habitación son variables; estos valores variables pueden escribirse en la memoria externa de un DNC, dejando libre a la red neural que lo controla para que se concentre y aprender las regularidades globales”.

El siguiente objetivo de los científicos de Google es desarrollar sus DNC hasta que sean capaces de aprender de un golpe –ahora lo hacen a partir de muchos ejemplos correctos, en un ejemplo de “aprendizaje guiado”—, comprender una escena visual, procesar el significado del lenguaje y cartografiar el conocimiento del mundo, “intuyendo” que su estructura es variable, pero ciertas de sus propiedades no lo son.

La inspiración es nuestro cerebro. Y el problema es que aún no sabemos cómo funciona.