¿Una nueva forma de inteligencia artificial?

Las trayectorias de ecuaciones difeerenciales ordinarias neuronales [David Duvenaud et al.]

Unas ecuaciones completamente ordinarias podrían convertirse en nuevas estrellas del cielo de la inteligencia artificial: los alrededor de 5000 investigadores participantes en la última edición de uno de los congresos de inteligencia artificial más importantes, el NeurIPS, que se celebra al final de cada año (en 2018 en Montreal), eligieron el artículo que expone esa idea como uno de los mejores. La denominación del nuevo sistema es ODE-Solver, donde ODE es el acrónimo en inglés de «ecuaciones diferenciales ordinarias»: el resolvedor de ecuaciones diferenciales ordinarias, pues. Estas son modelos matemáticos del comportamiento interrelacionado de diferentes magnitudes.

Las redes neuronales artificiales se inventaron hace mucho, en la década de 1950. Entre las más difundidas hoy en día están las redes neuronales convolutivas (CNN), como es el caso de GoogleNet, conocida sobre todo por su capacidad de reconocer imágenes. Hacen que los datos correspondientes (por ejemplo, píxeles de imágenes) progresen por una red de nudos que equivalen a las neuronas del cerebro y están ordenadas como si fuese en capas. Así se asigna una ponderación a las informaciones y se las somete conjuntamente a cálculo de modo que representen el mundo tan bien como sea posible y, por lo tanto, formen un modelo tan optimizado como se pueda. La exitosa GoogleNet comprende más de 20 capas; una ResNet (una red neuronal residual), hasta mil y más.

Las funciones que encuentra el nuevo ODE-Solver aparecen cuando se van introduciendo más y más planos, como explican el científico de la computación David Duvenaud y su equipo de la Universidad de Toronto, el Silicon Valley canadiense del «aprendizaje profundo». Las ecuaciones diferenciales corrientes pueden captar «la dinámica continua de las unidades ocultas» de una red neuronal artificial, dicen los autores en su artículo prepublicado en arXiv. La idea no es ciertamente nueva, como ellos mismos reconocen; otro equipo canadiense la había propuesto ya en 2017. Sin embargo, ahora de lo que se trata es de «aplicar directamente un ODE-Solver» sin el rodeo a través de una red neuronal artificial.

El ODE-Solver podría representar mejor la dinámica de los datos naturales: cuando se reciben los valores de mediciones espaciadas de forma irregular los aborda mejor que las redes neuronales artificiales. Puesto que se emplean ecuaciones en vez de capas distintas, ya no hay que buscar el número óptimo de estas, como se cuenta en la revista de información científica MIT Technology Review. Marc Deisenroth, científico de la computación y experto en aprendizaje automático que enseña en el Imperial College de Londres, comenta en Twitter lo siguiente: «Idea interesante la de considerar las capas de las redes neuronales como sucesos discretos de una versión continua».

Como estrellas en ciernes de la familia de la inteligencia artificial están también ultimamente las redes generativas adversarias (GAN). Se basan en una idea tan simple como triunfal: una red se enfrenta a otra y aprende de sus victorias y de sus derrotas. Intenta, por ejemplo, generar imágenes que la otra no sepa diferenciar de las auténticas, o desarrolla estrategias de Hacking para engañar a la red rival, como un aprendiz de boxeador que se faja con su entrenador. Esta idea también se dio a conocer en el congreso NIPS hace unos años.  

Christiane Gelitz / spektrum.de

Artículo traducido y adaptado por Investigación y Ciencia con permiso de Spektrum der Wissenschaft.

«Neural Ordinary Differential Equations», de Ricky T. Q. Chen et al. en arXiv:1806.07366 [cs.LG].

Más información en MIT Technology Review.

Deja un comentario