Cómo aprende la inteligencia artificial de Google
Julio 13, 2022

La inteligencia artificial de Google es capaz de aprender como un bebé

Un artículo publicado en ‘Nature’ prueba que las máquinas adquieren mejores conocimientos de física intuitiva si replican la forma de aprender de infantes de tres meses

Yoshua Bengio, uno de los padres del aprendizaje automático, o machine learning, suele decir que la inteligencia artificial (IA) es en realidad muy estúpida. El reciente premio Princesa de Asturias de Investigación Científica se refiere a que estos sistemas pueden hacer cálculos complejísimos en milisegundos, pero al mismo tiempo son incapaces de entender cuestiones de sentido común, como que el agua moja o que si sueltas un objeto se caerá al suelo. Conseguir que las máquinas aprendan la llamada física intuitiva, las nociones básicas sobre el funcionamiento del mundo que los humanos dominamos desde edades muy tempranas, es uno de los desafíos pendientes de los especialistas.

Un equipo de investigadores de DeepMind, la empresa de Google centrada en desarrollos de IA, ha tratado de hacerlo de una forma innovadora. Han creado un modelo computacional para ver si un sistema de aprendizaje profundo (o deep learning, una técnica de IA avanzada basada en las llamadas redes neuronales) puede adquirir un entendimiento de ciertos principios físicos básicos a partir del procesamiento de animaciones visuales. Es decir, observando, igual que las personas. Su conclusión, que se publica hoy en la revista Nature, es llamativa: es más fácil que la máquina lo consiga si se le enseña a aprender como los bebés, estudiando su entorno.

No está claro cuál es el mecanismo que permite a los seres humanos aprender tan rápido la física intuitiva. La psicología evolutiva, una de las disciplinas que más ha estudiado el fenómeno, sostiene que los principios fundamentales de la física se van interiorizando mediante la observación de objetos y de sus interacciones. El equipo de DeepMind liderado por Luis S. Piloto partió de esas teorías y desarrolló un sistema de aprendizaje automático al que bautizaron como Plato y al que se le mostraron vídeos de pelotas cayendo al suelo y pelotas desapareciendo de la imagen cuando pasan detrás de otro objeto y reapareciendo luego. Se centraron en explorar si su sistema era capaz de aprender ciertos principios básicos, como la solidez (que los objetos no pasan a través de otros) y la continuidad (que no aparecen y desaparecen espontáneamente).

Hay estudios que demuestran que un bebé de tres meses reacciona con sorpresa cuando observa cualquier situación que desafíe esta lógica. Por ejemplo, si cerramos una moneda en el puño y al abrirla no está porque la hemos escondido en la manga. O si una pelota pasa por detrás de una caja y, cuando debería reaparecer al otro lado, no lo hace.

Piloto y sus colegas mostraron 28 horas de vídeos a la herramienta con diversos ejemplos de pelotas en movimiento. “Usamos un sistema para discriminar que ciertos píxeles pertenecen a una pelota y otros a una caja. El paso siguiente es decir que los píxeles que pertenecen a la pelota forman un grupo”, explica por videoconferencia Piloto. Tras el entrenamiento, la máquina pudo ser capaz de prever dónde y cuándo reaparecería aproximadamente el balón tras pasar detrás de un cajón.

Los resultados señalan que las animaciones visuales son suficientes para que el sistema adquiera algunos de esos conocimientos básicos, pero no todos los que acumulan los bebés. Es decir, los modelos computacionales deben incluir de partida una serie de conocimientos de base sobre cómo se comportan los objetos, pero para consolidar esas nociones se necesita observar.

Y, como en el caso del bebé sorprendido ante un truco de magia facilón, Plato también expresa su confusión si el objeto no sigue las normas físicas elementales. El modelo fue capaz de extrapolar las expectativas aprendidas sobre el comportamiento de unos objetos a nuevas situaciones y artefactos que no aparecían en las imágenes que se le mostraron a la herramienta. “En nuestro experimento, la sorpresa es la diferencia entre el número de intensidad de color de un píxel que prevé el sistema frente al número real del color”, razona Piloto. Y eso es lo que hacía la herramienta con bastante acierto: sombrear el espacio donde preveía que reapareciera el objeto en cuestión cuando su intuición le decía que eso sucedería.

El equipo de investigadores de DeepMind niega que trabajen en aplicaciones específicas de uso para su sistema. Ellos lo ven más bien como un trabajo que puede servir de referencia a otros científicos que estén estudiando el mismo problema. Sin embargo, reconocen que podría tener potencial en robótica y en sistemas de conducción autónoma.

De la IA a la psicología evolutiva

¿Qué implicaciones tiene este trabajo para el campo de la IA? “Nosotros no sabemos cómo representan el mundo los sistemas de machine learning (aprendizaje automático). Lo que hemos hecho es decirle a Plato que tiene que entenderlo como una serie de objetos que se relacionan entre sí”, puntualiza Peter Battaglia, científico de DeepMind y coautor del artículo.

Esa es la aproximación al tema de la psicología evolutiva. “El trabajo de Piloto y sus colegas está ampliando las fronteras de lo que la experiencia del día a día puede aportar o no en términos de inteligencia”, sostienen Susan Hespos y Apoorva Shivaram, investigadoras del departamento de Psicología de la Northwestern University (Evanston). “Este es un esfuerzo importante porque evalúa qué tipos de experiencia perceptual se necesitan para explicar el conocimiento que es evidente en un bebé de tres meses”, dicen las expertas, que forman parte del equipo de científicos que ha revisado el trabajo dirigido por Piloto antes de su publicación.

Según Hespos, otra aportación del paper dirigido por Piloto es evidenciar la gran complejidad de un proceso tremendamente sofisticado pero que damos por hecho, como es aprender las normas de funcionamiento básicas de los objetos. “El artículo formaliza algunos de los pasos necesarios para hacer algo tan sencillo como predecir adónde irá una pelota que baja una rampa. Eso no quiere decir que el modelo computacional funcione exactamente como la mente. Su valor radica en el proceso de aprender a definir los pasos, pruebas y más pruebas que se necesitan para conseguir algo similar al comportamiento humano”, subraya Hespos.

La profesora de la Northwestern University cree que la IA tiene todavía mucho que aportar a la psicología. Puede servir, por ejemplo, como campo de pruebas para experimentos que hoy son imposibles. “Hay algunas preguntas que siempre me he hecho, como si las expectativas de los bebés acerca del comportamiento de los objetos sería diferente si se criase en un lugar con gravedad cero”, describe Hespos. “Quizás el modelo de Piloto y su equipo pueda ayudarnos a ver cómo podría cambiar el aprendizaje en ese entorno”.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

SOBRE LA FIRMA

Manuel G. Pascual

Es redactor de la sección de Tecnología. Sigue la actualidad de las grandes tecnológicas y las repercusiones de la era digital en la privacidad de los ciudadanos. Antes de incorporarse a EL PAÍS trabajó en Cinco Días y Retina.

0 Comments

Submit a Comment

Su dirección de correo no se hará público. Los campos requeridos están marcados *

PUBLICACIONES

Libros

Capítulos de libros

Artículos académicos

Columnas de opinión

Comentarios críticos

Entrevistas

Presentaciones y cursos

Actividades

Documentos de interés

Google académico

DESTACADOS DE PORTADA

Artículos relacionados

Share This