Las mentes humanas detrás de las mentes artificiales
Las mentes humanas detrás de las mentes artificiales
En el último siglo, la comunidad científica ha conjeturado sobre la posibilidad de construir máquinas capaces de desempeñar tareas inteligentes que, hasta ahora, están reservadas para los seres humanos. Aunque, de momento, no estamos cerca de alcanzar algo parecido a la llamada inteligencia artificial general, el uso de las conocidas como inteligencias artificiales débiles o estrechas (NAI, por sus siglas en inglés) son fácilmente vistas en redes sociales, sistemas de reconocimiento facial y análisis de lenguaje natural, por ejemplo.
El premio Princesa de Asturias de Investigación Científica y Técnica reconoce este año a algunos de los artífices de la formulación y desarrollo de los algoritmos que hacen posible este tipo de inteligencia.
Las NAI son algoritmos especializados en ciertas tareas en las que pueden alcanzar rendimientos muy superiores a los de los seres humanos. No obstante, son incapaces de desempeñar labores distintas de aquellas para las que fueron ideados y programados. Actualmente, las NAI desarrollan tareas que eran intratables para las máquinas hasta hace apenas veinte años. Entre ellas están tanto el reconocimiento de imágenes como el procesamiento del lenguaje natural.
Este hito fue posible gracias a la aparición de las redes neuronales. Creadas originalmente en los años 1940, pero no fue hasta la década de 1980 cuando comenzaron a mostrar su gran potencial. Hoy en día, el término redes neuronales designa una familia de algoritmos con una alta capacidad de adaptación y rendimiento, basada en su formulación matemática y también en el increíble aumento de la capacidad computacional experimentado desde su formulación.
Estos algoritmos nacieron con inspiración biológica: su pretensión era emular el cerebro humano. Su estructura más fundamental la conforman neuronas artificiales que juegan un papel análogo a las neuronas en los sistemas nerviosos reales. Estas unidades sencillas se disponen en paralelo, formando capas de procesamiento. El aprendizaje en redes neuronales consiste en construir un sistema con varias de estas capas apiladas y entrenar cada neurona individualmente.
El número de capas del sistema define la profundidad de la red y, solo cuando contamos con dos o más de estas, se usa el término aprendizaje profundo o deep learning. Este tipo de redes profundas pueden ser empleadas para realizar, aún con más precisión que con las redes de una capa, diversos tipos de tareas y fuentes de datos: desde análisis y comprensión de textos, a encontrar elementos en una imagen y describir la escena en una fotografía, e incluso sugerir nueva música basada en nuestras preferencias.
El trabajo de Geoffrey Hinton, Yann Lecun, Yoshua Bengio, considerados popularmente como los padres del deep learning, así como Demis Hassabis —CEO y uno de los fundadores de DeepMind, compañía artífice de algunos de los hitos más importantes en inteligencia artificial—, ha sido crucial en el desarrollo de las capacidades de las redes neuronales profundas y en nuestro entendimiento actual sobre ellas.
Fuente: El País