El día en que la inteligencia artificial aprendió a modificarse
Los algoritmos genéticos llevan desde los años 60 asentando las bases del aprendizaje automático en los sistemas actuales
Por Lydia Natour
Hace unos días, Google asombró al mundo con una nueva inteligencia artificial de su sistema DeepMind que era capaz de «aprender» sin la necesidad de un entrenador humano. Esta tecnología que podría parecer rescatada por Marty McFly desde el futuro tiene más antigüedad de lo que parece.
En los últimos años se ha avanzado mucho en la aplicación de nuevos modelos de aprendizaje automático que, en fases más avanzadas, intenta replicar el funcionamiento del cerebro humano. Precisamente, uno de los campos que más interés despierta es la capacidad de «automodificación» de un sistema por sí mismo gracias a los llamados algoritmos genéticos. No se trata de un área abstracta en ciernes de ver la luz algún día, es otra de las múltiples metodologías que tras mucho se probada ha alcanzado otro nivel.
La inteligencia artificial no es un tema de hace unos pocos años, arrancó en los años cuarenta. Los sistemas de aprendizaje de las máquinas -«machine learning», en inglés- hicieron aparición, en realidad, a mediados de los sesenta, una época de cambio y de innovación social. «Las grandes revoluciones en inteligencia artificial fueron entre los 60 y los 80», explica a ABC Javier Sánchez, profesor especializado en Inteligencia Artificial de la Universidad Europea. «No es que no se hayan hecho avances, sino que aprovechando los que se hicieron hace tiempo» ahora con la tecnología actual se puede exprimir mucho más, gracias a la «capacidad de red, de procesamiento y de almacenamiento», añade.
Los algoritmos genéticos tienen su origen en la biología y en las teorías de Darwin, ya que se basan en tres procesos evolutivos: selección, entrecruzamiento cromosómico y mutación. Esta propuesta surgió a raíz de los estudios de tres investigadores: Alex. Fraser, Hans-Joachin Bremermann y John Henry Holland. El primero -entre finales de los años 50 y principios de los 60- sirvió de inspiración para los algoritmos genéticos gracias a sus trabajos sobre la evolución biológica sostenida en un ordenador. El segundo planteó la evolución como un proceso de optimización y estableció la primera simulación de cadenas binarias que procesaba datos mediante la reproducción, selección y mutación. Mientras el considerado como padre de esta metodología estableció una primera versión de sistema de aprendizaje mediante el proceso de la evolución.
Al final, la evolución tiene mucho que ver con la adaptación al entorno. En el sentido biológico, los cromosomas que se adaptan mejor tienen mayor grado de supervivencia. Estos conceptos aplicados al entorno de la informática representan valores en el que cada cromosoma consistirá en dos elementos codificados. Durante la selección, dichos cromosomas establecerán parejas para la reproducción, cuyo producto resultante será como un niño que combine características de sus padres. Esta unión puede contener algunos elementos mutados. Como en este caso se trata de aplicarlo a la inteligencia artificial y a su aprendizaje, en algún lugar de esa cadena de generaciones se encontrará la respuesta al problema planteado que debe resolver. Al final es un método de prueba y error hasta hallar la respuesta, puesto que los algoritmos genéticos buscan la optimización.
Son muchos los años en los que se lleva desarrollando esta tecnología y, por tanto, hablar de «novedad» es un poco presuntuoso; «simplemente es una difusión que tiene sentido ahora», recalca Isabel Fernández, directora general de Accenture Analytics. En esta misma línea, las áreas que más interés despiertan –y que también forman parte de la IA desde la década de los 60– son relativas al modo en el que aprenden como los algoritmos evolutivos, «machine learning» o aprendizaje automático.
Para entenderlo mejor; se utiliza un supuesto en el que se pone a competir a dos sistemas en una misma tarea, uno de ellos con una versión de su algoritmo mutada. «Aquellas mutaciones que funcionaban mejor con el objetivo que estaba dado, pues eran los que iban sobreviviendo e iban llegando a un algoritmo mejor», expone Enrique Domínguez, director estratégico de InnoTec. Sin embargo, estos sistemas IA no actúan por sí mismos; se les ha diseñado para que se modifiquen así mismos y dependerá de aquello para lo que se les ha programado, lo que le hará que genere ciertas respuestas.
Por lo que si se le pone unos límites a un sistema, no hay porqué alarmarse de este grado de independencia. «Imagínate la capacidad de corrección de errores en sistemas que de manera automática son capaces de identificar que hay errores y corregirlo. Que eso implique recodificarse automáticamente no es un problema, es la solución de problema», declara Fernández.
Humano o robot
Esta capacidad de ir autoarreglándose y autoaprendiendo, como la propia evolución humana que se adecúa al entorno con el paso de los años, no aporta de humanidad a los futuros robots. «Una máquina por definición no tiene sentimientos ni tiene emociones. Lo que puede hacer es fingir que tiene un sentimiento», manifiesta Domínguez. Es por ellos que el baremo para establecer si una inteligencia artificial puede portar esta nomenclatura no es que sea realmente inteligente o no, sino «la percepción que tengamos nosotros de lo que hace la máquina».
Sin embargo, aunque no sean entrenados como tal, si se les exponen a muchos datos, por lo que al final si aprenden de la influencia humana. «Ahora todo está conectado a la red, todo dispositivo es susceptible de generar datos. Tenemos mucha información, porque se pueden programar sistemas -que de primeras se entrenan para que sepan cómo trabajar- que a medida que sean retroalimentados con su ejecución viendo como los humanos operan puede conducir sus datos».