La
capacidad de las máquinas para aprender está presente en muchos aspectos de la
vida cotidiana. Por ello, el ‘machine learning’ está detrás de las
recomendaciones de películas en plataformas digitales, del reconocimiento por
voz de los asistentes virtuales o la capacidad de los coches autónomos para ver
la carretera. Sin embargo, el origen de esta disciplina data de varias décadas
atrás. Entonces: ¿por qué ahora es tan importante esta tecnología y qué la hace
tan revolucionaria?
El
‘machine learning’ –aprendizaje automático– es una rama de la inteligencia
artificial que permite que las máquinas aprendan sin ser expresamente
programadas para ello. Una habilidad indispensable para hacer sistemas capaces
de identificar patrones entre los datos para hacer predicciones. Esta
tecnología está presente en un sinfín de aplicaciones como las recomendaciones
de Netflix o Spotify, las respuestas inteligentes de Gmail o el habla de Siri y
Alexa.
“En
definitiva, el ‘machine learning’ es un maestro del reconocimiento de patrones,
y es capaz de convertir una muestra de datos en un programa informático capaz
de extraer inferencias de nuevos conjuntos de datos para los que no ha sido
entrenado previamente”, explica José Luis Espinoza, científico de datos de BBVA
México. Esta capacidad de aprendizaje se emplea también para la mejora de
motores de búsqueda, la robótica, el diagnóstico médico o incluso la detección del fraude en el uso de tarjetas de crédito.
Aunque
ahora esté de moda, gracias a su capacidad para derrotar a jugadores
del Go o resolver cubos de Rubik, su origen se remonta al siglo
pasado. “La estadística es sin duda la base fundamental del aprendizaje
automático, que básicamente consiste en una serie de algoritmos capaces
de analizar grandes cantidades de datos para deducir cuál es el
resultado más óptimo para un determinado problema”, añade Espinoza.
Matemáticas
antiguas, nueva computación
Hay
que remontarse al siglo XIX para encontrar algunos de los hitos matemáticos que
sentaron las bases de esta tecnología. El teorema de Bayes (1812) definió la probabilidad de que un
evento ocurra basándose en el conocimiento de las condiciones previas que pudieran
estar relacionadas con dicho evento.
Años
después (en la década de 1940) otra serie de científicos sentaron las
bases de la programación informática: capaz de traducir una serie de
instrucciones en acciones ejecutables por un ordenador. Estos precedentes
hicieron posible que en 1950 el matemático Alan Turing plantease por primera
vez la pregunta de si es posible que las máquinas puedan
pensar, con la
que plantó la semilla de la creación de computadoras de ‘inteligencia
artificial’. Computadoras capaces de replicar de forma autónoma tareas
típicamente humanas, como la escritura o el reconocimiento de imágenes.
Fue
un poco más adelante, entre las décadas de 1950 y 1960, cuando distintos científicos empezaron investigar cómo aplicar la biología
de las redes neuronales del cerebro humano para tratar de crear las primeras máquinas
inteligentes. La idea derivó en la creación de las redes neuronales artificiales, un modelo computacional
inspirado en la forma en que las neuronas transmiten la información entre ellas
a través de una red de nodos interconectados. Uno de los primeros experimentos
en este sentido lo realizaron Marvin
Minksy y Dean Edmonds,
científicos del Instituto Tecnológico de Massachussets (MIT). Ambos lograron
crear un programa informático capaz de aprender de la experiencia para
salir de un laberinto.
"El ‘machine learning’ es un maestro del
reconocimiento de patrones"
Esta
fue la primera máquina capaz de aprender por sí misma a resolver una
tarea sin haber sido programada para ello de forma explícita, sino que
lo hacía tan solo aprendiendo a partir de los ejemplos proporcionados
inicialmente. El logro significó un cambio de paradigma respecto al concepto
más amplio de inteligencia artificial. “El gran hito del ‘machine learning’ es
que permitió pasar de la programación mediante reglas a dejar que el
modelo haga aflorar dichas reglas de manera desasistida gracias a los
datos”, explica Juan Murillo, mánager de Estrategia de Datos en BBVA.
A
pesar del éxito del experimento, el logro también ponía de manifiesto los
límites que la tecnología tenía por entonces: la falta de disponibilidad de
datos y la falta de potencia de cómputo de la época hacían que estos sistemas no
tuvieran la capacidad suficiente para resolver problemas complejos. Esto
derivó en la llegada del llamado ‘primer invierno de la inteligencia artificial’, una serie de décadas durante
las cuales la falta de resultados y avances hizo que el mundo académico
perdiera esperanza respecto a esta disciplina.
El
renacer de la IA
El
panorama empezó a cambiar a finales del siglo XX. Con la llegada de internet,
las cantidades masivas de información disponibles para entrenar los modelos y
el aumento de la potencia de cálculo de los ordenadores. “Ahora
podemos hacer lo mismo que antes, pero mil millones de veces más rápido. Los
algoritmos son capaces de probar 500.000 millones de veces una misma combinación
de datos hasta darnos el resultado óptimo. Y lo hacen en cuestión de horas o
minutos, mientras que antes harían falta semanas o meses”, asegura Espinoza.
En
1997 un célebre hito marcó el renacer del aprendizaje automático: el sistema de
IBM Deep Blue, entrenado a base de ver miles de partidas exitosas de
ajedrez, logró derrotar al
máximo campeón mundial de este juego,
Garry Kasparov. El logro fue posible gracias al ‘deep learning’ o
aprendizaje profundo, una subcategoría del ‘machine learning’ descrita por
primera vez en 1960, que permite que los sistemas no solo aprendan de la
experiencia, sino que sean capaces de entrenarse a sí mismas para hacerlo cada
vez mejor usando los datos. Esto hito fue posible entonces –y no 30 años
atrás–, gracias al aumento de la disponibilidad de datos con los que entrenar
el modelo: “Lo que hacía este sistema es calcular estadísticamente qué
movimiento tiene más probabilidades de hacerle ganar la partida
basándose en miles de ejemplos de partidas vistas previamente”, añade Espinoza.
"La diferencia con técnicas anteriores están
en su capacidad para adaptarse a los cambios en los datos a medida que van
entrando en el sistema"
Esta
tecnología ha avanzado de forma exponencial durante los últimos 20 años, y es
también la responsable de AlphaGo, el programa capaz de derrotar al juego Go a
cualquier jugador humano. Y lo que es más importante: de entrenarse a base
de jugar contra sí mismo constantemente para seguir mejorando.
El
sistema que emplea AlphaGo para lograr esto es, en concreto, el ‘aprendizaje
por refuerzo’ (o ‘reinforcement learning’) que es una de las tres
grandes corrientes que se emplean en la actualidad para entrenar a
estos modelos:
·
El
‘aprendizaje por refuerzo’ se
produce cuando una máquina aprende por medio de prueba y error hasta alcanzar
la mejor manera de completar una tarea dada. Por ejemplo, Microsoft utiliza
esta técnica en entornos de juego como Minecraft para ver cómo los ‘agentes de
software’ mejoran su trabajo. A través de ella el sistema aprende a modificar
su conducta a base de “recompensas” para que resuelva la tarea asignada, sin
programarlo específicamente para que lo realice de una forma determinada.
·
‘Aprendizaje
supervisado’,
se produce cuando se entrena a las máquinas con datos etiquetados. Por ejemplo,
fotos con descripciones de los elementos que aparecen en ellas. El algoritmo
que utiliza la máquina es capaz de seleccionar esas etiquetas en otras bases de
datos. Así, si se ha etiquetado un grupo de imágenes en las que se muestran
perros, la máquina puede identificar imágenes similares.
·
Finalmente,
en el caso del ‘aprendizaje no supervisado’, las máquinas no
identifican patrones en bases de datos etiquetadas, sino que buscan
similitudes. En este caso, los algoritmos no están programados para detectar un
tipo específico de datos, como ocurría con las imágenes de perros, sino que
buscan ejemplos que se parezcan y puedan agrupar. Es lo que ocurre, por
ejemplo, en el caso del reconocimiento facial, en el que el algoritmo no
busca unos rasgos concretos, sino una serie de patrones comunes que le ‘dicen’
que se trata del mismo rostro.
Flexibilidad,
adaptación y creatividad
Lo
modelos de ‘machine learning’ y en concreto el aprendizaje por refuerzo o
‘reinforcement learning’ tienen una característica que los hace especialmente
útiles para el mundo empresarial. “Es su flexibilidad y su capacidad para
adaptarse a los cambios en los datos a medida que van entrando en el sistema y
aprender de las propias acciones del modelo. Ahí radica el aprendizaje y el
dinamismo de los que carecían las técnicas previas”, añade Juan Murillo.
En
el caso de AlphaGo, esto significa que la máquina se adapta en función de los
movimientos del contrincante, y emplea esta información nueva para
mejorar el modelo constantemente. La última versión de esta computadora,
llamada AlphaGo Zero, ya es capaz de acumular miles de años de conocimiento
humano en tan solo unos días funcionando. Además, “AlphaGo Zero también descubrió
conocimiento nuevo, desarrollando nuevas estrategias creativas y
movimientos no convencionales”, explica DeepMind, la empresa filial de Google
responsable de su desarrollo, en un artículo.
Esta
capacidad de adaptación y de invención sin precedentes tiene un enorme
potencial de cara al futuro para mejorar disciplinas científicas tan
dispares como la creación de proteínas sintéticas o el diseño de antenas más eficientes. “Las aplicaciones industriales
de esta técnica incluyen optimizar, de forma continua, cualquier tipo de
‘sistema’”, explica José Antonio Rodríguez, científico de datos senior en
la Factoría de IA de BBVA. También en el mundo de la
banca, el aprendizaje profundo permite “crear algoritmos que pueden ajustarse
a cambios en el comportamiento de los mercados y clientes, para
balancear oferta y demanda, por ejemplo, ofreciendo precios personalizados”,
concluye Rodríguez.
Otro
ejemplo es la mejora de sistemas como los de los coches autónomos, que han dado grandes pasos en
los últimos años gracias al ‘deep learning’, ya que les permite mejorar su
precisión progresivamente cuanto más conduzcan y más datos puedan analizar.
Las posibilidades del ‘machine learning’ son virtualmente infinitas mientras
existan datos disponibles de los que aprender, y algunos investigadores están
incluso poniendo a prueba los límites de lo que llamamos creatividad, empleando
esta tecnología para hacer arte o escribir artículos.
Fuente:
BBVA