¿De dónde viene el machine learning? ¿Qué avances tecnológicos nos han llevado hasta el momento presente en el que desarrollamos máquinas capaces de aprender sin estar programadas para ello? El aprendizaje automático nos permite hoy disponer de software que puede inferir reglas, patrones o normas a partir del procesamiento de ciertos conjuntos de datos especialmente diseñados, y supone un avance tremendo en el terreno de la computación.
Gracias al machine learning podemos procesar cada vez mayores cantidades de datos, lo que nos abre las puertas a determinados usos como las recomendaciones de productos en el ecommerce, optimizar el funcionamiento de algo tan grande como la red ferroviaria, o múltiples aplicaciones que, en principio, no creerías.
Para entender de dónde viene esta ciencia, que es un subconjunto de la inteligencia artificial, hemos de remontarnos muchos años en el pasado. De hecho, viajaremos al siglo XVIII, cuando se enunció la regla de Bayes de la probabilidad condicionada. Era, sin saberlo, el primer cimiento del futuro aprendizaje automático. La Cadena de Márkov, en la que la probabilidad de que ocurra un evento depende enteramente del evento inmediatamente anterior, o el método de mínimos cuadrados son herramientas imprescindibles para lo que vendría después.
Llegado el año 1950, Alan Turing publicaría un artículo académico fundamental, “Computing machinery and intelligence”, o “Maquinaria computacional e inteligencia”, en el que plantearía una pregunta inicial muy concreta: “¿Pueden las máquinas pensar?”. Contiene, además, la descripción del famoso Test de Turing, y es “el padre” de la inteligencia artificial moderna.
La regla de Bayes de la probabilidad condicionada sentó las bases del #machinelearning en el siglo XVIII Share on XTan solo siete años después, en 1957, Frank Rosenblatt diseñaría el algoritmo Perceptron, que es un algoritmo para el aprendizaje supervisado de clasificadores binarios. Este algoritmo se utilizó para el reconocimiento de imágenes. Este es el origen de las redes neuronales, puesto que el modelo matemático más sencillo para una neurona es un perceptrón, y viceversa.
Saltaremos unas décadas en las que no cesó el progreso y la investigación, hasta 1990, cuando ese mismo progreso dio lugar a un cambio de paradigma que consistió en centrarse en la aproximación “data driven” para el análisis de grandes cantidades de datos. Como vemos, llegamos al inicio de lo que sería después el Big Data. Peter J. Denning publicaba un artículo en American Scientist en el que planteaba lo siguiente:
¿Qué máquinas podemos construir para monitorizar un flujo de datos, o filtrar una base de datos grabada y proponernos un resumen estadístico de lo que hay? […] es posible construir máquinas que puedan reconocer o predecir patrones en flujos de datos sin entender el significado de los patrones.
En 2006, el científico de la computación Geoffrey Hinton acuñó el término Deep Learning “para explicar nuevas arquitecturas de Redes Neuronales profundas que son capaces de aprender mucho mejor modelos más planos”.
Uno de los últimos hitos en esta cronología tiene que ver con la democratización del machine learning, y en parte lo es hoy en día gracias a Amazon y su plataforma de machine learning, presentada en 2015, que hace accesible el aprendizaje automático a miles de desarrolladores en todo el mundo.
Nos queda por ver a dónde nos lleva todo el desarrollo y la investigación en este interesante campo de la inteligencia artificial. ¿Dónde estaremos dentro de veinte años? Solo el tiempo (y posiblemente, una máquina) nos lo dirá.
Deja tu comentario sobre "Una cronología del machine learning desde sus inicios"