7. Análisis de datos a gran escala ("Big Data") e inteligencia artificial

Introducción

¿Qué es el “Big data”?

Es un fenómeno que no se basa en una única tecnología, sino que es el resultado de una gran cantidad de innovaciones en varias áreas; todas estas innovaciones tienen en común que utilizan volumen, la variedad y la velocidad de los datos para obtener un beneficio económico de las mismas [1] .

Los datos se han convertido en la materia prima de la economía digital, y, en cierto sentido, los datos equivalen a poder; pero disponer de una gran masa de datos sirve de poco sin la habilidad de analizarla de una forma que arroje significado, que es el punto, añade, en el que la inteligencia artificial entra en juego: el aprendizaje automático (“machine learning”) ofrece una gama de nuevas herramientas para analizar grandes cantidades de datos no estructurados.

¿Qué es el “machine learning”?

El “machine learning” “consiste en conseguir que un ordenador extraiga conclusiones a partir del análisis estadístico de los datos que se introducen, mediante un proceso que va mejorando de modo automático conforme se incorpora más evidencia al algoritmo” [2] .



[1] Autoridades Europeas de Supervisión (2016): “Discussion Paper on the Use of Big Data by Financial Institutions”, JC/2016/86, 19 de diciembre.

[2] Fernández, A. (2019): “Inteligencia artificial en los servicios financieros”, Boletín Económico 2/2019, Artículos Analíticos, Banco de España, 29 de marzo.