¿Por qué todo el mundo habla del Big Data?

La explotación y procesamiento de la información ha sido tradicionalmente, sobre todo desde aparición de los ordenadores, a mediados del siglo pasado, uno de los campos que más ha evolucionado en las últimas décadas. Sin embargo, atendiendo a las últimas tendencias, parece que estamos aún en una etapa incipiente y que lo mejor está por llegar. En los últimos dos años, el termino Big Data ha sido uno de los términos más buscados a nivel empresarial en Google, ha recibido millones de tweets y las principales consultoras hacen predicciones de crecimiento de dobles dígitos para los próximos años. Como cabría esperar ante tan optimista panorama, centenares de empresas se han creado en el último año relacionadas con el Big Data y se estima que grandes corporaciones como Oracle, Microsoft, IBM y SAP han gastado más de 15.000 millones de dólares en la adquisición de empresas relacionadas con la explotación de datos masivos.

¿Y por qué es importante el Big Data? Principalmente porque las grandes empresas de Internet han conseguido monetizar su actividad a través de la explotación de datos masivos que dejan los millones de usuarios que utilizan diariamente sus servicios. Esta monetización se ha plasmado en una cotización bursátil superior en la actualidad -sea su PER singular o no- a la de otras grandes empresas de otros sectores más maduros (el valor bursátil de Google está próximo a los 350 Bn€, o el de Facebook 115 Bn€, por poner dos ejemplos, comparado con los 71 Bn€ de Inditex). Actualmente Google gestiona más de 20.000 Terabytes al día, en Facebook se insertan más de 3 mill millones de comentarios al día, los 800 millones de usuarios de Youtube suben una hora de vídeo cada segundo, o diariamente se escriben 400 millones de tweets, por citar algunos ejemplos significativos.

Se estima que más del 90% de la información existente hoy en día es digital, y por tanto, más fácilmente procesable mediante algoritmos que la información analógica. Sin embargo, y es ahí donde radica el reto, solamente un porcentaje muy bajo de la información digital esta perfectamente estructurada. Las técnicas tradicionales de explotación de la información han estado fundamentalmente basadas en la explotación de información perfectamente estructurada. Los modelos de predicción estadística o de propensión al consumo (por citar dos ejemplos) han estado hasta hace muy poco tiempo basados en la construcción de una muestra de datos perfecta y la estimación de correlaciones a partir de esta muestra para la mayoría de los sectores y empresas. Solamente en algunos campos científicos, como la astronomía o la inteligencia artificial se utilizaban masivamente otras técnicas mas difusas, basadas en datos menos precisos.

Sin embargo, desde hace unos años, con tan ingente cantidad de información digital no estructurada, cuya monetización y puesta en valor es viable, según han mostrado ya multitud de empresas en Internet, la explotación de datos masivos, mediante técnicas diferentes a las tradicionales, parece una clara vía de crecimiento y ventaja competitiva, tanto para las grandes empresas, como para las start-ups. Por eso todo el mundo habla del Big Data.

Sin embargo, es evidente que la explotación de la información (combinando la información interna con la información externa) es un enorme reto para la mayoría de empresas, ya que permitirá conocer mejor al cliente y su comportamiento.

La mayoría de empresas o start-ups tecnológicas que operan en Internet ya se han puesto manos a la obra, y existen muchos ejemplos de empresas recientes, como Snapchat (que ha rechazado una oferta de 3Bn€ de Facebook) y la española BigML. Por otro lado, las grandes corporaciones tecnológicas, como IBM, han mostrado públicamente una clara apuesta por el mundo del Big Data como una de las principales fuentes de ingresos a futuro.

El reto es significativamente relevante para empresas de sectores más tradicionales, pero que manejan cantidades enormes de información, como las empresas de telecomunicaciones o las entidades financieras, y que hasta la fecha, a pesar de sus desarrollos, parecen en una posición más retrasada.

Las entidades financieras, por ejemplo, han sido históricamente las compañías que más y mejor información han tenido de sus clientes (ingresos, comportamiento financiero, datos familiares, aversión al riesgo, etc) y que mayor número de modelos estadísticos han desarrollado, bien por exigencias regulatorias (modelos de seguimiento del riesgo) o bien para optimizar ingresos (propensión al consumo en campañas de ventas de tarjetas de crédito).

Sin embargo la mayoría de estos modelos han sido construidos mediante técnicas tradicionales y el grado de optimización y conocimiento de los clientes, a día de hoy, parece muy básico comparado con otras empresas tecnológicas como Google.

Basta citar por ejemplo, que en España se realizan al año más de 3 mil millones de operaciones con tarjetas (entre retiradas de efectivo y compras) y su explotación actual es muy básica.

En los últimos tiempos están surgiendo empresas que optimizan la explotación de la información financiera de los clientes, como Zest Finance y grandes entidades financieras como BBVA están destinando importantes esfuerzos por mejorar sus capacidades en la explotación de datos masivos.

Quizás el mundo del Big Data sea una burbuja, es posible que no sea todo tan sencillo como auguraban, por ejemplo, las predicciones de Google Flu Trends sobre la gripe y que la realidad futura sea menos optimista que algunas de las previsiones. Pero lo que no parece un burbuja en ningún caso, es que existen nuevas técnicas para conocer mejor a los clientes, y que un conocimiento mejor de los clientes genera mayores ingresos. Parece, por tanto, una buena apuesta.

 

, , , , ,

Pin It on Pinterest

Share This