Cómo el Big Data ha mejorado la eficiencia en la toma de decisiones empresariales

Las empresas son las primeras que se suben al carro del desarrollo tecnológico. Entre sus objetivos principales está evitar costes innecesarios y mejorar su productividad.

Leerlo te llevará 4 minutos
Las soluciones basadas en tecnologías como el Big Data o el Machine Learning están llamando a la puerta de grandes empresas para mejorar su eficiencia y acabar con los trabajos más repetitivos

Imagine una línea de montaje con cientos de trabajadores haciendo una única tarea: comprobar que los envases que van a distribuir a los diferentes puntos de venta tienen la cantidad correcta de producto. Suena poco estimulante y muy tedioso ¿verdad? Bien, pues no es algo tan disparatado. Muchas de las grandes cadenas de suministro de nuestro país funcionan, o funcionaban hasta hace poco, de manera similar.

Aunque hace años que los profesionales del sector se dieron cuenta de que hacía falta poner soluciones tecnológicas a estos problemas, hasta ahora las herramientas han sido creadas para resolver problemas concretos y necesitaban una persona detrás que revisase los resultados y conectase las soluciones.

En palabras de Eva MontoroHead of CDO Intelligence de Banco Santander, en la apertura del  Chief Data Officer Day (CDO) 2018 celebrado en Madrid, “necesitamos herramientas que sean ágiles, sencillas y flexibles que nos permitan conectar el mundo del negocio con el de la tecnología porque si no, no podremos gobernar esos datos de manera correcta”.

Optimizar el trabajo, reducir los errores y mejorar la eficiencia 

Marco Antonio Serrano, manager de Analítica Avanzada y Big Data del Grupo Día, se propuso en 2017, cuando la compañía comenzó un ambicioso proceso de transformación digital, optimizar la cadena de suministro del grupo para mejorar la eficiencia empresarial. La situación de la que partían era una serie de almacenes repartidos por la geografía española y una herramienta de pedido automático a proveedores. “El problema es que esta herramienta tiene fallos y por eso necesitamos una segunda línea de personal que los revise, a los que llamamos reaprovisionadores”, explicó durante su ponencia.

Estos empleados revisan manualmente alrededor de 18.000 líneas de pedidos al día. Su tarea es comprobar si la herramienta ha hecho bien su trabajo o si, por el contrario, la cantidad que se pide automáticamente a los proveedores está muy por debajo o muy por encima de lo necesario y se puede producir una ruptura de stock.

“Nos dimos cuenta de que el 60% de los pedidos que revisan son correctos y están de acuerdo con la cantidad propuesta, por lo que no habría ni que mirarlos”. Por eso decidieron crear un algoritmo, en este caso de supervisado y clasificación, que les ayudase a predecir si había que revisar un pedido o no. “Parece muy obvio, pero a las empresas se nos va mucho dinero en eso”, justifica el responsable de Big Data de la cadena de supermercados.

Enseñaron al algoritmo a leer y revisar los pedidos que se hacían a los proveedores. ¿El manual? Más de cien millones de pedidos del histórico de 24 meses de la compañía que han tomado como ejemplo para este entrenamiento. El objetivo de este programa era detectar esos pedidos que no necesitaban corrección para que ni siquiera se les mostrasen a los reaprovisionadores. Con un 86% acierto, el piloto de este software ha logrado su meta. “Lo que hemos conseguido es evitar realizar muchas miles de horas de trabajo anuales, unas tres horas diarias por empleado, lo que supone un ahorro de costes para el negocio muy importante”, concluye.

Serrano añade: “Ahora trabajamos en alimentar el mismo modelo con los datos que están extrayendo de los pedidos correctos y de las decisiones que los reaprovisionadores toman cuando el pedido es incorrecto, para para automatizar esas correcciones”. Su objetivo: conseguir la modificación automática de pedidos incorrectos a principios de 2019.

Diseñar un modelo de análisis para datos que cambian constantemente

Pero, ¿qué hacer cuando esos datos con los que entrenas al algoritmo son inestables y varían constantemente?; ¿Cómo educar al algoritmo para que unos días funcione con unos datos y otro día con otros sin perder su utilidad y precisión? Ese fue el reto al que se enfrentó Marcos Ríos, director de Analítica de Datacentric, cuando su cliente, una gran empresa de telecomunicaciones, les propuso un proyecto para localizar las zonas donde había más probabilidades de conseguir clientes.

“Una compañía así tiene clientes que se dan de baja y de alta constantemente, por lo que un modelo tradicional que refleje una foto fija hoy no sirve”, aclara durante el encuentro. Además, contaban con el inconveniente de que se iban a utilizar datos fijos y privados de la compañía (su cartera de clientes, la tasa de abandono, las quejas), datos fijos públicos como el censo, el catastro, presupuestos familiares, edades medias, y también variables que “hasta ahora no se habían tenido en cuenta como la ubicación de sus tiendas físicas, las de la competencia, zonas donde habían hecho foco ellos o la competencia”.En resumen, una cantidad ingente de datos que no eran homogéneos y que fluctuaban en cada momento.

Para solucionar el rompecabezas “lo planteamos internamente como un combate”, afirma. Decidieron poner a dos de sus científicos de datos a competir: uno apostó por analizar los datos a través de un modelo tradicional de regresión y otro utilizó un modelo de red neuronal. “El resultado fue un empate: se explicaba lo mismo con la misma precisión”, admite Ríos.

No obstante, no solo se trataba de presentar un informe al cliente explicándole lo que estaba pasando, sino de ofrecerle la información de forma visual en un tablero para poder tomar las decisiones correspondientes en cada momento. “Nos decidimos por el modelo neuronal porque para poder tratar toda esa información cambiante necesitábamos un modelo que pudiese aprender”, argumentó.

Ríos explica que lo que perseguían era “evitar que cada seis meses hubiese que repetir el análisis con los datos nuevos. Si hay una nueva fuente de información es mejor que el modelo la analice y se reajuste para seguir funcionando, no tirar lo que ya teníamos y volver a hacer uno nuevo”.

Finalmente, lo que consiguieron fue dotar al cliente con una herramienta para poder visualizar en un mapa de forma muy sencilla en qué zonas deben hacer qué campañas y para qué clientes. Algo que antes solo hubiese sido posible intuir a largo plazo con costosos estudios de mercado.

Ambos casos de éxito demuestran cómo ya no se trata de ser vanguardista sino de poder dar soluciones inteligentes a problemas empresariales que restan eficiencia y que evitan crecer a las organizaciones. Marcos Ríos lo describe así: “O empiezas a modificar tus hábitos internos para poder dar ese servicio externo o te quedas atrás. Esto no se hace para un cliente, se hace porque la cultura empresarial interna evoluciona”.

Por Belén Belmonte

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Quizás te guste

Los beneficios del ‘big data’ en la educación

El desarrollo tecnológico llega a las aulas. Gracias al Big Data, los profesores pueden diseñar planes de estudios personalizados para cada alumno y controlar la forma en la que trabajan.

Machine learning: la tecnología que usan las empresas para innovar

Las TIC (Tecnologías de Información y Comunicación) se han integrado de tal…