The Daily Prosper
Big Data

Como o Big Data tornou mais eficiente a tomada de decisões empresariais

As soluções baseadas em tecnologias, como o Big Data e o Machine Learning, estão batendo à porta das grandes empresas para melhorar sua eficiência e acabar com os trabalhos mais repetitivos


Imagine uma linha de montagem com centenas de trabalhadores fazendo uma única tarefa: comprovar que as embalagens que vão distribuir a diversos pontos de venda têm a quantidade correta de produto. Soa pouco estimulante e muito tedioso, certo? No entanto, não é algo disparatado. Muitas das grandes redes de fornecimento funcionam, ou funcionavam até pouco tempo, de maneira similar.

Embora os profissionais do setor tenham se dado conta, há vários anos, de que era preciso aplicar soluções tecnológicas a estes problemas, até hoje as ferramentas sempre foram criadas para resolver problemas concretos e necessitavam uma pessoa por trás, revisando os resultados e conectando as soluções.

Nas palavras de Eva MontoroHead of CDO Intelligence do Banco Santander, ditas na abertura do Chief Data Officer Day (CDO) 2018, celebrado em Madri e onde se reuniram os responsáveis pelos dados de algumas das empresas mais importantes da Espanha: “Precisamos de ferramentas que sejam ágeis, simples e flexíveis, que nos permitam conectar o mundo dos negócios com o da tecnologia, pois caso contrário não será possível governar esses dados da maneira correta.”

Otimizar o trabalho, reduzir os erros e melhorar a eficiência

Marco Antonio Serrano, gerente de analítica avançada e Big Data do grupo de supermercados Día, tinha como proposta, em 2017, quando a empresa começou um ambicioso processo de transformação digital, otimizar a rede de distribuição do grupo para melhorar a eficiência empresarial. A situação da qual partiam envolvia uma série de depósitos repartidos por toda a Espanha e uma ferramenta de pedidos automáticos aos fornecedores. “O problema é que esta ferramenta tem falhas, por isso precisamos de uma segunda linha de pessoal que revise os pedidos, o que chamamos de reaprovisionadores”, explicou Marco Antonio.

Estes empregados revisam manualmente ao redor de 18 mil linhas de pedidos, todos os dias. Sua tarefa é comprovar se a ferramenta fez bem seu trabalho ou se, ao contrário, a quantidade que se pede automaticamente aos fornecedores está muito abaixo ou muito acima do necessário, podendo produzir um problema no estoque.

“Notamos que 60% dos pedidos que eles revisam são corretos, estão de acordo com a quantidade proposta e nem precisariam ser revisados.” Por isso, eles decidiram criar um algoritmo, neste caso de supervisão e classificação, que os ajudasse a prever se um pedido deveria ser revisado ou não. “Parece óbvio, mas as empresas perdem muito dinheiro nisso”, justifica a responsável pelo Big Data da rede de supermercados Día.

Eles ensinaram o algoritmo a ler e revisar os pedidos que eram feitos aos fornecedores. Mas que parâmetros seguiram? Os mais de cem milhões de pedidos, de um histórico de 24 meses da empresa, que tomaram como exemplo para este treinamento. O objetivo do programa era detectar os pedidos que não exigiam correção, para que estes nem aparecessem aos reaprovisionadores. Com uma taxa de 86% de acerto, o piloto deste software alcançou sua meta. “O que conseguimos foi economizar milhares de horas de trabalho anuais, cerca de três horas diárias por empregado, o que supõe uma economia de custo muito importante para o negócio”, conclui.

E Marco Serrano afirma: “Agora trabalhamos para alimentar o mesmo modelo com os dados que estão sendo extraídos dos pedidos corretos e das decisões que os reaprovisionadorestomam quando o pedido não é correto, a fim de automatizar estas correções.” Seu objetivo é conseguir a modificação automática de pedidos incorretos até o início de 2019.

Desenhar um modelo de análise para dados que mudam constantemente

Mas o que fazer quando estes dados com os quais treinamos o algoritmo não são estáveis e variam constantemente? Como educar o algoritmo para que certos dias funcione com um grupo de dados e outros dias com um grupo diferente, sem perder sua utilidade e precisão? Este foi o objetivo enfrentado por Marcos Ríos, diretor de analítica da Datacentric, quando seu cliente, uma grande empresa de telecomunicações, propôs um projeto para localizar áreas com maior probabilidade de conseguir clientes.

“Uma empresa dessas tem clientes novos e perde clientes constantemente. Por isso, um modelo tradicional, que reflita uma imagem fixa, não serve”, esclareceu Marcos Ríos durante o encontro. Além disso, eles contavam com o inconveniente de que seriam utilizados dados fixos e privados da empresa (sua carteira de clientes, a taxa de abandono, as queixas), dados fixos públicos, como o censo, o cadastro, orçamentos familiares, idades médias, e também variáveis “que até hoje nunca levaram em consideração, como a localização de suas lojas físicas e as da concorrência; áreas nas quais eles ou a concorrência focavam”.

Em resumo, uma quantidade enorme de dados que não eram homogêneos e que flutuavam a cada momento. Para solucionar o quebra-cabeça, “nos organizamos internamente como um combate”, diz Marcos Ríos. Eles decidiram colocar dois de seus cientistas de dados para competir: um apostou em analisar os dados através de um modelo tradicional de regressão, o outro utilizou um modelo de rede neurais: “O resultado foi um empate: eles explicaram o mesmo, com idêntica precisão”, admite Marcos Ríos.

Porém, a questão não era apenas apresentar um relatório ao cliente, explicando o que acontecia, mas oferecer-lhe esta informação de forma visual, em uma tabela, para que pudesse tomar as decisões correspondentes a cada momento. “Escolhemos o modelo neural pois, para poder tratar toda essa informação mutável, precisávamos de um modelo capaz de aprender”, argumentou Marcos Ríos.

O mesmo Marcos Ríos explica que eles tinham como objetivo “evitar que, a cada seis meses, fosse preciso repetir a análise com dados novos. Se existe uma nova fonte de informação, é melhor que o modelo a analise e se reajuste para continuar funcionando, e não jogar fora o que tínhamos para fazer algo novo”.

Por fim, o que conseguiram foi dotar o cliente de uma ferramenta na qual pudesse visualizar em um mapa, de maneira bem simples, em que áreas devia fazer quais campanhas e para quais clientes. Algo que antes só teria sido possível intuir a longo prazo, com caros estudos de mercado.

Esses dois casos de êxito demonstram que já não se trata de ser vanguardista, mas de poder oferecer soluções inteligentes a problemas empresariais que subtraem eficiência e inibem o crescimento das empresas. Marcos Ríos descreve assim a situação: “Devemos começar a modificar os hábitos internos para poder oferecer esse serviço externo ou ficaremos para trás. E isso não é feito para um cliente, e sim porque a cultura empresarial interna evolui.”

 

Por Belén Belmonte