Normalmente o processo de BI (Business Intelligence) recebe
como entrada indicadores quantitativos tais como níveis de venda e custos (por
produto, loja, vendedor, departamento, etc). Neste caso, o objetivo do BI é apresentar graficamente os
indicadores e monitorá-los, atualizando-os em tempo real. Estes indicadores são
também chamados KPI (Key Performance Indicators), um termo que vem da
metodologia de planejamento e gestão chamada BSC (Balanced Scorecard).
Para apresentar tais indicadores, então são utilizados os
famosos DASHBOARDS, que são painéis visuais (como na figura 1). Nestes painéis,
os indicadores são apresentados de diferentes formas gráficas (linhas, barras,
mostradores, mapas, etc). O interessante é que os dados podem ser apresentados
em diferentes granularidades de tempo, ou seja, por semana, mês, semestre, ano,
etc, e os painéis podem usar mostradores diferentes para cada período (por
exemplo, ano a ano). o que permite ao usuário comparar indicadores temporais
(ex.: comparar as vendas nos últimos 5 anos).
Os indicadores podem ser apresentados como números (ex.
total de vendas), escalas numéricas ou nominais (ex.: bom, médio, ruim,
inclusive com cores tais como verde, amarelo e vermelho), direcionais (ex.:
setas indicando tendência de subida ou descida no número de clientes), mapas
(ex: cores indicando níveis de venda por região). Menos comuns mas também úteis
podem ser representações de variáveis qualitativas, como por exemplos as tag clouds (ex.: palavras mais
frequentes nas reclamações dos clientes).
Este tipo de abordagem pode ser considerada reativa, pois há
uma entrada bem definida e o analista de BI sabe exatamente o que procurar e o
que apresentar para o cliente.
A minha crítica a este tipo de processo de BI é que ele é
apenas uma evolução dos antigos SIGs (Sistemas de Informações Gerenciais) e dos
EISs (Executive Information Systems). A meu ver, o verdadeiro processo de BI
deve procurar causas para o que está acontecendo.
Os SIGs têm seu valor pois ajudam a apontar qual o produto
mais vendido, em que épocas saem mais ou menos, qual o melhor vendedor, qual o
setor que mais gasta, etc. Já o verdadeiro BI deve procurar encontrar o porquê
de um produto vender mais que outro, de sair mais numa época que noutra, o
porquê de um vendedor ser melhor que outro.
Aí então é que entram as técnicas de análise
multidimensional ou cúbica (OLAP) e as técnicas de Data Mining. Mas o processo
passa a ser um processo de descoberta, como uma investigação ou pesquisa
científica. Em outro capítulo, metodologias para tal processo serão abordadas.
Figura 1: Exemplos de dashboards
Outra forma de fazer BI reativo é analisando a organização,
conversando com clientes e usuários e daí então definindo os indicadores. Isto
acontece porque muitas vezes o cliente não sabe exatamente o que deve
monitorar. Ele tem objetivos ou preocupações (aumentar vendas, diminuir custos,
reduzir reclamações de clientes, etc) mas não sabe bem por onde começar. Aí o
trabalho do analista de BI é procurar entender que tipo de informações seriam
úteis para o gestor atingir seus objetivos.
Agora vamos falar de BI pró-ativo, uma abordagem não muito
comum. Neste caso, a entrada é puramente uma base de dados. O cliente não diz o
que está procurando, quais seus objetivos ou problemas, mas apenas informa que
deseja encontrar algo interessante nos dados. Este paradigma seria bem
representado pela seguinte questão: "o que há de interessante nos meus
dados".
Neste tipo de abordagem, o objetivo não está bem definido.
Ele existe (encontrar algo útil e novo), mas não está claro ou bem detalhado.
Isto funciona como uma busca exploratória, onde o analista está procurando
encontrar coisas interessantes, sem bem saber por onde ir ou como fazer isto. E
não há hipóteses iniciais; o objetivo é justamente tentar descobrir hipóteses
para poder depois testar.
Uma forma de fazer isto é utilizar técnicas de Data Mining
próprias para tal. A técnica de associação, por exemplo, procura correlação
entre variáveis. Foi com este tipo de técnica e uma abordagem pró-ativa que o
Walmart descobriu que quem comprava cerveja na 6a-feira também comprava fraldas
(a famosa lenda do Data Mining).
Neste tipo de Data Mining, um software é utilizado para
encontrar padrões estatísticos nos dados.
Entretanto, outro problema surge que
é selecionar as amostras corretas, pois normalmente não se consegue analisar
todos os dados disponíveis.
E também porque é perigoso trabalhar com uma amostra única
(o conjunto todo de dados). Por exemplo, uma loja analisou 10 anos de vendas e
descobriu um padrão: 90% das mulheres com perfil A compravam o produto X. Ao
analisarem amostras ano a ano, descobriram que a probabilidade do padrão era de
100% nos 9 primeiros anos (ou seja, todas as mulheres do perfil A compraram o
produto X nos 9 primeiros anos). Mas no último ano, nenhuma das mulheres do
perfil A comprou o produto X. A lição é que devemos analisar diversas amostras
e comparar os padrões encontrados em cada uma.
As amostras podem ser definidas por tempo (ano a ano, mês a
mês, etc) ou por algum outro atributo que permita separar os dados com
significado e não aleatoriamente. Por exemplo, pode-se comparar as vendas
feitas por homens X vendas feitas por mulheres, adultos X jovens X 3a idade,
vendas separadas por tipo de produto ou por loja ou por região, etc. Em outro
capítulo, discutiremos técnicas para seleção de amostras.
Assim, pode-se descobrir que um padrão aparece numa amostra e
não aparece noutra (ex.: o caso acima citado do produto X), ou que um padrão
aparece com uma probabilidade numa amostra (ex.: 80% dos clientes do bairro K
utilizam serviço Z) e com outra probabilidade em outra amostra (ex.: apenas 40%
dos clientes do bairro L utilizam o serviço Z).
Normalmente, o ser humano tem a tendência de procurar por
padrões que se repetem, ou seja, que sejam comuns ou mais frequentes. Por
exemplo, quais os produtos mais vendidos, qual o tipo de cliente mais comum,
qual o comportamento típico dos consumidores. Mas algumas vezes o incomum
também é interessante. Por exemplo, investigar por que somente uma pessoa
comprou o produto Y no último mês, por que um vendedor não atingiu a meta (o
normal seria premiar o melhor vendedor e descobrir o que os melhores fizeram de
bom e em comum para que tais melhores práticas sejam repetidas).
Estas peças fora do padrão são chamados de Outliers. Em
alguns casos, eles são mais importantes que o normal. Por exemplo, analisando
saídas de um determinado material do almoxarifado de uma empresa, tem-se uma
padrão de saída (uma quantidade média ou intervalo normal). Entretanto, num
determinado mês, houve muito mais saídas que o normal. Isto deveria gerar um
alerta na empresa. Isto pode estar acontecendo por roubo ou pode estar
indicando uma tendência que a empresa não soube prever.
Concluindo, pode-se dizer que a abordagem pró-ativa é mais
difícil de ser conduzida e até mesmo pode não levar a descobertas
interessantes. A princípio, deve-se sempre procurar iniciar com indicadores bem
definidos, ou seja, usando uma abordagem reativa. A pró-atividade é útil quando
os indicadores já foram esgotados ou quando se quer descobrir algo realmente
novo e inesperado. Muitas empresas utilizam abordagens para Gestão da Inovação
baseadas em descobertas por acidente ou acaso (o que os americanos chamam de serendipity), e este "pulo do
gato" pode fazer a grande diferença em mercados competitivos. Mas isto é papo para
outro capítulo.
Um comentário:
Muito bom o artigo, bem esclarecedor!
Postar um comentário