A revolução de data-analytics atualmente em curso tem o potencial de transformar a maneira pela qual as empresas organizam, operam e gerenciam talentos e geram valor. Isso está começando a acontecer em umas poucas empresas – tipicamente nas que estão colhendo frutos importantes de seus dados –, mas está longe de ser a regra. O motivo é simples: os CEOs e outros altos executivos, as únicas pessoas capazes de promover mudanças mais amplas nos negócios de modo a tirar pleno proveito de advanced analytics, tendem a evitar ser arrastados para essa “floresta” enigmática. Por um lado, isso é compreensível. A complexidade das metodologias, a importância crescente de machine learning e a própria escala dos conjuntos de dados fazem com que seja tentador, para os líderes seniores, “deixar isso para os especialistas”.
Porém, isso também é um erro. Advanced data analytics é um assunto de negócios por excelência. Portanto, o CEO e os outros altos executivos devem ser capazes de expressar claramente a finalidade dele e depois traduzi-lo em ação – não só em um departamento de analytics, mas em todas as partes da organização onde os insights serão aplicados.
O presente artigo descreve oito elementos cruciais que contribuem para a clareza de propósito e a capacidade de agir. Estamos convencidos de que líderes com um robusto entendimento desses dois aspectos não só se tornam mais aptos a fazer uma avaliação crítica de suas iniciativas de analytics, como também adquirem maior capacidade de enfrentar muitos dos desafios decisivos e complementares da alta gerência com que se deparam: a necessidade de fundamentar mesmo as aspirações analíticas mais altas em princípios de negócios tradicionais, a importância de implementar uma gama de ferramentas e de empregar os profissionais certos, e a necessidade de aplicar métricas concretas e de fazer perguntas complexas (para saber mais a respeito disso, ver “Straight talk about big data”1 ). Tudo isso, por sua vez, aumenta a probabilidade de melhorar o desempenho corporativo por meio de analytics.
Afinal, em última análise, o que importa é o desempenho – e não conjuntos de dados impecáveis, padrões interessantes ou algoritmos sensacionais. Advanced data analytics é um meio para atingir um fim. É uma maneira exigente de identificar e depois implementar uma resposta que crie valor. E é muito mais provável você encontrar uma resposta com significado se tiver clareza com relação ao propósito dos seus dados (que abordamos nos primeiros quatro princípios deste artigo) e aos usos que fará dos seus dados (nosso foco nos próximos quatro). É claro que essa resposta será diferente nas diferentes empresas, setores e regiões, cuja sofisticação relativa em advanced data analytics varia muito. Qualquer que seja seu ponto de partida, os insights proporcionados por analytics devem estar no cerne da abordagem da sua organização para definir e melhorar o desempenho continuamente, à medida que a dinâmica competitiva evolui. Do contrário, você não estará fazendo advanced analytics trabalhar para você.
Dados “orientados a um propósito”
“Desempenho melhor” tem significados diferentes para empresas diferentes. E isso significa que os diferentes tipos de dados devem ser isolados, agregados e analisados dependendo do caso de uso específico. Às vezes, os pontos de dados são difíceis de encontrar, e não há dúvida de que nem todos os pontos de dados são iguais. No entanto, os pontos de dados que ajudam a atingir seu propósito específico são os mais valiosos.
Faça as perguntas certas
A pergunta exata que sua organização deve fazer depende das suas prioridades mais embasadas. Clareza é essencial. Entre os exemplos de boas perguntas estão “como podemos reduzir os custos?” e “como podemos aumentar as receitas?” Ainda melhores são as perguntas que vão mais fundo: “como podemos aumentar a produtividade de cada membro de nossa equipe?” “Como podemos melhorar a qualidade dos resultados para nossos pacientes?” “Como podemos agilizar drasticamente o desenvolvimento de produtos em termos de time-to-market?” Pense em como você pode alinhar funções e domínios importantes aos seus casos de uso mais relevantes. Faça iterações até chegar a exemplos de negócios reais e investigue para descobrir onde está o valor. No mundo real das fortes restrições de recursos financeiros e tempo, os exercícios de uso de analytics raramente compensam com perguntas mais vagas do tipo “que padrões os pontos de dados revelam?”
Uma grande empresa do setor financeiro errou ao adotar apenas esse tipo de prática aberta: procurou coletar o máximo possível de dados para depois ver o que eles revelariam. Quando surgiram descobertas que eram ligeiramente interessantes, mas monetariamente insignificantes, a equipe mudou o foco. Com um forte apoio dos executivos líderes, ela definiu primeiramente uma declaração de propósito clara, relacionada à redução do tempo de desenvolvimento dos produtos, e depois atribuiu uma unidade de medida específica a esse propósito, com foco no índice de adoção por parte dos clientes. O foco mais nítido ajudou a empresa a lançar produtos de sucesso em dois segmentos do mercado. De forma semelhante, outra organização que conhecemos mergulhou em data analytics ao criar, em primeiro lugar, um “data lake”. Ela despendeu um tempo exagerado (anos, na verdade) para deixar os dados impecáveis, mas quase não se dedicou a determinar quais deveriam ser os casos de uso. Desde então, a gerência começou a dar clareza a suas questões mais urgentes. Mas o mundo raramente tem paciência.
Se essas organizações tivessem colocado os “bois” da pergunta na frente do “carro” da coleta de dados, certamente teriam alcançado um impacto antes, mesmo que somente algumas partes dos dados estivessem prontas para ser exploradas. Em outro exemplo, uma conhecida empresa automotiva enfocou de imediato a questão fundamental de como aumentar seus lucros. Depois, ela se empenhou em reconhecer que a maior oportunidade seria reduzir o tempo de desenvolvimento (e, com ele, os custos) gasto para alinhar suas funções de concepção e projeto. Uma vez que a empresa tinha identificado esse ponto focal importante, ela começou a obter insights aprofundados com base em dez anos de histórico de P&D – o que resultou em tempos de desenvolvimento significativamente menores e, portanto, em lucros mais altos.
Pense bem pequeno... e bem grande
A menor vantagem pode fazer a maior diferença. Veja a notável foto abaixo, das Olimpíadas de 1896, tirada na linha de largada da corrida de 100 metros rasos. Apenas um dos corredores, Thomas Burke, está agachado na posição de quatro apoios, hoje padrão. A corrida começou logo em seguida e, 12 segundos depois, Burke levou o ouro; o tempo poupado por sua posição ajudou-o a vencer. Atualmente, é natural os velocistas largarem assim – uma boa analogia com o mundo dos negócios, em que os rivais adotam melhores práticas rapidamente e as vantagens competitivas são difíceis de manter.
A boa notícia é que os jogadores inteligentes ainda podem melhorar seu desempenho e arrancar de volta à liderança. É improvável que existam “soluções milagrosas”, mas as empresas podem identificar pequenos pontos de diferença para amplificar e explorar. O impacto de analytics de big data costuma se manifestar na forma de milhares – ou mais – de melhorias pequenas e graduais. Se uma organização for capaz de pulverizar um único processo em suas menores partes e implementar avanços onde for possível, os benefícios podem ser substanciais. E, se uma organização for capaz de combinar sistematicamente pequenas melhorias em processos múltiplos e maiores, os benefícios podem ser exponenciais.
Praticamente tudo que as empresas fazem pode ser subdividido em partes constituintes. A GE instala sensores em seus motores de aeronave para monitorar cada parte de seu desempenho em tempo real, permitindo ajustes rápidos e reduzindo enormemente o tempo de inatividade para manutenção. Contudo, se isso parece ser a fronteira da alta tecnologia (e de fato é), pense nos bens de consumo. Conhecemos uma empresa líder do setor de bens de consumo que estava buscando aumentar as margens de uma de suas conhecidas marcas de produtos para o café da manhã. Ela desconstruiu todo o processo de fabricação em incrementos sequenciais e então, com advanced analytics, esmiuçou cada um deles para ver onde poderia liberar valor. Neste caso, a resposta foi encontrada no forno: um ajuste mínimo na temperatura de cozimento não só deixou o produto mais saboroso, como também tornou a produção menos dispendiosa. A constatação da melhoria se deu no paladar – e nos resultados financeiros.
Quando uma série de processos pode ser dissociada, analisada e recolocada em sintonia em um sistema que está mais para universo do que para átomo, os efeitos podem ser ainda mais expressivos. Uma grande siderúrgica usou diversas técnicas de analytics para estudar os estágios cruciais de seu modelo de negócios, entre eles planejamento e previsão da demanda, procurement e gestão de estoques. Em cada processo, a empresa isolou as alavancas-chave de valor e reduziu ou eliminou ineficiências anteriormente desconhecidas, obtendo economias de cerca de 5% a 10%. Esses ganhos, resultantes de centenas de pequenas melhorias viabilizadas por data analytics, proliferaram quando o fabricante foi capaz de interligar seus processos e transmitir informações entre os estágios quase em tempo real. Ao racionalizar um sistema de ponta a ponta, do planejamento da demanda à gestão do estoque, o fabricante obteve economias próximas de 50% – centenas de milhões de dólares, no total.
Aceite os tabus
Cuidado com a frase “entra lixo, sai lixo”; esse mantra ficou tão arraigado no pensamento empresarial, que às vezes impede que os insights venham à luz. Na realidade, os pontos de dados úteis vêm em formas e tamanhos diferentes – e, muitas vezes, estão latentes dentro da organização, na forma de relatórios de manutenção em texto livre ou em apresentações em PowerPoint, entre muitos outros exemplos. Não obstante, com muita frequência, as equipes quantitativas desprezam esse inputs por serem de baixa qualidade, incoerentes ou ultrapassados e desconsideram informações por não se parecerem com “dados”.
Entretanto, podemos chegar a conclusões mais nítidas se fizermos uso de coisas mais difusas. Na vida cotidiana, quando não está criando, lendo ou reagindo a um modelo de Excel, mesmo o analista quantitativo mais ferrenho processa um grande número de informações qualitativas (muitas delas informais, aparentemente um tabu para data analytics) de maneira não binária. Entendemos que há pouquíssimas coisas definidas; nós ponderamos probabilidades, avaliamos os lados positivos e levamos em conta indícios sutis. Pense em quando entra em uma fila de supermercado, por exemplo. Você sempre vai ao caixa 4? Ou observa que, hoje, um funcionário parece mais eficiente, um dos clientes parece estar com dinheiro em vez de cartão de crédito, um dos caixas está sem um auxiliar para ajudar a colocar os produtos nas sacolas e um dos carrinhos está com itens que precisarão ser pesados e embalados separadamente? Tudo isso são informações informais, sem dúvida, e alguns dos pontos de dados são mais fortes que outros. Mas você provavelmente avaliaria cada um deles e mais alguns ao decidir aonde dirigir seu carrinho. Só porque a fila do caixa 4 andou mais rápido das últimas vezes não significa que vai andar mais rápido hoje.
Aliás, embora os dados concretos e históricos sejam valiosos, eles têm seus limites. Uma empresa que conhecemos viveu isso quando instituiu um robusto processo de aprovação de investimentos. Compreensivelmente atenta ao desperdício de recursos financeiros, a gerência insistia que não financiaria nenhum produto novo se não recebesse informações históricas e comprováveis que respaldassem o retorno do investimento do produto. Infelizmente, esse rigor resultou em prazos de lançamento excessivamente longos – tão longos, que a empresa errava sempre o timing do mercado. Só depois de diminuir as restrições referentes aos dados, passando a incluir inputs mais informais, como prognósticos do setor, previsões de especialistas em produtos e comentários nas redes sociais, é que a empresa pôde obter uma ideia mais precisa das condições prevalentes no mercado e programar seus lançamentos de produtos de forma condizente com isso.
É claro que feeds do Twitter não são a mesma coisa que a telemática. Todavia, o fato de as informações estarem incompletas, serem baseadas em conjecturas ou serem notavelmente enviesadas não significa que devam ser tratadas como “lixo”. As informações informais têm o seu valor. Às vezes, elas podem ser até essenciais, sobretudo quando as pessoas tentam “ligar os pontos” entre inputs mais exatos ou fazer sua melhor estimativa quanto ao futuro próximo.
Para otimizar de forma inteligente e matizada as informações disponíveis, as empresas devem se empenhar em desenvolver um modelo robusto de procedência de dados que identifique a fonte de cada input e atribua uma pontuação à sua confiabilidade, a qual pode aumentar ou diminuir ao longo do tempo. Registrar a qualidade dos dados – e as metodologias usadas para determiná-la – é não só uma questão de transparência, como também uma forma de gestão de riscos. Todas as empresas concorrem em meio à incerteza e, às vezes, os dados subjacentes a uma decisão importante podem ser menos certeiros do que se gostaria. Um modelo de procedência bem estruturado pode atuar como teste da segurança de uma decisão go/no-go e pode ajudar a gerência a decidir quando investir na melhoria de um conjunto de dados críticos.
Ligue os pontos
Com frequência, os insights estão situados nas fronteiras. Assim como levar dados informais em consideração pode revelar novos insights, combinar fontes de informações pode tornar esses insights ainda mais nítidos. Muitas vezes, as organizações detalham um único conjunto de dados isolado, mas deixam de considerar o que diversos conjuntos de dados comunicam juntos. Por exemplo, o RH pode ter dados meticulosos de desempenho dos funcionários; as operações, informações abrangentes sobre ativos específicos; e o financeiro, páginas de back-up dos resultados financeiros. Não há dúvida de que é útil examinar cada um dos aglomerados de informações. Mas pode haver um valor adicional inexplorado nos vãos entre os diferentes conjuntos de dados.
Um exemplo instrutivo vem de uma empresa industrial. Sua atividade principal utilizava uma máquina de ponta, capaz de realizar múltiplos processos. Ela custava milhões de dólares por unidade, e a empresa tinha comprado centenas delas – um investimento bilionário. As máquinas forneciam dados de desempenho excepcionais; a empresa podia medir, e de fato media, como cada unidade funcionava ao longo do tempo. Não seria exagero dizer que manter as máquinas em pleno funcionamento era crucial para o sucesso da empresa.
Mesmo assim, as máquinas exigiam reparos mais demorados e caros do que a gerência esperava, e cada hora de inatividade afetava o resultado financeiro. Apesar de uma equipe de analytics bastante competente, incorporada às operações, examinar meticulosamente os dados dos ativos, ela não conseguia encontrar uma causa convincente para as panes. Então, quando os resultados de desempenho foram avaliados em conjunto com informações fornecidas pelo RH, o motivo do output subótimo ficou claro: as máquinas não estavam passando pelas verificações de manutenção programadas porque o pessoal responsável estava ausente em momentos cruciais. Os incentivos na remuneração, e não as especificações do equipamento, eram a verdadeira causa-raiz. Um ajuste simples resolveu o problema, mas este só ficou evidente quando conjuntos de dados diferentes foram examinados conjuntamente.
De outputs à ação
Uma representação visual que vem à mente no caso da indústria mencionada acima é o Diagrama de Venn: quando se observam dois conjuntos de dados lado a lado, um insight fundamental fica claro através da intersecção. E, quando você avalia 50 conjuntos de dados, os insights são ainda mais expressivos – isso se a busca de dados diversificados não criar uma complexidade avassaladora que efetivamente iniba o uso de analytics. Para evitar esse problema, os líderes devem estimular suas organizações a adotar uma abordagem multifacetada da análise de dados. Se as análises são realizadas em silos separados, se os outputs não funcionam em condições do mundo real ou – talvez o pior de tudo – se as conclusões funcionariam, mas não são usadas, isso significa que a prática de analytics falhou.
Execute ciclos, não linhas
Data analytics necessita de um propósito e um plano. Porém, como diz o ditado, “nenhum plano de batalha sobrevive ao contato com o inimigo”. A isso, acrescentaríamos outra ideia militar – o ciclo OODA, concebido por John Boyd, coronel dos Estados Unidos: o ciclo de decisão que consiste em observar, orientar, decidir e agir. Boyd postulava que, muitas vezes, a vitória resulta da maneira pela qual as decisões são tomadas; o lado que reage às situações com maior rapidez e processa as informações com maior precisão deverá triunfar. Em outras palavras, o processo de decisão é um ciclo ou – mais corretamente – uma série dinâmica de ciclos (quadro).
As organizações de nível excepcional adotam essa abordagem para obterem vantagem competitiva. O Google, por exemplo, é insistente em tomar decisões focadas nos dados, em transformar feedback dos consumidores em soluções e em multiplicar rapidamente produtos que as pessoas não só usam, como adoram. Uma abordagem de ciclos, e não de linhas, funciona igualmente bem fora do Vale do Silício. Sabemos de uma empresa farmacêutica internacional, por exemplo, que rastreia e monitora seus dados para identificar padrões-chave, intervém sem demora quando os pontos de dados indicam que um processo pode sair do rumo e aperfeiçoa seu ciclo de feedback para agilizar a passagem de novos medicamentos pelos testes. E um fabricante de produtos eletrônicos passou rapidamente de coletar dados a “fazer os cálculos” com um ciclo de modelagem iterativo e baseado em hipóteses. Em primeiro lugar, criou uma arquitetura de dados provisória, construindo três “fábricas de insights” capazes de gerar recomendações implementáveis para seus casos de uso de alta prioridade, e depois incorporou feedback em paralelo. Tudo isso permitiu que seus primeiros pilotos gerassem resultados rápidos e, em grande medida, autofinanciados.
Agora, os pontos de dados digitalizados estão agilizando os ciclos de feedback. Ao usarem algoritmos avançados e machine learning que melhora com a análise de cada input novo , as organizações podem executar ciclos melhores e mais rápidos. Entretanto, embora machine learning tenha, sem dúvida, seu lugar em qualquer conjunto de ferramentas de analytics, ela não é a única a ser usada, e tampouco esperamos que ela suplante todas as outras análises. Mencionamos os Diagramas de Venn circulares; os adeptos a formas de três lados podem preferir o termo “triangular”. De qualquer modo, o conceito é essencialmente o mesmo: chegar a uma resposta mais robusta, usar uma variedade de técnicas de analytics e combiná-las de diferentes maneiras.
Em nossa experiência, mesmo organizações que contam com algoritmos de machine learning de ponta e usam ciclos automatizados beneficiam-se de comparar seus resultados com uma modesta análise univariada ou multivariada. Aliás, os melhores ciclos envolvem pessoas e máquinas. Um processo de decisão dinâmico em várias frentes apresentará desempenho melhor do que qualquer algoritmo único, por mais avançado que seja, ao testar, iterar e monitorar a maneira pela qual a qualidade dos dados melhora ou piora; ao incorporar novos pontos de dados à medida que são disponibilizados; e ao possibilitar que se reaja de maneira inteligente à medida que os eventos se desdobram.
Torne seus outputs utilizáveis – e belos
Embora os melhores algoritmos possam fazer maravilhas, eles não podem falar por si mesmos na sala de reunião. E, muito frequentemente, os cientistas de dados deixam a desejar em termos de expressar o que fizeram. Isso não é de surpreender: ao contratarem pessoas para funções técnicas, as empresas priorizam a expertise quantitativa, em detrimento das habilidades de apresentação. Mas preste atenção a essa lacuna, ou encare as consequências. Um fabricante de nível internacional que conhecemos contratou uma equipe que desenvolveu um algoritmo brilhante para a precificação de opções de projetos de P&D. Os pontos de dados eram analisados de forma meticulosa, as análises eram inteligentes e robustas, e as respostas estavam basicamente corretas. No entanto, os tomadores de decisões da organização acharam o produto um tanto complicado e não o usaram.
Afinal, somos todos humanos, e as aparências importam. Por isso, uma bela interface inspirará uma análise mais atenta do que cálculos detalhados com apresentação irregular. Por isso, também, a usabilidade elegante e intuitiva de produtos como o iPhone e o termostato Nest vem avançando nas empresas. Analytics deve ser um material de consumo, e as organizações de excelência já incluem designers em suas equipes centrais de analytics. Constatamos que os trabalhadores de toda a organização reagem melhor a interfaces que deixam as conclusões claras e que atraem os usuários.
Desenvolva uma equipe multifuncional
Atrair seus usuários – e, para isso, tirar proveito das habilidades de diferentes indivíduos de toda a sua organização – é essencial. Analytics é um esporte de equipe. As decisões sobre que análises utilizar, que fontes de dados explorar e como apresentar as conclusões são questões que dependem de critérios humanos.
A montagem de uma equipe excelente guarda certa semelhança com a preparação de uma receita gourmet – você precisa de uma combinação de ótimos ingredientes e um toque de paixão. Entre os principais membros da equipe estão os cientistas de dados, que ajudam a desenvolver e aplicar métodos analíticos complexos; engenheiros com habilidades em áreas como microsserviços, integração de dados e computação distribuída; arquitetos de dados e nuvem para apresentar insights técnicos no âmbito de todo o sistema; e desenvolvedores de interfaces com o usuário e designers criativos para assegurar que os produtos sejam visualmente bonitos e intuitivamente úteis. Você também precisa de “tradutores” – profissionais que conectam as disciplinas de TI e data analytics com a gestão e as decisões de negócios.
Em nossa experiência – e, esperamos, na sua também –, a demanda de pessoas com as capacidades necessárias decididamente supera a oferta. Também percebemos que simplesmente colocar dinheiro no problema, fazendo um gasto extra com um quadro de novos funcionários, não funciona. O que realmente funciona é uma combinação: poucas contratações estratégicas, geralmente de funcionários mais seniores para ajudar a liderar um grupo de analytics; em alguns casos, aquisições estratégicas ou parcerias com pequenas firmas de serviços de data analytics; e sobretudo recrutar e recapacitar funcionários atuais com formação quantitativa para que integrem equipes internas de analytics.
Conhecemos diversas instituições financeiras e uma grande indústria que seguiram alguma versão desses caminhos para criar grupos de excelência em advanced data analytics. Um elemento básico do sucesso de cada organização foi entender tanto os limites da contribuição que ela espera de cada pessoa quanto o potencial que uma equipe engajada com talentos complementares pode atingir em conjunto. Ocasionalmente, podem-se encontrar funcionários de um tipo raríssimo, que reúnem todas ou a maioria das capacidades necessárias. Contudo, a melhor aposta é desenvolver uma equipe colaborativa constituída por pessoas que, coletivamente, dispõem de todas as habilidades necessárias.
O ponto de partida, é claro, são as pessoas que estão na “ponta da lança” – aquelas que analisam ativamente os pontos de dados e realizam a parte complexa do analytics. Ao longo do tempo, porém, esperamos que as organizações passem a um modelo no qual pessoas de todas as funções usem analytics em suas atividades diárias. Nessa altura, já não é difícil enxergar as características dos funcionários promissores, com a mente voltada aos dados: são pensadores curiosos, capazes de se concentrar nos detalhes, sentem-se estimulados pelas ambiguidades e exibem abertura a opiniões diferentes e disposição para iterar juntos com vistas a gerar insights que façam sentido, além de serem comprometidos com resultados do mundo real. Este último ponto é fundamental, já que sua empresa não deve estar realizando um experimento científico “bacana” (por mais bacana que o analytics possa ser) de forma isolada. Você e seus funcionários estão empenhados em descobrir insights viáveis – e assegurar que esses insights sejam utilizados.
Faça da adoção seu produto final
A cultura possibilita a adoção. E, a partir do momento que sua organização inicia a jornada de analytics, deve estar claro para todos que a matemática, os dados e mesmo o design não são suficientes: o verdadeiro poder vem da adoção. Um algoritmo não deve ser uma solução pontual – as empresas devem incluir analytics nos modelos operacionais de processos do mundo real e nos fluxos de trabalho do dia a dia. O lendário árbitro de beisebol Bill Klem disse, em sua célebre frase, “isso não é nada até que eu o diga”. Data analytics não é nada até que você o adote.
Vimos muitos casos infelizes que servem de histórias exemplares – desde previsões sismológicas detalhadas (e caras) que líderes de equipes não usaram até indicadores de sistema de voo engenhosos (e incrivelmente precisos) que pilotos de aeronave ignoraram. Em um caso particularmente impressionante, uma empresa que conhecemos parecia ter reunido tudo: ela tinha uma missão claramente definida – aumentar o faturamento –, fontes de dados robustas, ponderadas e exploradas de forma inteligente, analytics fora de série e conclusões perspicazes sobre as oportunidades de vendas cruzadas. Havia até uma interface elegante, na forma de janelas pop-up que apareciam na tela dos representantes do call center, acionadas automaticamente por software de reconhecimento de voz, para destacar certos produtos com base no que o cliente estava dizendo em tempo real. Absolutamente genial – a não ser pelo fato de os representantes fecharem as janelas pop-up e ignorarem os avisos. A remuneração deles dependia mais de terminarem logo as chamadas e menos da quantidade e do tipo dos produtos que vendiam.
Todavia, quando todos trabalham em conjunto e os incentivos estão alinhados, os resultados podem ser incríveis. Em outro exemplo, uma empresa aeroespacial precisava avaliar uma série de opções de P&D para seus produtos de última geração, mas enfrentava importantes desafios tecnológicos, mercadológicos e regulatórios que tornavam o resultado incerto. Algumas opções tecnológicas pareciam ser apostas mais seguras, tendo em vista o histórico de resultados, e pareciam estar surgindo outras oportunidades de alto potencial, mas que ainda não eram comprovadas. Associada à trajetória do setor, que parecia estar passando de um modelo centrado em produtos para um centrado em serviços, a variedade de potenciais caminhos e de prós e contras complexos exigia uma série de decisões dinâmicas – e, é claro, corretas.
Ao formular as perguntas certas, testar as opções e, especialmente, comunicar as alternativas com um modelo visual elegante e interativo que as habilidades de design tornaram bonito e utilizável, a organização descobriu que aumentar o investimento em determinado caminho de P&D ainda manteria três opções tecnológicas abertas por um período mais longo. Com isso, a empresa teve tempo suficiente para observar em que direção a tecnologia evoluiria e evitou a pior situação, que seria ficar presa a uma opção muito cara e muito equivocada. Um executivo comparou a flexibilidade resultante à “escolha entre apostar em um cavalo no início da corrida e, pagando um pouco mais, poder apostar em um cavalo no meio da corrida”.
Não é coincidência que esse final feliz tenha se dado da mesma maneira que a iniciativa tinha começado: com o envolvimento da alta gerência. Em nossa experiência, o melhor indicador, no primeiro dia, de um programa de data analytics bem-sucedido não é a qualidade dos dados à mão, nem o grau de habilidade do pessoal interno, e sim o comprometimento da liderança da empresa. É necessária a perspectiva dos executivos líderes para ajudar a identificar as principais questões de negócios, fomentar a colaboração entre as funções, alinhar os incentivos e insistir que os insights sejam usados. Advanced data analytics é formidável, mas sua organização não deve trabalhar simplesmente para colocar uma iniciativa de advanced analytics em funcionamento. Afinal, a questão é exatamente colocar analytics para trabalhar para você.