Super Crunchers Resumo - Ian Ayres

Aprenda a aprender de casa! Para você usar o tempo a seu favor! REDUZIMOS A ASSINATURA EM 30%!

Oferta por tempo limitado!

2765 leituras ·  4.4 avaliação média ·  837 avaliações

Super Crunchers

Super Crunchers Resumo
Marketing & Vendas

Este microbook é uma resenha crítica da obra: Super Crunchers: Why Thinking-By-Numbers Is the New Way to Be Smart

Disponível para: Leitura online, leitura nos nossos aplicativos móveis para iPhone/Android e envio em PDF/EPUB/MOBI para o Amazon Kindle.

ISBN: 978-0553384734

Também disponível em audiobook

Resumo

Inegavelmente, podemos notar que hoje o conhecimento está muito mais democratizado que anos atrás. Antigamente, para termos acesso a dados específicos, era necessário confiar em especialistas, na intuição deles e nas experiências. Hoje, nós podemos ser estes especialistas. Mas disso surge a questão - essa tomada de decisões deve ser feita baseada em fatos ou experiências? Descubra como usar os números ao seu favor neste microbook.

Ideal para ser lido por gestores, empreendedores e administradores, este microbook contém informações indispensáveis para todos os interessados em gestão empresarial. Recomenda-se a leitura em momentos de estudo e concentração.

Ian Ayres é o escritor aqui em questão, professor na Faculdade de Direito de Yale, assim como na Escola de Administração de Yale, ele é o nome por trás de livros como "Carrots and Sticks" assim como "Pervasive Prejudice". Entenda mais detalhes do que este homem tem a ensinar nos próximos 12 minutos.

O conceito e as técnicas de ‘super crunching’

Super crunching é uma forma de tomada de decisão digital. Em vez de confiar na intuição humana, super crunchers analisam enormes bancos de dados de informação para prever estatisticamente a probabilidade de alguma coisa acontecer e quais decisões possuem as maiores chances de sucesso. Agora é matematicamente possível para as empresas preverem o que os clientes gostarão com antecedência, baseando-se em análises detalhadas das preferências agregadas de milhões de outros consumidores, contidas em enormes depósitos de dados. Essa nova capacidade está no cerne do conceito de super crunching. Citando um exemplo: muitas pessoas olham as músicas mais baixadas no iTunes para descobrir quais serão os próximos hits e quais serão um fracasso. De maneira similar, pessoas observam a lista dos livros mais vendidos da Amazon. Esse é um exemplo do que pode ser chamado “a sabedoria das multidões”, que significa que os grandes grupos farão em média recomendações melhores do que indivíduos. A sabedoria coletiva do grupo pode ser utilizada para calcular a média estimada. Muitos outros sistemas avançados e sofisticados estão em processo de desenvolvimento. Todos esses sistemas ‘super crunching’ são baseados em duas técnicas estatísticas conhecidas e fundamentais:

Regressões – foram desenvolvidas inicialmente em 1877 por Francis Galton, um primo de Charles Darwin. Galton descobriu que o tamanho das ervilhas podia ser previsto baseado no tamanho das sementes pais. A descendência das sementes grandes tendia a ser maior que a média, mas cada geração consecutiva não era tão grande quanto seus pais. O tamanho das ervilhas regrediu com o tempo, até alcançar a média de toda a população. Com um banco de dados grande, essas regressões de volta para a média podem ser previstas com precisão. Uma característica da equação de regressão é que ela também indica a precisão da previsão. Atualmente, muitas empresas estão usando a regressão para identificar funcionários potenciais.

Ensaios aleatórios – têm sido utilizados na área médica e em outras áreas desde 1940. O conceito foi sugerido inicialmente por Ronald Fisher em 1925. A ideia é que, se você tem uma amostra grande o suficiente de qualquer coisa e pode dividi-la em dois grupos diferentes, cada grupo vai, na média, se comportar da mesma maneira. Se você faz então uma oferta diferente para um grupo e não para o outro, é possível medir quais os impactos dessa oferta. Ensaios aleatórios permitem que as empresas descubram o que funciona para elas, fazendo ofertas-testes para diferentes grupos de consumidores e comparando então os resultados.

Para que o super crunching funcione no mundo real, alguns elementos diferentes são necessários:

  • Uma grande quantidade de dados – que as empresas podem reunir e guardar internamente ou podem usar empresas especializadas em armazenagem de dados.
  • Uma grande capacidade de processamento de dados – que continua a crescer em poder de processamento e custo efetivo. Ter acesso aos dados dos consumidores só é útil se a empresa tem a habilidade de peneirar esses dados rapidamente para chegar às conclusões proveitosas. Potência de processamento computacional bruta é muito importante.
  • Sistemas de rastreamento precisos – é preciso ter a habilidade de compilar e então comparar os resultados de diferentes testes. A menos que uma empresa tenha seus sistemas preparados para rastrear o que está acontecendo, fica difícil entender os dados.

O modo como estas ferramentas podem ser utilizadas só dependem de você. Por exemplo, o Google faz com que seja fácil para seus usuários testarem diferentes formatos de anúncios e compararem os resultados. O Google permite que os anunciantes do Adwords utilizem múltiplos anúncios para testes de performance. Inicialmente, as diversas versões de cada anúncio serão utilizadas em rodízio para coletar dados. Em seguida, o software decide, então, qual anúncio gera mais cliques e automaticamente passa a usar a propaganda com a maior taxa de cliques.

A questão-chave é que o ‘super crunching’ está mudando o panorama comercial de diversas maneiras. Está ajudando as empresas a tomar decisões melhores e as ajudando a descobrir o que os clientes querem.

Como os super crunching estão sendo utilizados

Os Super crunching não são utilizados apenas no mundo do comércio. Suas técnicas e benefícios estão começando a ser utilizados na política e na medicina. Nesta última, é um tópico de debate altamente controverso.

Em uma era em que os partidos políticos são incapazes de concordar em qualquer coisa, é surpreendente descobrir que há praticamente concordância universal na arena política em relação aos ensaios aleatórios das propostas políticas, no sentido de os considerarem benéficos para o governo. Essa união de ideias foi gerada por algumas histórias espetaculares de super crunching aplicados à políticas públicas. Por exemplo, em 1993, Larry Katz era o chefe economista do Departamento do Trabalho. Ele estava tentando convencer o Congresso de que gastar $2 bilhões por ano para que os desempregados tivessem assistência para procurar empregos em vez de contarem apenas com seus próprios recursos, era uma vantagem. Políticos estavam incrédulos de que essa ideia de Katz funcionasse, então prepararam alguns ensaios dessa nova abordagem em Minnesota, Nevada, New Jersey, Carolina do Sul e Washington. Em cada estado, trabalhadores desempregados qualificados eram designados para um grupo controle que não recebia assistência ou para um grupo de intervenção que recebia ajuda para procurar emprego. Os testes mostraram que os desempregados que recebiam assistência encontravam novos empregos em média uma semana antes do que aqueles no grupo controle. E mais, esses empregos pagavam melhor do que os empregos das pessoas do grupo controle. Com esses dados, o Departamento de Trabalho convenceu o Congresso que as economias geradas com isso seriam mais do que suficientes para financiar os $2 bilhões do programa em nível nacional. Os estudos mostraram claramente que a cada a dólar investido, o governo poupava dois dólares.

Um fenômeno parecido também surgiu na indústria médica. Em 1992, dois médicos canadenses publicaram um manifesto exigindo mais “medicina baseada em evidências”. O conceito deles era simples – a escolha dos tratamentos deveria ser baseada na melhor evidência disponível e não na preferência pessoal do médico. Contudo, a ideia de que os médicos deveriam dar preferência para as evidências estatísticas até hoje é altamente controversa.

Uma organização que está bem desenvolvida em termos de medicina baseada em evidências é o Institute for Healthcare Improvement (Instituto de Melhoria da Saúde), localizado em Cambridge, Massachusetts. Esse instituto americano observa como as pessoas estão morrendo e tenta descobrir se existe alguma evidência estatística de larga escala disponível que sugira como esses riscos podem ser reduzidos. As mudanças sugeridas são simples. Por exemplo, muitos pacientes depois de uma cirurgia desenvolvem infecções no pulmão. Ensaios aleatórios mostraram que elevar a cabeça na cama do hospital e limpar a boca do paciente mais frequentemente, reduzia substancialmente as chances de infecção. Apesar dessa correlação, os hospitais estavam relutantes em mudar a maneira como as coisas sempre foram feitas. Para lutar contra essa mentalidade, o Instituto de Melhoria da Saúde lançou a “Campanha para salvar 100.000 vidas”. Se os hospitais implementassem seis mudanças sugeridas, 100.000 mortes seriam evitadas. Mais de 3.000 hospitais acabaram participando da campanha, com um terço deles aceitando implementar todas as seis mudanças e mais da metade utilizando pelo menos três delas. Em 18 meses, o Instituto anunciou que o programa excedeu seu alvo. Quando as taxas de mortalidade dos hospitais foram comparadas antes e depois do programa, 122.342 mortes foram evitadas.

Apesar do sucesso óbvio desse programa e de outros similares, os médicos ainda estão relutantes em confiar nas estatísticas para ajudá-los a fazer diagnósticos ou decidir os tratamentos. Parte dessa relutância resulta do fato de que estudos médicos levam um longo tempo para saírem dos campos de pesquisa para a prática. Programas de pesquisas médicas baseadas na internet também ajudam os médicos a encontrar os sintomas dos seus pacientes com base nas informações conhecidas.

Diversas universidades de medicina e empresas privadas estão atualmente no processo de desenvolvimento de softwares que ajudem a tomar a decisão de diagnósticos e que possam ser acessados pela internet. Um bom exemplo disso é o programa de diagnóstico chamado “Isabel” – criado depois que a filha de 3 anos de seu criador foi diagnosticada de maneira equivocada com catapora, quando na realidade era portadora de um vírus fatal -. O pai dessa criança foi tão impactado pela experiência, que se demitiu de seu emprego e fundou uma empresa para desenvolver o software e impedir que isso acontecesse com outras pessoas. O banco de dados do Isabel permite que os médicos digitem os sintomas dos pacientes e descubram se é uma reação para mais de 4.000 remédios ou se é algum sintoma de mais de 11.000 doenças específicas. O banco de dados do Isabel foi baseado em artigos científicos publicados no mundo todo e é atualizado constantemente. Foi estimado que o diagnóstico errado é responsável por um terço dos erros médicos e quase 20% das fatalidades ocorridas em hospitais. O Isabel se vende como ‘o Google dos diagnósticos médicos’.

Os super crunching irão impactar na medicina quando a maioria dos registros médicos forem digitalizados e convertidos para formatos eletrônicos. Tradicionalmente, a maioria desses registros se manteve manual e, portanto, tem sido difícil coletar informação suficiente para obter conhecimentos coletivos como resultado. Isso vai mudar quando os dados médicos agregados se tornarem disponíveis. Os médicos serão então capazes de acessar novos bancos de dados em tempo real, que ajudarão nos diagnósticos dos pacientes. Quando isso acontecer, a relutância em adotar a medicina baseada em evidência acabará.

De alguma maneira, a medicina baseada em evidências ilumina a grande questão sobre os super crunching: Quem é mais preciso – os super crunchers ou especialistas tradicionais? Em outras palavras, a intuição e a experiência contam para alguma coisa ou tudo pode ser reduzido a fórmulas computacionais que podem fazer cálculos com maior precisão do que qualquer ser humano?

Estudos têm apresentado uma forte tendência em favor dos super crunchers. Algumas razões para isso são:

  • Especialistas têm predisposições pessoais e preferências que influenciam em seus prognósticos, mesmo inconscientemente. Procedimentos estatísticos são baseados 100% nos fatos.
  • A maioria das pessoas tem a tendência a ser super confiantes sobre suas habilidade de fazer previsões e são lentos para mudar quando novas evidências aparecem. Computadores não têm esses problemas.
  • Seres humanos têm uma tendência cognitiva natural de se preocupar com eventos incomuns. Esses eventos podem distorcer nossa habilidade de fazer previsões precisas sobre o futuro.
  • Procedimentos estatísticos podem não só fazer previsões melhores, mas também mostrar a qualidade dessas previsões. Os seres humanos não são bons nisso.

O debate ser humano versus máquina, ignora a solução óbvia: a combinação de ambos. Se o conhecimento do especialista tradicional é combinado com o conhecimento baseado na experiência das análises numéricas trabalhando com dados de alta qualidade, alguns resultados muito impressionantes podem aparecer. Especialistas tomarão decisões ainda melhores se estiverem acompanhados dos resultados das previsões estatísticas.

Apesar de as máquinas serem boas agora e ainda melhores no futuro, o ser humano ainda precisa adicionar informações a ela. Como seres humanos, podemos fazer a única coisa que as máquinas não podem – criar hipóteses. Sugerimos quais variáveis devem ser incluídas em uma análise estatística.

Também fornecemos os dados. As máquinas podem então calcular todas as regressões para identificar onde existe um efeito causal e o tamanho desse efeito, mas alguém precisa começar especificando quais variáveis devem ser testadas. As máquinas não podem fazer isso sozinhas.

O trabalho humano também envolve excluir os fatores potenciais da análise. Existem infinitas causas potenciais para qualquer feito. A menos que possamos reduzir a lista, mesmo os computadores mais poderosos não serão capazes de processar todos os dados. Os palpites dos seres humanos ainda são essenciais para decidir o que testar e o que excluir.

Para tudo isso, no entanto, os super crunchers estão agora superando especialistas em diversas áreas.

Os potenciais de uso do super crunching

Os super crunching estão cada vez mais presentes em nossas vidas e, pela primeira vez na história, a maioria dos dados são registrados em formato digital. Registros eletrônicos detalham tudo, desde coisas que compramos no supermercado até aquilo que escrevemos para nossos amigos em e-mails privados.

Existem também diversos projetos de digitalização que buscam integrar tudo que já foi publicado e tornar esses dados disponíveis.

O aumento da capacidade dos super crunching é um resultado de diferentes iniciativas: * Inúmeros países estão dispostos a vender informação sobre seus cidadãos. Fornecedores privados e públicos estão agregando informação sobre as pessoas e disponibilizando estes dados para venda. Quando essa informação pública é suprida pelo que as corporações de cartão de crédito já sabem sobre as preferências de compras, inúmeras possibilidades de processamento de dados aparecem. * A internet é muito boa em combinar bancos de dados. Antigamente, esses bancos de dados eram isolados, utilizando diferentes fornecedores e diferentes tecnologias. A internet acaba com esse problema. Além disso, tecnologias melhores existem para mudar o formato dos dados. * A maioria das empresas está se equipando melhor para capturar e unir a informação em formato digital. * O poder do processamento computacional continua a aumentar continuamente, como previsto pela Lei de Moore. A capacidade de armazenamento de dados está dobrando a cada dois anos. O armazenamento de dados tem se tornado mais barato continuamente. * Os cientistas estão começando a desenvolver redes neurais. Em essência, essas redes estão tentando pensar por elas mesmas, enquanto recebem, avaliam e transmitem informação. Os pesquisadores podem adicionar informação a essas redes e combinar diferentes números, podendo chegar a previsões impressionantes. * Sensores em miniatura estão sendo desenvolvidos e podem ser adicionados a produtos na hora da fabricação. Esses nano sensores serão capazes de dizer por quanto tempo você guarda o produto até utilizar, quão longe você transporta o produto e quais outros produtos foram usados em conjunto.

Mesmo nas indústrias que são ligadas à arte, os super crunching tem o potencial de causar grande impacto. Por exemplo, o advogado Dick Copaken desenvolveu uma rede neural para sua startup Epagogix. Essa rede pode prever se um novo filme se sairá bem no cinema, antes mesmo que o filme seja feito. Epagogix baseia suas previsões nas características dos scripts. Quando o sistema foi usado para prever a receita de nove novos filmes baseados apenas em seus scripts e antes que qualquer ator ou diretor tivessem sido escolhidos, acertou os resultados de seis filmes. Isso pode não parecer muito impressionante, mas tenha em mente que os estúdios só acertam um terço das vezes. Epagogix é duas vezes melhor do que a maioria dos especialistas veteranos da indústria.

As vantagens e desvantagens do uso dos super crunchings

À medida que os super crunching são mais utilizados, o status e respeito de muitos empregos tradicionais começam a diluir. Em vez de serem pagos para exercer julgamento, muitas pessoas irão simplesmente conectar os dados em um sistema especializado e fazer o que o software pede. Isso significa que algumas mudanças precisarão ser feitas. Afinal de contas, se você ignora os super crunching e espera que eles vão embora, suas chances de sucesso estarão próximas de zero. Em vez de ignorar tudo, a melhor ideia é utilizar os super crunchings e se tornar um participante ativo na revolução. Essa é a única maneira de ganhar a liderança.

Por exemplo, oficiais de crédito tinham muita influência em bancos. Se você conseguisse que um deles estivesse do seu lado, poderia pegar muito dinheiro emprestado. Hoje em dia, as decisões dos empréstimos são realizadas baseadas em resultados de um algoritmo estatístico. Tudo que os oficiais de crédito fazem hoje em dia é digitar e enviar a informação. Por isso, o salário dos oficiais de crédito caiu muito.

Essas lutas da intuição e da tradição contra a eficiência das abordagens numéricas continuarão acontecendo até que os super crunchings sejam utilizados em todos as áreas. Alguns empregados agora sentem que seus critérios de escolha foram diluídos e até mesmo eliminados. Essa ausência da necessidade de critérios de escolha vai naturalmente significar que os funcionários da base não precisarão ser mais tão habilidosos, barateando o custo por trabalhador. Critérios de escolha e status migrarão dos especialistas para os gerentes de bancos de dados.

Uma das grandes preocupações é que os super crunching irão promover uniformidade ao invés de diversidade. Esse argumento é utilizado especialmente por pessoas no meio artístico, como os cineastas, que acreditam que o ato de se utilizar uma previsão computadorizada para descobrir se um filme será bem sucedido parece muito limitado. Esse medo, no entanto, ignora o fato de que os estúdios têm interferido nas visões artísticas por décadas, buscando aumentar a venda dos filmes. É aceitável que os executivos dos estúdios ditem quem pode estrelar um filme, onde o filme será feito e todas as outras características, simplesmente pelo fato de que podem dizer ‘sim’ ou ‘não’ para o orçamento requerido.

A utilização dos super crunching no cinema está tirando o poder dos executivos dos estúdios e passando esse poder para qualquer pessoa que seja capaz de utilizar computadores para criar invenções melhores. Em vez de as mudanças serem tomadas com base no ego, na era do super cruncher todas as mudanças na visão artística serão tomadas com base em dados, tornando o ambiente mais meritocrático.

Os super crunching também têm seu lado ruim. Quando empresas diferentes fazem análises qualidade, essas iniciativas normalmente ajudam os consumidores. No entanto, quando elas fazem análises de preços, problemas aparecem. Uma empresa pode descobrir quanto dinheiro ela consegue extrair da sua carteira antes mesmo de você comprar algo. Isso abre oportunidades para empresas cobrarem preços diferentes por um mesmo produto para diferentes clientes. Além disso, super crunching pode também ser utilizado para facilitar a discriminação racial. Bancos podem recusar emprestar dinheiro para pessoas que moram em bairros de minorias, porque existe uma concentração de grupos minoritários que apresentam riscos de não pagamento das dívidas. Ou uma empresa de seguros pode se recusar a oferecer cobertura a alguém que tem histórico pobre de crédito porque isso demonstra que a pessoa é de uma raça diferente.

Esses medos são equilibrados com o fato de que a mesma tecnologia que faz os super crunching possíveis, também permite a comparação de preços pelo consumidor. Os clientes podem utilizar empresas como Farecast.com, E-loan, Priceline e Realrate.com para garantir que o preço que está sendo oferecido está na média do mercado. A melhor maneira de os consumidores lutarem com os super crunching é utilizando um pouco deles. Além disso, a visibilidade pública é também um incentivo poderoso. Se provado que uma empresa está discriminando alguém com base em raça ou qualquer outro fator, além da enorme publicidade negativa, essa firma também seria submetida a diversos estatutos e leis que proíbem esse tipo de comportamento.

Algumas ferramentas quantitativas para análises numéricas

Para ser competente em análises numéricas, você precisará se sentir confortável com essas duas ferramentas quantitativas:

  • A regra 2DP – que afirma: “Existe 95% de chance de que uma variável de distribuição normal caia dentro do desvio padrão de sua média”. Para utilizar essa regra, você começa estimando qual seu valor médio e qual seu desvio padrão, ou seja, a margem de erro daquela informação. Quanto menor o desvio padrão, mais precisa é sua informação. A Regra 2DP proporciona uma maneira de traduzir essas estatísticas em números que as pessoas irão entender. Por exemplo: O score médio de QI é 100 com um desvio padrão de 15. A regra 2DP sugere então que cerca de 95% das pessoas terá um QI entre 70 (100 – 2DP) e 130 (100 + 2 DP).
  • Teorema de Bayes – que te permite combinar duas ou mais probabilidades em um único número. Para chegar à probabilidade combinada, multiplique a probabilidade inicial por um único número que represente a “razão de probabilidade”. A razão irá inflar ou desinflar a probabilidade original estimada. O Teorema de Bayes te permite atualizar suas previsões com o tempo, quando informações novas e melhores aparecem. Por exemplo:
    • Mulheres grávidas fazem testes de rotina para Síndrome de Down em muitos países . A probabilidade disso acontecer é calculada como uma combinação de três diferentes indicadores em um exame de sangue. Essas razões são combinadas utilizando o Teorema de Bayes para chegar à probabilidade final de o bebê ter Síndrome de Down. Essa probabilidade pode ser utilizada para determinar se os testes futuros, que são mais confiáveis mas que também apresentam riscos de aborto, devem ser realizados ou não.

    Se você sabe como utilizar a Regra 2DP e o Teorema de Bayes, você será capaz de melhorar a qualidade das suas decisões. Você não saberá o suficiente para se tornar um super cruncher profissional, mas terá base para entender onde a análise numérica é indicada ou não.

Notas Finais

O surgimento do pensamento estatístico em todas as áreas do comércio não significa a morte ou a diluição do valor agregado da intuição. Em vez disso, a intuição precisará ser reinventada para aproveitar o pensamento estatístico. Os tomadores de decisão do futuro precisarão ser competentes em ambos, intuição e decisão baseada em dados, para que possam utilizar o estilo que se encaixe melhor em determinadas situações. A intuição pode te ajudar a fazer as perguntas corretas sobre os dados e o banco de dados vai te permitir testar sua intuição de maneira contínua. Essas duas habilidades são complementares e não substitutas.

Dica do 12': Que tal aprender um pouco mais sobre o uso de dados para a evolução empresarial com o nosso microbook de A Startup Enxuta.

Cadastre-se e leia grátis!

Ao se cadastrar, você ganhará um passe livre de 3 dias grátis para aproveitar tudo que o 12min tem a oferecer.

ou via formulário:

Quem escreveu o livro?

Ian Ayres é um advogado e economista norte-americano. Ele é professor nas faculdades de Direito e Administração de Yale. Ayres ensinou na Faculdade de Direito da Universidade Northwestern, na Faculdade de Direito da Universidade da Virgínia, no Instituto de Direito do Instituto Estadual de Relações Internacionais de Moscou, na Faculdade de Direito da Universidade de Iowa, Faculdade de Direito da Universidade de Illinois, Faculdade de Direito de Stanford, Faculdade de Direito da Universidade de Toronto e Universidade de Yale. Desde 1994, Ayres foi professor de William K. Townsend na Faculdade de Direito de Yale e é professor na Yale School of Management. Ele ensina antitruste, direitos civis, direito comercial, contra... (Leia mais)