Até aqui, falamos de estratégia como um processo de escolha em contextos competitivos. Abordamos como empresas precisam definir o jogo que estão jogando, como a limitação de recursos exige priorização e como toda decisão estratégica, no fundo, é uma aposta feita sob incerteza. Construímos, até aqui, uma base estrutural para pensar estratégia com clareza.
Entender isso não é necessariamente simples. Porém, ainda que superemos essa barreira e, intelectualmente, dominemos esses conceitos, tem algo que ainda torna a tarefa de pensar estrategicamente muito difícil: a dimensão mental.
Antes de a estratégia acontecer nos textos ou nas apresentações, ela se forma na mente de quem decide. Cada hipótese estratégica nasce de um processo de julgamento: alguém observa o ambiente, interpreta sinais, organiza informações e propõe um caminho. É nesse nível que a estratégia acontece primeiro — e, muitas vezes, de maneira pouco visível até mesmo para quem a formula.
Em outros artigos, nos referimos à abordagem cognitiva da estratégia, foi justamente para preparar o terreno para essa discussão. Entre os vários campos que estudam a disciplina estratégica que mencionamos no livro Safari de Estratégia de Henry Mintzberg, escolhemos na Sandbox nos valer da linha cognitiva. Isso significa qu entendemos estratégia como algo que não acontece apenas nos modelos analíticos ou nos frameworks técnicos, mas sobretudo no modo como as pessoas pensam e decidem diante da complexidade e incerteza.
Inclusive, o próprio Mintzberg em outro livro- The Rise and Fall of Strategic Planning – desafia a ideia de que estratégia possa ser tratada como um processo puramente lógico e estruturado de planejamento racional. Porque estratégia tender mesmo a ser mais um processo mental de percepção, interpretação, formulação e síntese, que organiza o caos e dá forma às escolhas possíveis.
Compreender essa dimensão cognitiva não é um detalhe conceitual. É uma chave prática. Porque muitas das dificuldades que vemos na formulação de boas estratégias não decorrem apenas de limitações de informação ou de modelos mal aplicados, mas de como as pessoas processam essas informações, constroem narrativas internas e tomam decisões sob pressão, incerteza e múltiplas variáveis ambíguas.
Nos próximos artigos, avançaremos sobre esse território. Iremos além dos fundamentos objetivos — competição, recursos, escolhas, incerteza — e mergulharemos naquilo que, em última instância, comanda todo esse processo: o pensamento estratégico enquanto processo mental. E, principalmente, perceber o que dentro de tudo isso pode mais nos atrapalhar ou ajudar nessa
E se vamos falar disso, não há como contornar o trabalho de Daniel Kahneman e Amos Tversky. Sua contribuição que é mais associada ao que passamos a chamar de economia comportamental se estende ao entendimento mais amplo de como tomamos decisões — e de como frequentemente somos traídos por vieses, atalhos e distorções cognitivas que atuam sem que tenhamos consciência disso em grande parte das vezes.
E, não se engane, um excelente profissional de estratégia não está imune a essas distorções. Ninguém está. O que diferencia o pensamento estratégico de qualidade é justamente a capacidade de reconhecer essas limitações e combater o próprio cérebro de maneira bastante intencional. Isso significa muitas coisas, que veremos ao longo dos próximos artigos. Mas antes, vamos entender exatamente como nosso cérebro funciona e a confusão em que estamos metidos para desenvolver um bom pensamento estratégico.
Como nosso cérebro toma decisões?
Boa parte do que hoje chamamos de economia comportamental nasceu de uma pergunta central: por que as pessoas tomam tantas decisões ruins, mesmo quando têm informações suficientes? Foi essa inquietação que, a partir dos anos 1970, conduziu o trabalho de Daniel Kahneman e Amos Tversky. Juntos, eles desafiaram a visão clássica de que somos, na média, agentes racionais. Ao contrário do que sugeria o modelo tradicional da economia e da teoria das decisões, nossas escolhas não são, na maior parte das vezes, fruto de cálculos frios e objetivos. Elas nascem de processos mentais cheios de atalhos, simplificações e, consequentemente, distorções sistemáticas.
O ponto de partida da dupla não era exatamente novo: psicólogos cognitivos já sabiam que o cérebro humano recorre a heurísticas — regras simples de julgamento — para lidar com problemas. O que Kahneman e Tversky fizeram, de forma inovadora, foi mapear essas heurísticas de maneira sistemática e mostrar como elas produziam erros previsíveis de julgamento, tanto no cotidiano quanto em decisões importantes. Não eram desvios aleatórios: eram padrões.
Ao longo de décadas de pesquisa, eles foram desenvolvendo um modelo cada vez mais robusto para explicar o funcionamento do pensamento humano. Esse modelo ganhou, depois, uma formulação que Kahneman consolidou no livro Rápido e Devagar: Duas Formas de Pensar. Ali, ele apresenta a estrutura que serve como chave para tudo que discutiremos daqui em diante: o funcionamento do cérebro dividido em dois sistemas.
Não se trata de duas áreas físicas distintas no cérebro. É uma distinção funcional — dois modos de operação da mente:
O Sistema 1 é o nosso modo padrão de operação. Ele funciona de maneira veloz, quase instantânea. É automático, não exige esforço consciente e atua o tempo todo em segundo plano. É o responsável, por exemplo, por você perceber rapidamente que o rosto de alguém expressa raiva, por reconhecer uma palavra familiar em um texto ou por saber intuitivamente que 2 + 2 = 4. Ele é associativo: faz conexões rápidas entre informações, preenche lacunas e busca coerência nas histórias que construímos mentalmente.
Mais importante: o Sistema 1 funciona por padrões. Ele se alimenta de experiências anteriores, de intuições formadas ao longo do tempo e de conexões imediatas. É brilhante em situações onde a familiaridade e o hábito ajudam: dirigir um carro numa estrada conhecida, reconhecer uma piada antes que ela termine, entender o sentido de uma frase mesmo com erros de digitação. Sem o Sistema 1, nossa vida cotidiana seria insuportavelmente lenta e cansativa.
O Sistema 2, por sua vez, é o modo do raciocínio consciente, lógico e controlado. É ele quem entra em ação quando você resolve uma conta de multiplicação mentalmente, analisa um contrato complexo, organiza uma apresentação estratégica ou compara propostas de fornecedores. O Sistema 2 exige esforço mental, consome energia e não funciona automaticamente. Ele precisa ser chamado.
É o Sistema 2 que permite o pensamento reflexivo: questionar intuições, revisar julgamentos, desconfiar de respostas óbvias, buscar dados adicionais, considerar cenários alternativos. Em termos de estratégia, é nele que reside nossa capacidade de raciocinar sobre problemas complexos, com múltiplas variáveis, riscos e consequências futuras.
Embora o Sistema 2 seja responsável pelo pensamento analítico de alta qualidade, ele é custoso em termos de energia cognitiva. Nosso cérebro, como qualquer sistema biológico, busca eficiência energética. Como resultado, opera na maior parte do tempo no modo automático do Sistema 1, acionando o Sistema 2 apenas quando há algum gatilho claro de dificuldade ou novidade.
Na prática, isso significa que muitos dos nossos julgamentos e decisões são tomados com base na intuição, mesmo quando as situações exigiriam análise mais cuidadosa. O Sistema 1 dá respostas rápidas, coerentes e confiantes — ainda que erradas. E o Sistema 2, muitas vezes, nem chega a ser chamado para revisar essas respostas.
Voltando um pouco para estratégia, decisões dessa natureza costumam ocorrer em contextos ambíguos, com múltiplas variáveis e sem respostas evidentes. São, portanto, o tipo de problema que pede, quase sempre, a atuação do Sistema 2. Entretanto, como o Sistema 1 domina nossa operação mental cotidiana, a tendência natural é seguir julgando esses dilemas com os mesmos atalhos que usamos em escolhas banais: familiaridade, padrões superficiais, narrativas convincentes, ancoragens iniciais.
Esse descompasso entre o nível de complexidade do problema e o modo automático de julgamento cria o campo perfeito para erros estratégicos — não por falta de inteligência ou preparo, mas porque o próprio funcionamento da mente nos leva a respostas rápidas em situações que exigiriam lentidão.
A seguir, veremos como essa arquitetura mental não apenas permite, mas praticamente convida ao surgimento dos vieses que tornam o pensamento estratégico tão vulnerável. Entender o funcionamento desses dois sistemas é, portanto, o primeiro passo para enxergar a lógica invisível que rege nossas próprias decisões.
Os atalhos do cérebro
Se o funcionamento paralelo dos dois sistemas explica o modo como pensamos, é justamente nessa interação que se formam algumas das maiores armadilhas do nosso raciocínio. E o centro dessas armadilhas está no funcionamento do Sistema 1: seu papel de gerar respostas rápidas, baseadas em padrões anteriores, experiências acumuladas e associações instantâneas.
O Sistema 1, como vimos, foi moldado evolutivamente para a velocidade. Ele existe para fornecer soluções imediatas para problemas cotidianos e emergências. Em muitas situações, cumpre esse papel de maneira extraordinária. Não é por acaso que conseguimos dirigir um carro, fazer uma compra, responder perguntas triviais e tomar inúmeras decisões diárias sem precisar pensar longamente em cada uma delas. O Sistema 1 aplica o que chamamos de heurísticas: regras de bolso, atalhos mentais, simplificações que transformam problemas complexos em julgamentos rápidos e manejáveis.
A ideia de heurística foi justamente uma das grandes contribuições de Daniel Kahneman e Amos Tversky. Ao contrário do que muitos pensam, heurísticas não são um defeito do cérebro — são uma adaptação. Diante de um mundo com tempo limitado, informações incompletas e situações imprevisíveis, o cérebro recorre a essas simplificações como forma de lidar com a complexidade.
Curiosamente, há campos em que as heurísticas não apenas são inevitáveis, mas absolutamente desejáveis. Um dos melhores exemplos disso é o design de interfaces digitais. Quando usamos um aplicativo, navegamos em um site ou operamos um software, dificilmente queremos — ou temos energia mental — para acionar processos analíticos a cada interação. O objetivo do design de experiência é justamente o oposto: fazer com que o usuário navegue de maneira fluida, quase automática, com o mínimo de esforço cognitivo possível.
Para isso, o design se apoia fortemente em heurísticas visuais e funcionais. Ícones que simbolizam ações universais (como a lixeira para deletar, o disquete para salvar ou o símbolo de lupa para buscar) funcionam como atalhos mentais instantâneos. Posições esperadas de menus, cores associadas a ações (verde para confirmar, vermelho para cancelar), hierarquias visuais claras — tudo isso permite que o cérebro do usuário reconheça rapidamente o que deve ser feito, sem precisar pensar conscientemente a cada passo.
Nesse contexto, a grande virtude de uma boa interface é justamente manter o usuário no Sistema 1. Quando o usuário não precisa parar para pensar, não hesita, não se confunde, não fica em dúvida sobre o próximo passo, significa que o design conseguiu construir uma experiência altamente heurística. É por isso que, em design de produto e experiência do usuário (UX), fala-se tanto em redução de fricção cognitiva: quanto menos o Sistema 2 precisar ser acionado, mais natural e satisfatória tende a ser a interação.
Essa lógica mostra como, em certos contextos, as heurísticas não apenas facilitam a vida, mas são essenciais para criar eficiência, agilidade e conforto no uso cotidiano. Elas permitem ao cérebro economizar energia — exatamente sua principal função adaptativa desde o início da evolução humana. Mas, como veremos, o problema aparece quando aplicamos o mesmo tipo de economia cognitiva a decisões que exigiriam outro nível de processamento, como é o caso do pensamento estratégico.
Um cérebro enviesado
Até aqui, entendemos que o cérebro funciona com dois sistemas de processamento — um rápido e automático, outro mais lento e deliberado — e que as heurísticas são atalhos criados pelo Sistema 1 para nos permitir navegar pela complexidade do mundo com eficiência. Mas foi justamente o estudo sistemático desses atalhos que revelou um campo inteiro de distorções: os vieses cognitivos.
Se há um grande mérito na obra de Daniel Kahneman e Amos Tversky, ele está no modo como eles trouxeram à luz algo que acontece todos os dias dentro da mente humana, mas que ninguém havia sistematizado com clareza até então. Antes de seu trabalho, a economia e a teoria da decisão partiam de um modelo de ser humano racional — o chamado homo economicus — que tomava decisões ponderadas, maximizava utilidade e avaliava probabilidades com rigor matemático. A partir dos anos 1970, Kahneman e Tversky começaram a mostrar que esse modelo, embora elegante, estava muito longe de descrever o funcionamento real das nossas mentes.
Mas como eles chegaram a essa conclusão? A resposta está em um método clássico da psicologia experimental: criar situações artificiais, mas controladas, que expõem uma pessoa a um problema de decisão, variam alguns elementos da situação, e observam como a decisão muda. Ao repetir essas experiências com dezenas, centenas ou milhares de participantes, padrões começam a surgir. E foi assim que, aos poucos, os vieses cognitivos foram sendo revelados e classificados.
Talvez o exemplo mais famoso — e um dos primeiros estudados por Kahneman e Tversky — seja o chamado efeito de enquadramento (framing effect). O experimento era relativamente simples. Imagine que um país enfrenta uma epidemia perigosa. São apresentados dois programas para combater a doença, e as pessoas devem escolher qual apoiar:
- Programa A: salvará 200 pessoas com certeza.
- Programa B: há 1/3 de chance de salvar todas as 600 pessoas e 2/3 de chance de não salvar ninguém.
A maioria das pessoas escolhia o Programa A. Agora, os mesmos participantes recebiam uma segunda versão do problema, descrita assim:
- Programa C: 400 pessoas morrerão com certeza.
- Programa D: há 1/3 de chance de ninguém morrer e 2/3 de chance de todas as 600 pessoas morrerem.
Desta vez, a maioria optava pelo Programa D.
Se observarmos com cuidado, veremos que as opções A e C, e B e D, são logicamente equivalentes. Mas as pessoas mudavam suas escolhas dependendo de como o problema era apresentado: salvar vidas (ganho) ou evitar mortes (perda). Esse experimento revelou algo central: as pessoas não respondem apenas ao conteúdo lógico de uma decisão, mas à forma como ela é apresentada — o enquadramento.
A partir de experimentos como esse, ficou claro que nossa mente não calcula risco e benefício de forma puramente objetiva. Ela interpreta, compara, dramatiza e distorce com base em narrativas mentais e associações automáticas. E, ao fazer isso, cai em vieses sistemáticos.
Outro experimento célebre, e bastante ilustrativo, é o da âncora (anchoring effect). Nele, os pesquisadores pediam a diferentes grupos de pessoas para estimar o número de países africanos na ONU. Mas antes de responderem, cada grupo girava uma roda de números (que era manipulada para parar em números baixos ou altos). Quem girava a roda e via um número baixo (como 10) dava respostas consistentemente mais baixas do que aqueles que viam um número alto (como 65). O número aleatório — que não tinha relação alguma com o problema — servia como “âncora” inconsciente e influenciava o julgamento subsequente.
Esse viés da ancoragem é um dos mais poderosos na prática. Ele aparece, por exemplo, em negociações de preços, avaliações de metas, expectativas de vendas e até em julgamentos judiciais. É um exemplo de como o Sistema 1 agarra uma referência inicial e constrói o raciocínio em cima dela — mesmo quando a âncora não faz sentido algum.
Há também o viés da representatividade, outro tema central nos primeiros estudos. Ele descreve como julgamos a probabilidade de algo com base na semelhança com um estereótipo ou padrão mental, em vez de dados estatísticos reais. Um clássico experimento de Kahneman e Tversky apresentava o seguinte perfil:
“Linda tem 31 anos, é solteira, articulada e muito inteligente. Formou-se em filosofia. Quando estudante, esteve profundamente engajada em temas de justiça social e participou de protestos contra a energia nuclear.”
Depois, pedia-se aos participantes que ordenassem a probabilidade de três afirmações:
- Linda é caixa de banco.
- Linda é caixa de banco e ativa no movimento feminista.
A maioria escolhia a segunda opção como mais provável. Mas isso viola as regras básicas da probabilidade: a probabilidade de duas coisas serem verdadeiras ao mesmo tempo (ser caixa de banco e feminista) sempre será menor ou igual à de apenas uma delas (ser caixa de banco). O que operou aqui foi a representatividade: o perfil descrito “parecia” com o estereótipo de uma ativista feminista, levando o Sistema 1 a ignorar a lógica estatística.
Desses primeiros experimentos — simples na forma, profundos no conteúdo — nasceu um mapeamento extenso de vieses cognitivos, que hoje reúne dezenas de categorias. Alguns deles:
- Viés de confirmação: buscar e dar mais peso a informações que confirmam aquilo em que já acreditamos.
- Viés de disponibilidade: julgar a probabilidade de um evento com base na facilidade de lembrarmos de casos recentes ou vívidos.
- Excesso de confiança: superestimar nossa capacidade de prever ou controlar eventos futuros.
- Viés de retrospectiva (hindsight bias): depois que algo acontece, tendemos a acreditar que o desfecho era óbvio e previsível desde o início.
- Efeito halo: deixar que uma característica positiva (ou negativa) de uma pessoa, marca ou situação contamine nossa visão geral dela.
O que todos esses vieses têm em comum é que eles não são fruto de distração, burrice ou falta de atenção. Eles são subprodutos da nossa arquitetura mental: heurísticas úteis na maioria das situações, mas perigosas em outras.
Mais importante: o problema não é que essas distorções aconteçam de vez em quando. O ponto, revelado por Kahneman e Tversky, é que esses vieses são sistemáticos. Não erramos aleatoriamente — erramos de maneiras previsíveis. São padrões recorrentes, que afetam especialistas e leigos, líderes experientes e novatos, estrategistas e operadores. Ninguém está imune. Como diria o próprio Kahneman, “errar é humano — mas algumas formas de erro são mais humanas do que outras”.
Essa descoberta abriu um novo campo de conhecimento. Primeiro conhecido como psicologia do julgamento, depois consagrado como economia comportamental, ele desafiou a visão tradicional do ser humano racional. E trouxe, para quem pensa estratégia, uma lição fundamental: muitas vezes, o maior adversário da boa decisão não está no mercado, nem nos concorrentes, mas dentro da nossa própria cabeça.
No fundo, é isso que torna o pensamento estratégico tão vulnerável. Porque a estratégia lida, quase por definição, com problemas ambíguos, complexos e abertos — exatamente o tipo de terreno em que o Sistema 1, ansioso por clareza e respostas rápidas, costuma aplicar heurísticas que funcionam bem em problemas simples, mas falham perigosamente em problemas complexos.
Nos próximos artigos, vamos entrar em alguns desses vieses cognitivos com mais profundidade — especialmente naqueles que, quando aplicados ao raciocínio estratégico, podem desvirtuar o diagnóstico, viciar as escolhas e comprometer as apostas que uma empresa faz para tentar vencer seu jogo. Porque nem todo viés pesa igual quando o assunto é estratégia — e alguns têm um poder destrutivo muito maior do que outros.