top of page
Buscar

Falhas que Ensinam: Segurança Psicológica e Aprendizado Organizacional


F-35 Pilots
F-35 Pilots

Há algum tempo vivi uma experiência que ilustra, de forma muito concreta, como pequenas falhas em sistemas complexos podem revelar grandes lições sobre liderança, cultura organizacional e aprendizagem institucional.

Acompanhei meu pai durante uma internação hospitalar. Em determinada madrugada, ainda na UTI, um enfermeiro entrou para administrar alguns medicamentos. Observando atentamente o procedimento, percebi que ele havia separado um pequeno frasco plástico identificado como OtoCinalar. Não sou médico nem enfermeiro, mas conhecia o medicamento: trata-se de um produto de uso otológico, normalmente prescrito para inflamações ou infecções do ouvido externo. No entanto, naquele momento, o profissional abriu o frasco e — aparentemente sem perceber — aproximou-se dos olhos de meu pai para administrá-lo. Tive que intervir imediatamente. O enfermeiro interrompeu o gesto e percebeu o equívoco antes que ele se concretizasse. A situação levanta perguntas inevitáveis.

  • Que consequências poderia ter tido aquela ação?

  • E se fosse outro medicamento, talvez em forma injetável ou com maior potencial de risco?

  • E se eu não estivesse presente naquela madrugada?

  • E se estivesse ali outro familiar que não conhecesse o escopo de uso daquele medicamento?

Essas perguntas são importantes porque, quando uma falha ocorre dentro de um processo sistêmico, o objetivo não deve ser encontrar culpados, mas aprender com o erro. A tarefa essencial é identificar suas causas e eliminá-las de forma definitiva. Buscar um culpado é sempre o caminho mais fácil. Quando isso acontece, as perguntas cessam. E quando as perguntas cessam, o aprendizado também.


Falhas em Sistemas Complexos

Naquela madrugada testemunhei uma falha em um ambiente hospitalar — um sistema altamente estruturado e repleto de protocolos. Algumas falhas são benignas; outras podem ser catastróficas. Mesmo sistemas considerados exemplares de disciplina operacional estão sujeitos a erros. Na aviação comercial, por exemplo, cada decolagem é precedida por um rigoroso checklist realizado conjuntamente pelo piloto e pelo copiloto. Ainda assim, falhas podem ocorrer mesmo quando todos os procedimentos são formalmente seguidos. Um exemplo emblemático foi o acidente do voo 90 da Air Florida, ocorrido em um mês de janeiro. A aeronave decolou do Ronald Reagan Washington National Airport com destino a Fort Lauderdale.

Antes da decolagem, o checklist padrão foi realizado:

Copiloto: Sistema de aquecimento de Pitot.

Piloto: Ligado.

Copiloto: Antigelo.

Piloto: Desligado.

Copiloto: APU (unidade auxiliar de energia).

Piloto: Funcionando.

Copiloto: Manete de potência.

Piloto: Marcha lenta.

À primeira vista, o procedimento parece rotineiro. Entretanto, naquele dia as condições climáticas eram de inverno rigoroso, com gelo acumulando-se na aeronave. Acostumada a operar em climas mais quentes, a tripulação manteve automaticamente a configuração habitual — com sistemas antigelo desligados. O checklist foi executado, mas a reflexão não ocorreu. A rotina havia substituído a atenção. A aeronave decolou com gelo acumulado nas asas e sensores comprometidos. Pouco depois, caiu no rio Potomac. O acidente resultou na morte de 78 pessoas. Não se tratou de ignorância técnica, mas de algo muito mais comum e perigoso: a automatização da rotina.


O Paradoxo das Boas Notícias

Considere agora o ambiente organizacional cotidiano. Durante uma semana típica de trabalho, o que você ouve com maior frequência?

  1. Boas notícias: progresso, alinhamento, “está tudo bem”.

  2. Más notícias: problemas, divergências, pedidos de ajuda.

À primeira vista, a primeira opção parece indicar uma equipe saudável e eficiente. A atmosfera é mais leve e a sensação geral é positiva. Paradoxalmente, isso pode ser um sinal de alerta. Em qualquer ambiente de trabalho complexo — marcado por incerteza, pressão e interdependência — é estatisticamente improvável que não existam problemas, divergências ou dificuldades operacionais. Quando as falhas deixam de ser mencionadas, elas raramente deixam de existir. Elas apenas deixam de ser visíveis.


O Silêncio Organizacional

Por que as pessoas evitam relatar falhas?

A resposta é simples e profundamente humana. Ninguém deseja exposição, constrangimento ou julgamento. Muitas vezes há receio de retaliação, impacto na carreira ou perda de reputação profissional. Diante desse cenário, o colaborador frequentemente escolhe uma solução individual: resolve o problema localmente, sem comunicar a organização. Aparentemente, o problema desaparece. Mas apenas na superfície. As causas estruturais permanecem. O sistema não aprende. O erro pode se repetir — às vezes em escala maior. Quem resolve um problema isolado raramente possui a visão sistêmica completa. Por isso, soluções locais podem mascarar fragilidades estruturais.

Em organizações que buscam culpados, o processo costuma seguir um roteiro previsível:

  1. ocorre a falha

  2. identifica-se o responsável

  3. aplica-se uma sanção

  4. o caso é encerrado

O problema é que o medo se instala. E o medo é um poderoso incentivador do silêncio. Quando falhas deixam de ser relatadas, a organização perde sua principal fonte de aprendizado.


A Cultura da Segurança Psicológica

Em organizações que buscam excelência operacional e coesão real — aquilo que podemos chamar de Cultura de Extreme Teamness — o tratamento das falhas segue uma lógica diferente. Todos os colaboradores, em todos os níveis hierárquicos, precisam possuir segurança psicológica para relatar problemas.

Segurança psicológica significa poder dizer:

  • “há um erro aqui”

  • “preciso de ajuda”

  • “este procedimento pode estar errado”

E fazê-lo sem medo de punição, exposição ou retaliação. Isso não significa tolerância com negligência ou irresponsabilidade. Significa reconhecer que, em sistemas complexos, o aprendizado coletivo depende da transparência individual. Organizações que aprendem não são aquelas que eliminam falhas — algo impossível — mas aquelas que as tornam visíveis rapidamente e aprendem com elas. Essa cultura não nasce de manuais ou discursos institucionais. Ela se constrói diariamente, no relacionamento entre líderes e equipes. Quando há confiança mútua, as pessoas falam. Quando as pessoas falam, os sistemas aprendem. E quando os sistemas aprendem, as organizações se tornam mais seguras, mais inteligentes e mais resilientes. No final, a verdadeira força de uma equipe não está na ausência de erros, mas na capacidade magnânima de enfrentá-los juntos e aprender com eles.


Referência conceitual: Amy C. Edmondson, The Right Kind of Wrong: The Best Teams Use Failure to Succeed.


by Asfene G. Macciantelli

The Author of EXTREME TEAMNESS — The Culture of Magnanimous Cohesion


 


 
 
 

Comentários


bottom of page