Falhas que Ensinam: Segurança Psicológica e Aprendizado Organizacional
- agmxdirect

- há 7 dias
- 4 min de leitura

Há algum tempo vivi uma experiência que ilustra, de forma muito concreta, como pequenas falhas em sistemas complexos podem revelar grandes lições sobre liderança, cultura organizacional e aprendizagem institucional.
Acompanhei meu pai durante uma internação hospitalar. Em determinada madrugada, ainda na UTI, um enfermeiro entrou para administrar alguns medicamentos. Observando atentamente o procedimento, percebi que ele havia separado um pequeno frasco plástico identificado como OtoCinalar. Não sou médico nem enfermeiro, mas conhecia o medicamento: trata-se de um produto de uso otológico, normalmente prescrito para inflamações ou infecções do ouvido externo. No entanto, naquele momento, o profissional abriu o frasco e — aparentemente sem perceber — aproximou-se dos olhos de meu pai para administrá-lo. Tive que intervir imediatamente. O enfermeiro interrompeu o gesto e percebeu o equívoco antes que ele se concretizasse. A situação levanta perguntas inevitáveis.
Que consequências poderia ter tido aquela ação?
E se fosse outro medicamento, talvez em forma injetável ou com maior potencial de risco?
E se eu não estivesse presente naquela madrugada?
E se estivesse ali outro familiar que não conhecesse o escopo de uso daquele medicamento?
Essas perguntas são importantes porque, quando uma falha ocorre dentro de um processo sistêmico, o objetivo não deve ser encontrar culpados, mas aprender com o erro. A tarefa essencial é identificar suas causas e eliminá-las de forma definitiva. Buscar um culpado é sempre o caminho mais fácil. Quando isso acontece, as perguntas cessam. E quando as perguntas cessam, o aprendizado também.
Falhas em Sistemas Complexos
Naquela madrugada testemunhei uma falha em um ambiente hospitalar — um sistema altamente estruturado e repleto de protocolos. Algumas falhas são benignas; outras podem ser catastróficas. Mesmo sistemas considerados exemplares de disciplina operacional estão sujeitos a erros. Na aviação comercial, por exemplo, cada decolagem é precedida por um rigoroso checklist realizado conjuntamente pelo piloto e pelo copiloto. Ainda assim, falhas podem ocorrer mesmo quando todos os procedimentos são formalmente seguidos. Um exemplo emblemático foi o acidente do voo 90 da Air Florida, ocorrido em um mês de janeiro. A aeronave decolou do Ronald Reagan Washington National Airport com destino a Fort Lauderdale.
Antes da decolagem, o checklist padrão foi realizado:
Copiloto: Sistema de aquecimento de Pitot.
Piloto: Ligado.
Copiloto: Antigelo.
Piloto: Desligado.
Copiloto: APU (unidade auxiliar de energia).
Piloto: Funcionando.
Copiloto: Manete de potência.
Piloto: Marcha lenta.
À primeira vista, o procedimento parece rotineiro. Entretanto, naquele dia as condições climáticas eram de inverno rigoroso, com gelo acumulando-se na aeronave. Acostumada a operar em climas mais quentes, a tripulação manteve automaticamente a configuração habitual — com sistemas antigelo desligados. O checklist foi executado, mas a reflexão não ocorreu. A rotina havia substituído a atenção. A aeronave decolou com gelo acumulado nas asas e sensores comprometidos. Pouco depois, caiu no rio Potomac. O acidente resultou na morte de 78 pessoas. Não se tratou de ignorância técnica, mas de algo muito mais comum e perigoso: a automatização da rotina.
O Paradoxo das Boas Notícias
Considere agora o ambiente organizacional cotidiano. Durante uma semana típica de trabalho, o que você ouve com maior frequência?
Boas notícias: progresso, alinhamento, “está tudo bem”.
Más notícias: problemas, divergências, pedidos de ajuda.
À primeira vista, a primeira opção parece indicar uma equipe saudável e eficiente. A atmosfera é mais leve e a sensação geral é positiva. Paradoxalmente, isso pode ser um sinal de alerta. Em qualquer ambiente de trabalho complexo — marcado por incerteza, pressão e interdependência — é estatisticamente improvável que não existam problemas, divergências ou dificuldades operacionais. Quando as falhas deixam de ser mencionadas, elas raramente deixam de existir. Elas apenas deixam de ser visíveis.
O Silêncio Organizacional
Por que as pessoas evitam relatar falhas?
A resposta é simples e profundamente humana. Ninguém deseja exposição, constrangimento ou julgamento. Muitas vezes há receio de retaliação, impacto na carreira ou perda de reputação profissional. Diante desse cenário, o colaborador frequentemente escolhe uma solução individual: resolve o problema localmente, sem comunicar a organização. Aparentemente, o problema desaparece. Mas apenas na superfície. As causas estruturais permanecem. O sistema não aprende. O erro pode se repetir — às vezes em escala maior. Quem resolve um problema isolado raramente possui a visão sistêmica completa. Por isso, soluções locais podem mascarar fragilidades estruturais.
Em organizações que buscam culpados, o processo costuma seguir um roteiro previsível:
ocorre a falha
identifica-se o responsável
aplica-se uma sanção
o caso é encerrado
O problema é que o medo se instala. E o medo é um poderoso incentivador do silêncio. Quando falhas deixam de ser relatadas, a organização perde sua principal fonte de aprendizado.
A Cultura da Segurança Psicológica
Em organizações que buscam excelência operacional e coesão real — aquilo que podemos chamar de Cultura de Extreme Teamness — o tratamento das falhas segue uma lógica diferente. Todos os colaboradores, em todos os níveis hierárquicos, precisam possuir segurança psicológica para relatar problemas.
Segurança psicológica significa poder dizer:
“há um erro aqui”
“preciso de ajuda”
“este procedimento pode estar errado”
E fazê-lo sem medo de punição, exposição ou retaliação. Isso não significa tolerância com negligência ou irresponsabilidade. Significa reconhecer que, em sistemas complexos, o aprendizado coletivo depende da transparência individual. Organizações que aprendem não são aquelas que eliminam falhas — algo impossível — mas aquelas que as tornam visíveis rapidamente e aprendem com elas. Essa cultura não nasce de manuais ou discursos institucionais. Ela se constrói diariamente, no relacionamento entre líderes e equipes. Quando há confiança mútua, as pessoas falam. Quando as pessoas falam, os sistemas aprendem. E quando os sistemas aprendem, as organizações se tornam mais seguras, mais inteligentes e mais resilientes. No final, a verdadeira força de uma equipe não está na ausência de erros, mas na capacidade magnânima de enfrentá-los juntos e aprender com eles.
Referência conceitual: Amy C. Edmondson, The Right Kind of Wrong: The Best Teams Use Failure to Succeed.

by Asfene G. Macciantelli
The Author of EXTREME TEAMNESS — The Culture of Magnanimous Cohesion



Comentários