¿Por qué se identifica el error humano con tanta frecuencia como la causa raíz?
PRIMERA PARTE
James Vesper, PhD, MPH
Director, ValSource Learning Solutions
Este artículo fue adaptado por su autor a partir de Root Cause Investigations for CAPA, Clear and Simple, James Vesper, PDA/DHI (2020).
Traducción: Quím. Farm. Eleonora Scoseria Pérez
Considera esta situación. Llevas toda la semana esperando para ver un evento deportivo por televisión. Enciendes el televisor y ves este mensaje:
Se ha producido una falla en el equipo.
O considera esto. La misma situación, pero en este caso, el mensaje en la pantalla de tu televisión dice:
No hay señal. Compruebe su antena u otra fuente y todas las conexiones.
¿Cuál es más útil o «accionable»? Sin duda, has seleccionado el segundo mensaje porque proporciona detalles sobre lo que debes hacer para corregir el problema.
Ahora considera esta situación. Recibes el aviso de un evento de calidad que indica que ha habido una confusión en los suministros que se enviaron a un sitio de estudio clínico. La causa raíz se identificó como:
Error humano.
O, igual situación, pero en este caso se proporcionan más detalles:
No había una lista de empaque o una lista de verificación para confirmar el contenido del paquete a enviar al sitio de estudio clínico ABC.
¿Cuál de estos escenarios es más accionable?¿Cuál indica una causa que se puede abordar específicamente? Una vez más, el segundo es obviamente el más útil.
Esta analogía ilustra que llamar a algo «error humano» es tan inútil como decir que el «fallo del equipo» fue la causa raíz de un problema. El error humano, en todo caso, es realmente una categoría que necesita ser explorada y definida con mucha más profundidad centrándose en los factores humanos. Cuando usamos el término error humano, nos referimos a una clase de eventos que involucra a personas y a un resultado no deseado, influenciado o debido a factores o causas más específicamente identificados. Estos factores son los que vamos a examinar en este artículo.
El término, factores humanos, se utiliza de dos maneras diferentes. La primera es en el contexto de la ergonomía, específicamente:
… Los factores humanos utilizan el conocimiento de las habilidades y limitaciones humanas para diseñar sistemas, organizaciones, trabajos, máquinas, herramientas y productos de consumo para un uso humano seguro, eficiente y cómodo [HFES, 2019].
El segundo uso, el que es más adecuado para nuestra discusión, lo podemos definir como:
Los factores humanos son los sistemas, procesos, circunstancias, condiciones y causas que llevan a las personas a cometer errores o a fallar en prevenirlos.
Tipos de “causas”
Antes de entrar en más detalles sobre los factores humanos, debemos definir lo que entendemos por «causa raíz» y también varias otras «causas» que a menudo determinamos en una investigación.
Causa raíz: Factores causales que, de corregirse, evitarían la recurrencia de los mismos accidentes o de accidentes similares. Las causas raíz son las causas subyacentes específicas, pueden identificarse razonablemente, su corrección está bajo el control de la gerencia y se pueden desarrollar recomendaciones efectivas para corregirlas /prevenirlas [adaptado de Rooney y Vanden Heuvel, 2004].
Causa contribuyente: Un factor, situación o agente que acelera o intensifica la ocurrencia del evento no deseado. Eliminar la causa contribuyente no impide que se produzca el evento no deseado.
Causa proximal: La acción más cercana en secuencia al evento no deseado. A veces se considera el evento «de no ser por». Por ejemplo, el fuego no habría comenzado «de no ser por» la chispa producida al accionar el interruptor que encendió el combustible. A veces escuchamos la frase, «la gota que derramó el vaso» – esa última gota que derramó el vaso sería la causa proximal.
Clasificaciones
Es posible categorizar las cosas que causan o contribuyen al error humano de diferentes maneras. La más simple consiste en tres grupos:
- Errores de comisión / ejecución. Estos errores involucran realizar incorrectamente una tarea específica, como agregar el material incorrecto a un contenedor, girar la válvula en la dirección incorrecta o tomar una acción incorrecta durante una emergencia.
- Errores de omisión. Estos errores se producen cuando no se ejecuta una acción que debería haber sido ejecutada. Por ejemplo, no presentar todos los documentos requeridos para su revisión, no calibrar un instrumento antes de la fecha de vencimiento indicada o no tomar una muestra en un momento crítico.
- Errores intencionales. Estos eventos deliberados e intencionales ocurren cuando una persona sabe lo que se debe hacer, pero no lo hace. Tomar un atajo no autorizado o violar un procedimiento serían ejemplos de estos.
Las categorías anteriores no proporcionan ninguna información sobre por qué o cómo ocurrieron los errores – esto debe determinarse en una investigación.
Otros investigadores han utilizado el término «activo» o «extremo afilado» de un incidente y «latente» o «extremo romo» del incidente [Reason, 1990]. Latente se refiere a condiciones que pueden haber existido durante mucho tiempo, pero que por alguna razón nunca se han activado hasta que se inició una determinada secuencia de fallas. El «extremo afilado» es donde realmente ocurre el incidente.
Otro enfoque divide los eventos como «fallas de planificación» o «fallas de ejecución» [Reason, 1999]. Los fallos de planificación también se denominan «equivocaciones». En esta situación, una persona realiza correctamente una acción que está destinada a lograr un objetivo deseado, pero la acción no es la adecuada o la acción es inherentemente deficiente. Los errores de ejecución se producen cuando la acción no se realiza correctamente debido a «deslices»- generalmente debido a fallas de atención, percepción o debido a «lapsus» cuando se olvida hacer algo – frecuentemente debido a problemas de memoria.
¿La persona o el «sistema»?
James Reason, una reconocida autoridad británica en el tema del error humano escribe [2000] que hay dos enfoques de investigación que se pueden utilizar (Tabla 1). El primer enfoque, menos constructivo, considera a la(s) persona(s) involucrada(s) en el incidente. El foco se centra en los actos indebidos de la persona y las violaciones intencionales que se hicieron. Se asume que las razones de estos comportamientos inaceptables son defectos personales: no prestar atención, olvidar cosas, negligencia y no ser lo suficientemente cuidadosos. Entonces, ¿qué vamos a hacer al respecto? Vamos a agregar más controles: modificaremos los procedimientos (casi siempre haciéndolos más largos y complicados); vamos a asustar a la persona – «si usted hace esto una vez más, habrá un memo en su legajo personal permanente!’; haremos saber a todos que usted fue la causa de la falla. Y una cosa más: lo obligaremos a recibir el programa de entrenamiento de tres horas nuevamente.
Reason sugiere que hay una manera mejor de considerar las causas de un evento no deseado. Dice que el énfasis debe estar en el sistema y que cuando las personas están involucradas en cualquier tarea, uno necesita reconocer que habrá fallas, porque todos los humanos somos falibles.
Usando el enfoque de sistemas, necesitamos mirar aguas arriba, es decir, considerar los factores organizativos y de proceso que pueden, a menudo sin saberlo, “programar” a alguien para que fracase. Estos pueden ser trampas de error, por ejemplo, libros de registro basados en papel que son inconsistentes en su diseño de un instrumento a otro o tomas para muestreo cuyo acceso por parte de una persona no es seguro o fácil. Lo que podemos hacer al respecto es pensar más ampliamente sobre el problema: cuáles son las defensas y las barreras para las fallas que podemos usar, tal vez equipos que trabajan juntos como un equipo en lugar de simplemente depender de un profesional sobrecargado de trabajo, o tener listas de verificación que una persona capacitada puede usar para evitar omitir un paso crítico o cambiar la ubicación de la toma de muestra.
¿Por qué una proporción tan alta de los llamados errores humanos?
Si le pide a una empresa farmacéutica o biofarmacéutica una lista de las causas de los eventos de calidad, no es raro ver que entre el 30 y el 60 por ciento de los eventos no deseados tienen su causa raíz atribuida al error humano. Las acciones correctivas en estas situaciones son casi siempre entrenar, reentrenar o modificar (es decir, generalmente agregar más detalles) al procedimiento. ¿Por qué se identifica el error humano con tanta frecuencia como la causa raíz? Hay una serie de razones, incluyendo:
- Es rápido y fácil. Se necesita tiempo, recursos y experiencia para hacer una investigación en profundidad. Como escribe la profesora de ingeniería aeronáutica del MIT, Nancy Leveson, «Cuanto menos se sepa sobre un accidente, más probable es que se atribuya a un error humano» [Leveson, 2011, p.37].
- Las investigaciones comienzan demasiado tarde. Las «horas de oro» son las primeras 12-24 horas después de que ocurra un incidente. A menudo, las investigaciones están impulsadas por la necesidad de cerrarlas en un plazo de 30 días, por lo que el verdadero trabajo de investigación comienza una semana antes de la fecha límite. Esto implica que puede haberse perdido evidencia o que los involucrados han olvidado detalles críticos y sutiles.
- Por lo general, hay una persona al final de la cadena de fallas. Este es el individuo desafortunado (o grupo de individuos) que están presentes cuando la causa proximal desencadena la falla. Todos los factores latentes pueden haber existido, pero esa última acción o decisión en particular en el «extremo agudo» es lo que hace que todo salga mal. El mantenimiento puede haberse postergado por lo que el equipo se mantiene funcionando mediante un “patchwork” de arreglos temporales. En un momento aleatorio (y por lo general el peor posible), ocurre algo que cataliza la falla y el personal que está presente es considerado culpable.
- Las personas son vistas como poco confiables y negligentes. Este tipo de declaración se basa en una variedad de sesgos, como el sesgo de atribución, donde las personas juzgan a otros sin ningún hecho o apoyo sustancial.
- Una cultura de la culpa. Si la primera pregunta de la gerencia es: «¿Quién fue?», es muy probable que alguien sea culpado por el fracaso. Otra pregunta que a veces se hace es «¿quién es responsable de esto?» Si se hace esa pregunta, es posible que la gerencia quiera profundizar en el descubrimiento de los factores (y aquellos en puestos de responsabilidad) que pueden estar involucrados.
- Sesgo retrospectivo. Esto a menudo se combina con una cultura de la culpa. Este sesgo es evidente cuando alguien dice: «¡Deberían haberlo sabido!» Cuando estás mirando hacia atrás desde una falla, es fácil juntar las piezas que apuntan a las personas. “¿Por qué no fueron más cuidadosos? Si no hubieran tomado ese atajo, todo habría estado bien.” Nadie parece querer entender por qué se tomó ese atajo. Uno de los contraenfoques del sesgo retrospectivo es reconocer el concepto de racionalidad acotada que dice que cuando una persona toma una decisión, está limitada en el conocimiento, a menudo imperfecto, que tiene en ese momento en particular. [Simon, 1982].
- Señales anteriores no fueron consideradas lo suficientemente importantes como para desencadenar acciones. Estos son los «casi errores» / “casi accidentes” que un sólido programa de seguridad laboral busca y sobre los que toma medidas:
‘No hubo ninguna lesión o daño esta vez, pero, piense en lo que podría haber sucedido. ¿Cómo podemos evitar que esto vuelva a suceder en el futuro? ‘
- “Normalización de la desviación.” Esta fue una de las razones que contribuyeron al desastre del transbordador espacial Challenger de 1986 descrito por la socióloga Diane Vaughn (1996). Las personas se acostumbran a un evento no deseado (la desviación) cuando no hay efectos negativos significativos, por lo que la desviación se acepta como un evento «normal». Pero luego, cuando las circunstancias cambian mínimamente, hay un desenlace trágico. (En la explosión del Challenger causada por un «O-ring» defectuoso, los ingenieros habían visto evidencia del problema antes, pero como no causó problemas graves, se consideró una desviación sin importancia).
- Miedo a decir la verdad al poder. Este es el elefante en la habitación que nadie realmente quiere señalar. Tal vez el incidente se atribuyó a un técnico que estaba haciendo una tarea al final de un doble turno: habían estado trabajando durante 16 horas con descansos limitados. ¿Por qué? ¿No hay suficiente gente? ¿Por qué? ¿Restricciones de contratación? ¿Por qué? A los gerentes se les dijo que recortaran sus presupuestos y se les exigió que tuvieran la misma productividad. ¿Por qué…? Abordar este tipo de problemas requiere una cultura organizacional donde haya seguridad psicológica para que las personas puedan ser honestas con los líderes.
Hay una persona al final de la cadena de fallas.
¿Qué pasa en una cultura «sin culpa»?
Un enfoque que al menos una empresa farmacéutica utiliza es lo que llaman una cultura «sin culpa», que es lo contrario de lo que generalmente ocurre después de que un gerente exige saber: «¿Quién lo hizo?». Esto puede hacer que las personas estén más dispuestas a declarar una falla o casi falla que causaron o presenciaron. Una crítica de tener una cultura sin culpa es que no hace responsables a las personas de sus acciones.
Para errores o fallas que involucran a personas, podría haber otras maneras de abordar esto en lugar de una simple dicotomía de culpa o sin culpa. La Tabla 2 presenta un espectro de razones para el fracaso relacionado con el ser humano de Amy Edmondson [2011]. Su argumento es que algunas desviaciones, es decir, violaciones intencionales, son acciones que pueden ser causa para culpar a la persona.
Las fallas debidas a la falta de atención deben examinarse cuidadosamente para entender el porqué ; tal vez la desviación se debió a una alarma que necesitaba atención, lo que hizo que el operario abordara eso y no atendiera a otra tarea importante.
En todos estos casos, es importante entender el porqué.
Las fallas debidas a la falta de atención deben examinarse cuidadosamente para entender el porque
Otro modelo diferente utilizado por el Departamento de Energía de los Estados Unidos se centra en determinar la intención del individuo. Si las acciones infractoras fueron intencionales pero la falla resultante no lo fue, es una situación muy diferente que si tanto las acciones infractoras como el resultado de estas fueron intencionales; esto último sería considerado como sabotaje.
Cinco principios del desempeño humano
Al tratar de alcanzar el nivel de rendimiento deseado de las personas, hay cinco principios clave que deben tenerse en cuenta [adapted from DOE, 2009].
- Las personas son falibles, incluso las mejores personas cometen errores.
La imperfección es parte de la condición humana. Dado el conjunto «correcto» de condiciones y circunstancias, incluso los expertos pueden omitir un paso crítico o malinterpretar la información debido a un sesgo cognitivo. [Kahneman, 2011].
- Las situaciones con probabilidad de error son predecibles, gestionables y evitables.
La ciencia cognitiva y del comportamiento, así como la experiencia extensa han identificado precursores a los errores, así como las condiciones bajo las cuales los errores son esperables. El enfoque TWIN que se describe más adelante proporciona numerosos ejemplos específicos de cosas a buscar. Al identificarlos en un sistema, trabajo o área, se pueden tomar acciones correctivas.
- El comportamiento individual está influenciado por los procesos y valores organizacionales.
La cultura de una organización – los valores, comportamientos y prácticas que forman el tejido que mantiene unida a una organización – da forma a lo que los individuos hacen y cómo responden a los eventos y situaciones. Si las personas perciben una falta de seguridad psicológica : la creencia de que el ambiente de trabajo es seguro para la toma de riesgos interpersonales [Edmondson, 2019], serán reacios a informar o asumir la responsabilidad de un evento no deseado. Si las personas tienen miedo por sus trabajos – obtener deméritos por comportamientos a menudo triviales o aquellos fuera de su control – es posible que no estén dispuestos a exigirse más allá de los requisitos básicos. Las personas son inteligentes – somos rápidos para ver lo que se recompensa incluso si los comportamientos son inadecuados – y lo que no.
En el informe del Instituto de Medicina titulado, Errar es humano, figuraesta declaración: “Aunque casi todos los accidentes son el resultado de un error humano, ahora se reconoce que estos errores generalmente son inducidos por sistemas defectuosos que «programan a las personas para el fracaso». La corrección de las fallas de estos sistemas es la clave para el desempeño seguro de las personas” [IOM, 2000, p. 169].
- Las personas alcanzan altos niveles de desempeño debido al estímulo y refuerzo recibido de líderes, compañeros y subordinados.
Los conductistas como el psicólogo BF Skinner han demostrado que, en la mayoría de los casos, las formas positivas de retroalimentación y refuerzo producen efectos deseables más duraderos que el refuerzo negativo. Al dar retroalimentación, debe ser:
- Específico : las generalidades no ayudan a las personas a aislar lo que era bueno o lo que necesita mejorar
- Centrado en el comportamiento : ¿cuál fue la acción o decisión que es el verdadero problema? No hagas comentarios sobre la persona. Por ejemplo, «Noté que llegaste 20 minutos tarde a la reunión», en vez de «¿No tienes noción del tiempo?».
- A tiempo / Oportuno – trate de proporcionarlo tan pronto como sea posible después del evento, mientras que todavía está fresco en la mente de la gente.
- Impacto personal : ¿qué efecto podría tener este comportamiento? ¿Qué significa para ti? ¿Qué podría significar para los pacientes?
- Los eventos se pueden evitar a través de una comprensión de las razones por las que ocurren los errores y la aplicación de las lecciones aprendidas de eventos (o errores) pasados.
Como se verá más adelante, ha habido una serie de diferentes modelos y enfoques desarrollados con el objetivo de comprender mejor por qué ocurren los eventos que involucran a las personas. El problema que se ve a menudo en la industria farmacéutica y biofarmacéutica es que no aplicamos estas herramientas que han demostrado su valor en otros ámbitos (por ejemplo, la salud y la seguridad de los trabajadores) o en otras industrias (por ejemplo, la energía nuclear y la aviación). Tenemos que tomarnos en serio estas lecciones.
Ahora que hemos visto que necesitamos examinar más profundamente los factores humanos que pueden conducir a eventos no deseados y contribuir a niveles no deseados de rendimiento humano, podemos mirar algunos modelos y herramientas para ayudarnos a hacer esto.
Necesitamos examinar más profundamente los factores humanos que pueden conducir a eventos no deseados
En la segunda parte de este artículo abordaremos modelos y herramientas para identificar causas que resultan en error humano.
BIBLIOGRAFÍA
- James Vesper, Root Cause Investigations for CAPA, Clear and Simple, PDA/DHI (2020).
- HFES. (2019). https://www.hfes.org/about-hfes/what-is-human-factorsergonomics. Accessed 23 Apr 2021.
- Rooney, J. J., & VandenHeuvel, L. N. (2004). Root cause analysis for beginners. Quality Progress, 37(7).
- Reason, J. (1990). Human error. Cambridge: University Press, Cambridge.
- Reason, J. (1997). Managing the risks of organizational accidents. Aldershot, England: Ashgate Publishing Ltd.
- Reason, J. (2000). Human error: Models and management. BMJ 2000; Vol 320. Pp. 768-770. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1117770/ Accessed 23 Apr 2021.
- Leveson, N. (2011). Engineering a Safer World: Systems Thinking Applied to Safety. Cambridge, MA: MIT Press.
- Simon, H. (1982). Models of bounded rationality and other topics in economics. Cambridge, MA: MIT Press.
- Vaughn, D. (1996). The Challenger Launch Decision: Risky Technology, Culture and Deviance at NASA. Chicago: University of Chicago Press.
- Edmondson, A. (1999). Psychological Safety and Learning Behavior in Work Teams. Administrative Science Quarterly, Vol. 44, No. 2, pp. 350-383.
- DOE. (2009). Human Performance Improvement Handbook, Volume 2: Human Performance Tools for Individuals, Work Teams, and Management. 2009. (DOE-HDBK-1028-2009)
- Kahneman, D. (2011). Thinking, fast and slow. New York: Farrar, Straus and Giroux.
- IOM (2000). To Err is Human: Building a safer health system (complete report). Washington: Institute of Medicine. https://www.nap.edu/download/9728. Accessed 23 Apr 2021.