DIGITAL ISSN 2953-4739
Revista de Seguridad Operacional #4
(ago 2023-feb, 2024): [70-74]
ark:/s29534739/mt5lq3gub
ARTÍCULO DE INVESTIGACIÓN
Seguridad y aprendizaje desde la perspectiva de la Seguridad II
Safety and learning from a Safety II perspective
Erik Hollnagel, Ph. D. Licenciado en Psicología, profesor emérito en la Universidad de Linköping (Suecia), Mines Paristech (Francia), Universidad del Sur de Dinamarca (Dinamarca), y profesor invitado en la Universidad Macquarie (Australia). https://orcid.org/0000-0003-1666-7507 [email protected].
Resumen
Este trabajo desarrolla los principales debates que giran en torno a la seguridad operacional a través de distintos ejes: aprendizaje de evitación vs. aprendizaje de habilidades y trabajo imaginado vs. trabajo real.
Asimismo, se hace un recorrido histórico que parte desde la perspectiva de la Seguridad I hasta los nuevos enfoques en seguridad.
Abstract
This paper deals with the impact of the Covid 19 pandemic on Argentine commercial aviation. Through an articulated statistical analysis based on different sources, this paper discusses the before and after in the commercial aviation activity and outlines future perspectives.
Palabras clave: Trabajo tal como se Imagina - Seguridad Operacional - Trabajo tal como se Realiza - Seguridad II, Gestión de Riesgos.
Keywords: Work as Imagined, Operational Safety, Work as Performed, Safety II, Risk Management.
Recibido: 23/10/23
Aceptado: 17/12/23
Este trabajo está bajo una Licencia Creative Commons Atribución 4.0 Internacional
Resiliencia y fallo
El enfoque de la seguridad y su gestión han experimentado un cambio en los últimos años. Se pasó de una mirada centrada en el análisis de riesgos y accidentes, y la gestión de errores y fallos para manejar la prevención y protección —lo que se conoce como la perspectiva de la Seguridad I— a un enfoque que busca comprender las capacidades potenciales de los sistemas sociotécnicos para facilitar y respaldar el trabajo productivo cotidiano —la perspectiva de la Seguridad II— (Hollnagel, 2014).
Es importante que en la comprensión de la seguridad dentro de las organizaciones es el reconocimiento de las diferencias entre el Work-as-Imagined (el trabajo-tal-como-se-imagina, TTI) y el Work-as-Done el trabajo-tal-como-se-efectúa, TTE). El concepto de trabajo correcto e impecable[1], llevado a cabo bajo condiciones previsibles y estables, pertenece al TTI; mientras que el TTE refiere a lo que realmente sucede, es decir, se trata de un paradigma que reconoce que las personas en contextos diferentes, en todos los niveles de una organización, desde la primera línea en el terreno, hasta el punto más alto en la sala de juntas o la oficina de un gerente, siempre tienen que ajustar lo que se planificó a las circunstancias reales, que rara vez coinciden exactamente con la visión idealizada del trabajo[2]. El trabajo imaginado asume que, si se cumplen rigurosamente los procedimientos estándar correctos siguiendo hasta el mínimo detalle, la seguridad devendrá como una consecuencia natural. Mientras que el TTE, por su parte, reconoce cómo las personas en todos los niveles de una organización aprenden a crear seguridad en su trabajo, a través del rendimiento; ajustes que no solo son deseables, sino esenciales[3]. Los aspectos positivos de los sistemas sociotécnicos complejos que permiten buenos resultados en presencia de diferentes condiciones favorables y desfavorables, esperadas e inesperadas, cambios y oportunidades, pertenecen al enfoque de la ingeniería de resiliencia y la Seguridad II.
La necesidad del aprendizaje
El aprendizaje es necesario para un organismo o sistema, ya que permite cierta variedad o variabilidad en las respuestas. Si el entorno es perfectamente predecible y, por lo tanto, estable, las mismas cosas ocurrirán repetidamente, y si es perfectamente predecible, es posible preparar respuestas para todos los eventos y situaciones posibles, ya que su número será fijo y limitado. Estas preparaciones pueden hacerse de manera intencional, tal como en el diseño de un sistema, por ejemplo, con los procedimientos de operación de emergencia en centrales nucleares y otras instalaciones críticas para la seguridad; o bien pueden ocurrir de manera evolutiva si los cambios en las condiciones de operación son infrecuentes y limitados, como las transformaciones estacionales en el clima.
Vale subrayar nuevamente que el aprendizaje es necesario porque, si las respuestas no pueden ajustarse o mejorar para adaptarse a las condiciones cambiantes, inevitablemente habrá situaciones en las que una respuesta no esté disponible, lo que significa que una situación o desarrollo puede salirse de control. Los cambios son necesarios no solo en las respuestas, sino también en el conjunto de condiciones, señales, indicadores o patrones que pueden detectarse y reconocerse. Esto da cuenta del potencial que tiene el monitoreo. Si algo sucede inesperadamente, no solo es una sorpresa, sino que, aunque haya una respuesta planificada —que en el peor de los casos podría ser genérica, como huir o retirarse—, cabe la posibilidad de que esta no se logre llevar a cabo debido a falta de recursos, materiales o personal para afrontar dicha situación. Por ejemplo, las dificultades que se generaron durante la evacuación de incendios forestales en Rhodes, en 2023. En la práctica, simplemente no es posible ni asequible estar constantemente preparado para responder a todo de inmediato. Las sociedades proporcionan innumerables ejemplos de ello, como los tiempos mínimos de espera para una brigada de bomberos, una ambulancia, el tratamiento para una enfermedad diagnosticada como el cáncer, e incluso las demoras en la respuesta del servicio de atención al cliente, o la asistencia de un empleado de ventas en una tienda, sin mencionar a un camarero en un restaurante.
Razones para el aprendizaje
La Seguridad-I define a la seguridad como un estado en el que se falla lo menos posible. Por lo tanto, siempre que algo haya fallado, corremos a la conclusión incorrecta de que necesitamos aprender de ello para asegurarnos de que no vuelva a ocurrir. En contraste con eso, la Seguridad-II define la seguridad como un estado en el que todo va lo mejor posible, operaciones diarias. La Seguridad-II se enfoca en operaciones de cada día donde se tiene que variar para continuar el trabajo. Esto conduce a la conclusión opuesta, a saber, que cuando algo ha salido bien debemos aprender de ello para asegurarnos de que también salga bien en el futuro. El argumento subyacente es que, en el mundo macroscópico, un evento o actividad no puede salir bien y fallar al mismo tiempo (teóricamente, esto puede suceder en un mundo cuántico, pero pocas industrias operan allí). El resultado de un evento puede ser juzgado desde diferentes perspectivas, pero generalmente estas no se contraponen completamente[4]. Por lo tanto, es esencial hacer la pregunta sobre qué necesitamos aprender y por qué aprender de las operaciones diarias.
El aprendizaje es uno de los cuatro potenciales del rendimiento resiliente (Hollnagel, Licu y Leonhardt, 2021): aprender (de los hechos y la experiencia, conocer el pasado), responder (desempeño actual), monitorear (lo crítico, interna y externo) y anticipar (investigando lo que puede pasar en el futuro inmediato). La esencia del aprendizaje es la mejora o el cambio[5], ya que se basa en cómo responde un sistema sociotécnico complejo, cómo se monitorea y cómo se anticipa. El aprendizaje es una forma en que es posible mejorar las respuestas de un sistema basándose en su funcionamiento actual. Si un sistema siempre presta atención a las mismas señales, indicadores o tendencias, y siempre responde de la misma manera a lo que sucede, eventualmente no funcionará a cambios inesperados o que no se pueden identificar. Esto puede ocurrir lentamente y a lo largo de un prolongado período de tiempo, como en la teoría de la evolución. Pero en la sociedad compleja actual, donde los cambios en las condiciones, los recursos y las demandas son rápidos, el aprendizaje debe ser igualmente rápido para ser efectivo y variable. La presentación de informes aún puede ser un preludio para el aprendizaje, pero los informes deben analizar lo que funciona bien, en vez de examinar aquello que falla. En otras palabras, el aprendizaje debe basarse en las operaciones y las variaciones diarias necesarias para el funcionamiento continuo, en lugar de en los fallos y accidentes.
Sin embargo, los informes en sí suelen ser excepcionales en lugar de una rutina diaria. Por lo tanto, estos informes no sirven adecuadamente para el aprendizaje. La solución simple es eliminar los informes como la etapa previa para el aprendizaje, que debería ser más que un aprendizaje de evitación. En su lugar, deberíamos involucrarnos en el aprendizaje directamente de todas las operaciones diarias aprendiendo el porqué del buen funcionamiento, lo que tendría consecuencias significativas. Hoy en día, aprendemos principalmente de lo que ha salido mal, porque el aprendizaje se desencadena por la presentación de informes de lo que ha salido mal; esto también es conocido como el dogma de Heinrich. No obstante, los informes deberían ser guiados por la necesidad de aprender y aumentar la comprensión del funcionamiento del sistema sociotécnico en su contexto de operación. Hacer la pregunta sobre por qué el sistema funcionó bien pone en otra perspectiva para el aprendizaje. Convencionalmente, aprendemos de lo que es la excepción en lugar de la regla. Por el contrario, en vez de propiciar que los informes se limiten a lo que ha salido mal o ha fallado, se debería poner el foco en lo que se necesita aprender. Los informes deben servir al propósito del aprendizaje, pero el aprendizaje no debe ser simplemente un apéndice de los informes.
La hipótesis de diferentes causas
Cuando algo sale mal, prestamos atención de manera incondicional, porque destaca como algo inusual[6]. Y debido a esto, concluimos erróneamente que no lo entendemos (o que no hemos sido capaces de controlarlo)[7]. Sabemos que no lo entendemos ni controlamos[8]. Porque si lo hubiéramos entendido —y la comprensión es un requisito previo para el control—, entonces no habría salido mal.
Cuando algo sale bien, cuando funciona, solo prestamos una atención limitada, si es que lo notamos en absoluto. Esto concuerda con el principio conocido como ETTO (por sus siglas en inglés), compensación eficacia-minuciosidad. (Hollnagel, 2009). Cuando algo sucede como debería, generalmente lo ignoramos y se clasifica técnicamente como un evento dinámico no significativo (Weick, 1987). Debido a que ocurrió como esperábamos, pensamos que lo entendemos y creemos que sucedió como se esperaba porque lo controlamos efectivamente. Por lo tanto, rara vez nos preocupamos por lo que simplemente funciona como debería. Y cuando sucede algo inesperado, pero ventajoso, simplemente nos sentimos afortunados[9]. El trabajo que sale bien generalmente se ve como una confirmación de nuestra suposición general de que entendemos lo que está ocurriendo. Y, porque confirma una hipótesis comúnmente compartida, no se considera que valga la pena el esfuerzo de estudiarlo en detalle.
Debido a estas diferencias, asumimos que las cosas que salen mal ocurren por diferentes razones (y causas) que las que salen bien. Esto lleva al siguiente razonamiento: las cosas salen bien porque las entendemos, y las cosas salen mal porque no las entendemos. Las causas de estos resultados tan diversos deben, siguiendo esta línea de pensamiento, ser diferentes, tal como propone el dogma de Heinrich[10]. Pero esta conclusión o inferencia a la que llegamos es inválida. Si suspendemos la suposición de que entendemos las cosas que salen bien, no podemos mantener la hipótesis de diferentes causas. Entonces, existirán importantes consecuencias para la seguridad y la gestión de la seguridad.
Figura 1. La Ley de la variedad necesaria
La ley de la variedad requerida
Para gestionar una organización, es necesario entender cómo funciona; entender por qué las cosas suceden de la manera en que lo hacen, especialmente debido a cambios e intervenciones deliberadas. Además de ser un sentido común sólido, la necesidad de entender cómo funciona algo es también "una de las leyes fundamentales de la cibernética" (Beer, 1966: 279). Se formuló en la cibernética en la década de 1940 y 1950 (Ashby, 1956) y se conoce como la Ley de la Variedad Necesaria. La ley establece simplemente que la variedad de los resultados (de un sistema o un proceso) solo puede disminuir aumentando la variedad en el controlador de ese sistema. Otra forma de expresarlo es el Teorema del Buen Regulador, que establece que "cada buen regulador de un sistema debe ser un modelo de ese sistema" (Conant y Ashby, 1970)[11]. En otras palabras, si algo sucede en un sistema que no puede ser reconocido por la gestión del sistema, o para lo cual la gestión no puede proporcionar una respuesta, entonces inevitablemente se perderá el control. Las sociedades modernas, desafortunadamente, pueden proporcionar casi innumerables ejemplos de eso. La esencia de esta ley se ilustra en la Figura 1, donde se utilizan íconos para mostrar la correspondencia (imperfecta) entre la variedad ambiental y la variedad del sistema de control. En este ejemplo, no hay respuesta si “E” sucede.
Figura 2. Un modelo simplificado de la presentación de informes como condición previa para el aprendizaje
Para mejorar la seguridad y la productividad, necesitamos cambiar el enfoque y comenzar por aprender, en lugar de centrarnos en informar. Las preguntas son: ¿Por qué el sistema complejo funciona cada día? Teniendo en cuenta cambios, discrepancias y oportunidades: ¿cuáles son las condiciones que facilitan su desempeño resiliente en condiciones esperadas e inesperadas?[12] Estas preguntas ayudan a entender el comportamiento del sistema complejo donde hay muchas incertidumbres y no se pueden saber todos los detalles del sistema.
El aprendizaje debe estar impulsado por metas futuras y objetivos a largo plazo, en lugar de centrarse en errores del pasado. La Seguridad II propone un aprendizaje de cómo se facilita una buena operación diaria, en lugar de aprendizaje de evitación.
Referencias bibliográficas
Adamski, A., & Westrum, R. (2004). Requisite imagination. The fine art of anticipating what might go wrong. E. Hollnagel (Ed.) Handbook of cognitive task design,193-220. Boca Ratón, FL: CRC Press.
Ashby, W. R. (1956). An introduction to cybernetics. Londres: Chapman & Hall, Ltd.
Beer, S. (1966). Decision & control. Londres: Wiley.
Conant, R. C. y Ashby, W. R. (1970). Every good regulator of a system must be a model of that system. International Journal of Systems Science, 1(2), 89-97.
Heinrich, H. W. (1931). Industrial Accident Prevention. Nueva York: Serie de Seguros Mcgraw-Hill.
Hollnagel, E. (2009). The ETTO principle: Why things that go right sometimes go wrong. Farnham, UK: Ashgate.
Farnham, Reino Unido: Ashgate. Hollnagel, E., Licu, A. y Leonhardt, J. (2021). The Systemic Potentials Management: Building a Basis for Resilient Performance. A White paper. Bruselas, Bélgica: Eurocontrol. Disponible de forma gratuita en: https://www.skybrary.aero/bookshelf/systemic-potentials-management-building-basis-resilient-performanc e.
Merton, R. K. y Barber, E. (2011). The travels and adventures of serendipity: A study in sociological semantics and the sociology of science. Princeton University Press.
Weick, K. E. (1987). Organizational culture as a source of high reliability. California Management Review, 29 (2), 112-128.
[1] "Correcto e impecable" porque cumple con estándares que se supone que son completos y correctos. Esto representa, de hecho, otra compensación Eficacia-Minuciosidad -traducción usada en
el libro de Barreras y prevención de accidentes- las normas ETTO (Hollnagel, 2009). Se piensa que, porque otros, presumiblemente, han sido rigurosos al preparar los estándares, ¿si no por qué serían estándares? Entonces, pueden usarse eficientemente tal como están, el talón de Aquiles de este razonamiento es la inevitable diferencia entre el Trabajo-tal-como-se-Imagina, es decir, la situación asumida por las personas que desarrollaron el estándar, y el Trabajo-tal-como-se-Efectúa, es decir, la situación real en la que se debe aplicar el estándar. Es por eso que insistir en un cumplimiento estricto es una idea terrible y contraproducente.
[2] Esto se debe a las limitaciones de la imaginación (Adamski y Westrum, 2003). La diferencia entre lo que imaginamos y lo que puede suceder en la práctica siempre es mayor de lo que podemos pensar. La imaginación necesaria es un derivado de la variedad necesaria, como se describe en otros lugares en esta nota.
[3] Todos los sistemas vivos, incluidos los humanos, aprenden naturalmente de lo que sale bien y tratan de aplicarlo cuando reconocen una situación similar en el futuro, aunque ocasionalmente eso puede llevarlos por mal camino.
[4] "Cuando algo sale mal, generalmente hay algunas consecuencias manifiestas, como la pérdida de productividad, que todos estarán de acuerdo en que son indeseables. La excepción puede ser la política, donde los hechos no siempre desempeñan un papel importante.
[5] El cambio es necesario porque las condiciones de operación, las demandas y los recursos nunca son constantes, si no es por ninguna otra razón que el entorno operativo está compuesto por otros sistemas y organizaciones que también aprenden.
[6] Un evento que sale mal, y por lo tanto resulta en un resultado adverso, se ve como una señal (fuerte) en contraposición al fondo de "ruido" o "señales débiles" proporcionado por los eventos dinámicos que constituyen el trabajo cotidiano. Pero esto es un error, porque la señal importante en realidad se encuentra en las características del "ruido de fondo" en la variabilidad de las operaciones cotidianas que simplemente ocurren como deberían y, de esa manera, proporcionan la base para la productividad continua, la existencia del sistema y su capacidad para sobrevivir.
[7] De acuerdo con la Ley de la variedad necesaria, no podemos controlar algo a menos que también lo entendamos.
[8] Cuando algo sale bien, también concluimos incorrectamente que es porque lo entendemos y nos halagamos a nosotros mismos creyendo que hemos podido controlarlo.
[9] O tal vez lo atribuimos a la serendipia (cf. Merton y Barber, 2011).
[10] El dogma de Heinrich se describe en el primer libro sobre prevención de accidentes industriales (Heinrich, 1931, p. 101). Establece que "se acepta ampliamente como cierto que 'la cura de una condición problemática dada depende principalmente del conocimiento de su causa y la eliminación, o al menos la mitigación, de esa causa'". Pero siempre se debe tener cuidado con las verdades ampliamente aceptadas. El dogma oculta tres suposiciones críticamente importantes: primero, que siempre se puede atribuir un resultado a una causa específica (la ley de causalidad); segundo, que es posible encontrar o determinar cuál es esa causa (si se recopilan suficientes datos y se hacen suficientes esfuerzos); y tercero, que la eliminación de la causa prevendrá efectivamente que el resultado ocurra de nuevo. El dogma, por lo tanto, se basa en los principios de la causalidad lineal simple, específicamente que es posible razonar hacia atrás desde el efecto final hasta la causa inicial o raíz. Si bien esto puede haber sido ampliamente aceptado y sin críticas en 1931, y posiblemente incluso adecuado para los entornos laborales simples que existían entonces, de ninguna manera es razonable o aceptable hoy en día. Es difícilmente necesario señalar que los entornos laborales industriales de 1931 tienen poco parecido con los complejos sistemas sociotécnicos de hoy.
[11] En realidad, sería más correcto decir que el regulador debe tener acceso o ser capaz de referirse a un modelo adecuado del sistema y de cómo funciona.
[12] Esto es en realidad una paráfrasis de la definición de resiliencia, por lo que la pregunta podría ser: "¿qué necesitamos aprender para garantizar un desempeño resiliente?"