DIGITAL ISSN 2953-4739
Revista de Seguridad Operacional#1 – (diciembre-2022)
[44-53]
http://id.caicyt.gov.ar/ark:/s29534739/bb36426lk
DOSSIER
MODELO DE INVESTIGACIÓN SISTÉMICA: CUATRO CLAVES FUNDAMENTALES PARA UN CAMBIO DE PARADIGMA
Systemic research model: four fundamental keys for a paradigm shift
Autor: Alejandro Covello. Profesor universitario: Universidad Tecnológica Nacional Argentina (UTN) y Universidad Nacional Autónoma de Honduras, Facultad de ciencias espaciales.
Resumen
En este trabajo se abordan los pilares del modelo de investigación sistémico y su aplicación en sucesos de transporte. A lo largo del artículo se describen las características del modelo de investigación lineal y sus limitaciones. Se plantea que el cambio organizacional y de modelo es posible. Para que suceda, es fundamental que la investigación de accidentes identifique y mejore su metodología. El modelo sistémico de investigación nos propone salir del sesgo jurídico y del fallo único, depositado en quienes operan la primera línea, para intentar responder cuáles fueron las condiciones de posibilidad que contribuyeron a generar un accidente. Aquí desarrollamos los requisitos primordiales.
Abstract
The text discusses the systemic research model and its application to transport events, highlighting the limitations of the linear research model. It argues that organizational and model change is possible through improving accident Investigation methodology. The systemic model of investigation aims to move away from legal bias and single judgment to identify the conditions that contributed to generating an accident. The paper focuses on the primary requirements for this approach.
Palabras clave: TRANSPORTE- SEGURIDAD OPERACIONAL- MODELO DE ANÁLISIS DE ACCIDENTES- ANÁLISIS SISTÉMICO.
Keywords: TRANSPORT- SAFETY- ACCIDENT ANALYSIS MODEL- SYSTEMIC ANALYSIS.
Recibido: 15/10/2022.
Aceptado: 12/11/2022.
Este trabajo está bajo una Licencia Creative Commons Atribución 4.0 Internacional
1. La escisión con el modelo judicial y de resarcimiento económico
Nos convoca un objeto de estudio: los accidentes en el transporte. Cuando ocurre un accidente, al menos dos o tres investigaciones se llevan a cabo: una investigación judicial penal y/o civil; otra en cuanto a resarcimientos económicos y seguros; y una tercera de seguridad operacional. Podemos, a partir de esta clasificación, referir a dos grandes competencias para la investigación de accidentes en el transporte: la judicial, económica, administrativa y la de seguridad operacional.
En cuanto a la primera, su fin es identificar responsables y, una vez hecho esto, dictar una pena, una absolución, un resarcimiento económico o una multa y/o sanción. Los organismos encargados de estas investigaciones son el poder judicial, las compañías de seguros, y en lo que respecta a incumplimientos de normas y reglamentos, están los entes normativos y fiscalizadores, que en el caso del transporte en Argentina corresponden a la Administración Nacional de Aviación Civil (ANAC), la Comisión Nacional de Regulación del Transporte (CNRT) —en su modo ferroviario y automotor— y la Prefectura Naval Argentina (PNA), entre otros. A esto habría que sumar las investigaciones que puede hacer una prestadora de servicios de transporte, en cuanto a un sumario interno de los trabajadores involucrados en el accidente.
Todas estas organizaciones tienen la potestad de realizar una investigación para llegar al conocimiento de una verdad relacionada con un delito, falta, indisciplina, incumplimiento de normas y reglamentos. En relación con una investigación de seguridad operacional, al igual que en una investigación judicial, el requisito de independencia es fundamental para llegar a lograr el objetivo. En el caso de la investigación de seguridad operacional, la independencia es en relación con el sistema judicial y los entes normativos y fiscalizadores. Para muestra de esto, citemos la Ley 27514 de creación de la Junta de Seguridad en el Transporte en Argentina, cuya misión es: “… contribuir a la seguridad en el transporte a través de la investigación de accidentes y la emisión de recomendaciones”. El artículo 2 dice: “Son principios de la política de seguridad en el transporte: a) Independencia: basada en la delimitación entre las funciones de regulación, prestación y control de los servicios de transporte (...) La investigación debe garantizar la imparcialidad, transparencia y rigurosidad científica”.
Ahora bien, el primer aro de fuego a saltar para llegar a una investigación sistémica de seguridad operacional es NO identificar a los trabajadores como responsables, así como tampoco calificar sus actos bajo términos jurídicos. Durante mucho tiempo, y aún hoy, se pueden leer como causas de accidentes la negligencia, imprudencia, indisciplina, etc. Se trata de términos del ámbito judicial, que no deben habitar en un informe de seguridad operacional.
En Argentina, podemos citar como caso paradigmático de esto la causa del accidente aéreo del vuelo 3142 de Líneas Aéreas Privadas Argentinas (LAPA) —ocurrido el 31 de agosto de 1999—, identificada y descripta por el organismo público encargado de la investigación de accidentes aéreos (la ex JIAAC) de la siguiente manera: “Falta de disciplina de los tripulantes, que no ejecutaron la lógica reacción de abortar el despegue y comprobación de la falla ante la alarma sonora que comenzó a escucharse al dar motor y continuó sonando hasta el intento de rotación” (Informe de Seguridad Operacional, JIAAC, 1999). Pero este sesgo no se dio solamente a nivel nacional, sino que se constituyó como un problema de carácter global. Para graficar esto con un ejemplo, Sabey y Taylor (1980) analizaron los resultados de un estudio que había sido realizado por el Laboratorio de Investigaciones del Transporte y Carreteras del Reino Unido (Transport and Road Research Laboratory), cuyo principal objetivo era identificar los principales factores contribuyentes que intervenían en los accidentes de carretera. El estudio del laboratorio abarcó un total de 2130 accidentes. En función del análisis de los datos obtenidos, Sabey y Taylor identificaron que:
• El 41 % de los conductores involucrados en los sucesos del estudio se clasificaron como culpables del accidente.
• En el 95 % de los accidentes que figuraban en el estudio, el error y la incapacidad del conductor y del peatón fueron identificados como los principales factores contributivos.
Ejemplos como los anteriores abundan en la investigación de seguridad operacional de prácticamente todos los organismos durante el siglo XX. En pocas palabras, la labor de las distintas juntas de investigación estuvo sesgada por el registro judicial y económico, identificando al trabajador de primera línea como responsable o, sin hacerlo, calificando sus actos con términos judiciales.
A continuación, se adjunta el anuario del organismo de investigación de accidentes de aviación civil argentino de 1951, que ilustra el problema de manera elocuente:
Tabla 1. Causas de accidentes
Si la investigación de seguridad operacional no salta este primer aro de fuego, tiene dos problemas: el primero, que la organización responsable de hacer la investigación repetirá en su informe cuestiones sobre las cuales otros organismos tienen competencia.
Por lo tanto, la inversión del Estado en una organización de investigación de accidentes para la seguridad operacional será desperdiciada, y se gastarán recursos en diferentes organizaciones para hacer la misma tarea. El segundo problema es que se estarían matando los mosquitos en vez de fumigar el estanque. Es decir, que quedarían intactos los factores estructurales que dieron posibilidad al accidente. El modelo sistémico salta este aro de fuego, adoptando un proceso de análisis que tiene las siguientes características:
• Solo describe el sistema y sus condiciones de posibilidad para la ocurrencia del accidente.
• Explica la divergencia entre el desempeño deseado del sistema y el desempeño real, sin identificar trabajadores, sin adjetivaciones y sin juicios de valor.
• Incluye una instancia de control y calidad llevada a cabo por una gestión editorial, que revisa el informe final evitando sesgos judiciales, de resarcimientos económicos o punitivos.
2. El modelo sistémico incluye un análisis transversal que, partiendo del factor desencadenante, reconstruye el contexto al máximo nivel razonablemente practicable
La investigación de accidentes, desde al menos la primera Revolución Industrial, estuvo sesgada por el registro judicial y económico, así como determinada por el dualismo “páguese o déjese de pagar”, sin ningún impacto en la prevención de accidentes o seguridad operacional. En el principio del siglo XX encontramos el origen de la investigación de accidentes, cuyo fin fue la prevención. Muchos autores sostienen que el nacimiento de la seguridad y la salud laboral como disciplina científica fue en 1931, y toman como hito la publicación de Industrial Accident Prevention, escrito por el estadounidense Heinrich. En este libro fundante, Heinrich desplegó tres premisas fundamentales:
1. Los actos inseguros de los trabajadores son responsables del 88% de los accidentes industriales.
2. Los accidentes son el resultado de una causalidad lineal única.
3. Existe una relación fija entre accidentes mayores, incidentes con lesiones menores y cuasi incidentes/accidentes sin consecuencias. La conocida pirámide de Heinrich: 1, 30, 300.
El modelo Heinrich lineal (causa-efecto) y sus variantes, como el árbol de causas, son análisis que identifican una causa raíz, depositada en mayor medida en el trabajador de primera línea (88 %) y en menor porcentaje en la falla mecánica o física (12 %). Este es un sesgo binario, que marca una clara separación entre una causa humana y otra material. Así, el “acto arriesgado de una persona” se traducía como error humano, mientras que la “amenaza mecánica o física” era interpretada como sinónimo de fallo técnico. Esto es herencia de representar al sistema en relaciones estancas que pueden descomponerse en partes y volver a armarse, de interpretar al transporte como un sistema lineal y no complejo, dando por sentado que solo existen relaciones fijas entre los componentes.
La evidencia es irreductible, estamos bombardeados por estadísticas que nos hablan de que las causas de accidentes por error humano son el 70, 80, 90 y hasta el 100 % de los accidentes, como ya se ha mostrado en ejemplos anteriores. Charles Perrow, en su libro Accidentes normales, nos dice que la tendencia a atribuir la causa al operador es prominente, e identifica que, en accidentes marítimos, el error humano es causa de más del 80 % de los accidentes, conclusión a la que llegó luego de leer 200 informes de accidentes, que solo juzgaban al capitán de buque y afirmaban “que debería haber hecho zig en lugar de zag” (Perrow, 1984: 233).
Los modelos nos ayudan a descartar lo irrelevante para el problema que debemos resolver (explicar el accidente) y nos ponen en foco con lo que necesitamos. El modelo explica cómo funciona un sistema, cómo ocurren las cosas y cuáles fueron las condiciones de posibilidad del accidente. También, predicen el futuro, ofreciendo oportunidades de mejora (Recomendaciones de Seguridad Operacional [RSO]) para que el accidente no se repita.
Ahora bien, es lógico requerir respuestas simples a nuestras preguntas, por eso “un modelo debe ser lo más simple posible, pero no más simple” (Albert Einstein). Utilizar un modelo lineal de análisis de accidentes en un sistema complejo es dar una respuesta “más simple”, sin impacto en el problema que debemos resolver. Por ello, los modelos se eligen no tanto porque son buenos o malos, sino por su utilidad, si son más o menos útiles. Todos los modelos tienen limitaciones, pero unos son más útiles que otros.
En este sentido, los modelos lineales son limitados en cuanto a su utilidad, ya que:
• No permiten pensar qué pasó antes del error humano o de la falla mecánica que provocó el accidente.
• Consideran la industria del transporte como un sistema simple.
• No pueden abordar los problemas de los sistemas complejos de acuerdo con sus características: complejidad interactiva e interacciones inesperadas.
• La idea de “causa raíz” es simplista y no siempre se puede determinar (¿cuál es la verdadera causa raíz en accidentes complejos?).
• Consideran que una causa per se provoca el accidente. En sistemas complejos se enumeran “factores” relacionados con el accidente, los cuales son necesarios, pero ninguno es suficiente para provocar el accidente.
• Tienen escasa potencia preventiva, ya que identifican el síntoma y no la enfermedad. Dejan los virus intactos.
¿Qué es esto de los virus? La respuesta la comienza a dar Edwar Suchman en 1961, al publicar A conceptual análisis of the accident phenomenon. Fue quien utilizó la metáfora de la enfermedad (modelo epidemiológico) para representar un accidente. De acuerdo con este enfoque, el autor compara al accidente con la ocurrencia de una enfermedad, en especial con enfermedades de contagio en donde existen “agentes infecciosos” que ingresan en un anfitrión predispuesto con ciertas condiciones.
Luego, hacia fines de los años 80, Reason retomó el modelo epidemiológico con el propósito de dar respuesta a accidentes catastróficos de sistemas sociotécnicos complejos, como los de Three Mile Island (1979), Bhopal (1984), Chernobyl (1986), Challenger (1986), Zeebrugge (1987), entre otros. En su libro Error humano (1990) explica la metáfora del agente infeccioso (virus) de Suchman como factores latentes, y los representa con agujeros, categorizándolos como la mayor amenaza para la seguridad operacional en un sistema complejo. De esta manera, aleja el enfoque centrado en los errores cometidos por los operadores y fallos materiales o físicos, que pasan a convertirse en solo los anfitriones del virus (factores desencadenantes).
En referencia a los factores latentes, Reason los clasifica como factores humanos (FFHH), organizacionales (FFOO) y factores en las defensas (FFDD). Siendo el factor desencadenante (falla humana o mecánica) una consecuencia:
El error humano es una consecuencia y no una causa (…) Los errores son configurados y provocados por factores precedentes radicados en el lugar de trabajo (FFHH) y la organización (FFOO). Identificar un error es simplemente el comienzo de la búsqueda de las causas, no su final (Reason, 2010: 173).
Reason pega un martillazo nietzscheano al modelo de Heinrich, al decir que el error humano no es la causa raíz de los accidentes, y que ni siquiera es una causa, sino una consecuencia de factores latentes que se generan aguas arribas. A su vez, el autor introduce un nuevo factor (a diferencia de Heinrich y Suchman) para que se produzca el accidente: las defensas. Más allá del factor desencadenante, de los factores humanos y los organizacionales, debe existir un virus en las defensas (sistema inmunológico débil) para que el accidente ocurra.
Figura 1. Modelo de Reason
Fuente: elaboración propia
El modelo Reason fue bautizado como el del “queso suizo” por representar a los virus como agujeros. ¿Por qué Reason introduce este nuevo factor (las defensas)? Debido a que en la época en que escribió Error Humano estuvo influido por la tercera Revolución Industrial en curso (ya en vísperas de una cuarta), y una de las respuestas que se dio al problema del accidente, en sistemas complejos durante esta etapa, fue la de introducir “defensas en profundidad o sistemas automáticos de defensas”.
El concepto de “defensas en profundidad o sistemas automáticos de defensa” se basa en una filosofía que considera al riesgo como “energía a contener” a través de capas de defensa, que canalizan la energía de las fuentes de peligro. Este concepto nace en la industria nuclear, que considera que en el mismo diseño de la planta atómica se encuentran las defensas que tienen como objetivo contener la liberación no deseada de energía atómica y evitar que ocurra la catástrofe.
Se crean los Dispositivos Automáticos de Seguridad (DAS), los cuales deben cubrir la mayor variedad de accidentes postulados por diseño. Además de un gran número de subsistemas de apoyo, existe una línea de defensa que es la ofrecida por los DAS: dispositivos que, tras percibir un estado distinto al tolerado, “disparan” automáticamente el reactor, apagan las turbinas y/o reducen el exceso de presión (Reason, 1990: 249).
Otro martillazo nietzscheano de Reason se dio a partir de la incorporación de las defensas en profundidad en un modelo de análisis de accidentes, ya que el error humano o la falla mecánica no solo dejaron de ser causas y pasaron a ser consecuencias, sino que la última línea para detener el accidente ya no fue el ser humano, sino las defensas en profundidad.
Fue a partir del modelo del queso suizo que, en el año 2013, la Argentina comenzó a diseñar su propio modelo sistémico y aplicarlo en los órganos de investigación de accidentes. Así, se inició un análisis transversal, que incluye las deficiencias o ausencias de las defensas, los factores humanos (indagando en qué aspectos las tecnologías y sistemas influyen en el comportamiento del operador de primera línea) y los factores organizacionales (en tanto la intervención de las políticas de los entes normativos y fiscalizadores, así como la gestión de las organizaciones que prestan servicios en la seguridad operacional). Por ello, al decir “al máximo nivel razonablemente practicable” nos referimos a destinar las RSO a los entes y prestadores de servicios de transporte, que son las organizaciones mejor posicionadas para implementar las medidas de mitigación a los riesgos de seguridad operacional, ya que tienen autoridad y atribuciones para actuar con el mayor alcance posible.
En conclusión, así como se ha hecho evidente que la escisión con el modelo judicial y de resarcimiento económico coloca al informe de seguridad operacional en su real objetivo, alejarnos de la dualidad parcial que identifica el error humano y el fallo técnico, nos hará indagar en el contexto. He colocado el adjetivo parcial ya que la dualidad tiene una bandeja de la balanza demasiado inclinada al error humano.
3. El modelo sistémico incluye la nueva escala de la cuarta Revolución Industrial y los sistemas sociotécnicos complejos
En la descripción de la clave anterior habíamos expresado que Reason, al incluir las defensas en un modelo de análisis de accidentes, había incorporado la nueva tecnología de la tercera Revolución Industrial. Al continuar con el concepto del desarrollo de las revoluciones industriales hasta el presente, Klaus Schwab, economista alemán y fundador del Foro Económico Mundial en el año 2016, caracterizó a la cuarta Revolución como una “fusión de tecnologías y su interacción a través de los dominios físicos, digitales y biológicos”, que difumina las fronteras de las ciencias o tecnologías tradicionales, con grandes avances en inteligencia artificial, robótica, nanotecnología, computación cuántica, biotecnología, internet, impresión 3D, vehículos autónomos, entre otros. Esta revolución no se limita a la automatización, sino que remite a industrias 4.0, los sistemas inteligentes y/o las fábricas
inteligentes.
El transporte, como toda industria de vanguardia, vive y experimenta esta cuarta Revolución Industrial. Cabe preguntarnos, entonces, cuáles son los cambios radicales que se han desarrollado hasta el momento en la cuarta Revolución Industrial. Entre el operador y el proceso o la consecuencia del trabajo, hay infinidad de capas, sistemas o subsistemas, con tecnologías fusionadas.
La interfaz directa hombre-máquina desapareció y la interface SHELL muestra una representación limitada de los sistemas sociotécnicos complejos. La esencia de un sistema sociotécnico no puede ser captada por ninguna representación simple.
Otro de los grandes cambios ha sido el progresivo alejamiento de los operadores respecto de los procesos que controlaban nominalmente. En las primeras épocas, entre el ser humano y la tarea física mediaban herramientas, luego máquinas, sistemas automáticos, más tarde softwares, aplicaciones y un sinnúmero de subsistemas de complejidad creciente.
Actualmente, muchas competencias y responsabilidades de operadores y supervisores son transferidas a otros sistemas. Desde la artesanía y el trabajo manual durante la primera y segunda Revolución Industrial, los trabajadores tenían manipulación directa de las herramientas y máquinas, así como detección inmediata de resultados; se veía y se controlaba. Hoy existen sistemas que actúan por cuenta propia, y la principal tarea del operador es el monitoreo. Los nuevos sistemas actúan más allá del trabajador: se elimina la acción directa sobre la herramienta, la máquina y los procesos de producción. El hacer del trabajador se reemplaza por el monitorear y/o supervisar, con un acceso de información filtrada por el sistema; el trabajador solo accede a lo que necesita saber (need to know).
Antes de finalizar la cuarta clave, me permito hacer una “advertencia” para alejarnos de (en palabras de Perrow) “la letanía de los de los sistemas complejos vs. las ventajas de los sistemas simples”:
La letanía de problemas de los sistemas complejos y las ventajas de los sistemas lineales podría inducir a creer que estos son con mucho preferibles y que los sistemas complejos deberían ser transformados en lineales. Por desgracia, no es así. Los sistemas complejos son más eficientes (en el estrecho sentido de la eficiencia productiva, que no toma en cuenta los peligros de los accidentes) que los sistemas lineales. Hay menos tiempos muertos, menos espacio infrautilizado, menos tolerancia con los resultados de baja calidad y más componentes multifuncionales. Desde este punto de vista, en lo que a la eficiencia del diseño y del equipo instalado se refiere, la complejidad es deseable (Perrow, 2009: 121).
Ahora bien, interviniendo en ese paréntesis que nos pone Perrow, podemos tomar como evidencia que, gracias a los sistemas complejos, la industria aeronáutica, nuclear y muchas otras han alcanzado el estatus de ultrasegura. La noción de sistemas ultraseguros fue enunciada a mediados de la década de 1990 por el profesor René Amalberti (2009), en su libro La acción humana en los sistemas de alto riesgo.
El porcentaje de accidente catastrófico está en torno a un accidente por millón de movimientos (salida-llegada) (1 x 10-6) en el transporte aéreo; en los transportes por raíl, en el sector nuclear y otras industrias también se alcanza esta cifra. Se trata de un dato excepcional a escala individual si se considera que un piloto profesional realiza entre 100 y 200 movimientos al año, por lo que en 30 años de profesión habrá realizado entre tres y seis mil movimientos (Amalberti, 2009: 32).
Retomando el presente (la cuarta Revolución Industrial), la disciplina científica de investigación de accidentes comenzó a diseñar modelos de análisis más allá del bien conocido modelo del queso suizo, sin dejar de destacar que fue a partir de este que se pudo entrar en los nuevos modelos, denominados sistémicos. Perrow (1984), con su teoría de accidente normal propone actuar sobre acoplamientos complejos, complejidad interactiva e interacciones inesperadas, cambiando los ejes de la gestión de riesgos desde la severidad y probabilidad hacia la severidad y costos de las alternativas. Hollnagel (2004), en Barreras y prevención de accidentes (2009), presenta el “Modelo de Accidente de Resonancia Funcional” (Functional Resonance Analysis Method FRAM), que se apoya en el fenómeno de resonancia estocástica y funcional. Nacy Levenson (2004) desarrolla el “Modelo y Proceso Teórico de Accidentes de Sistemas” (Systems Theoretic Accident Model and Process STAMP), un enfoque que considera al accidente como un problema de control y no de falla, y que involucra procesos dinámicos complejos donde no hay fallas de componentes. De este modo, considera a los individuos, las organizaciones y la tecnología al mismo nivel de granularidad.
Por último, vale la pena volver a destacar que la Junta de Seguridad en el Transporte (JST) desarrolló a partir del año 2013 su propio modelo de análisis de accidentes, tomando, como lo hicieron muchos autores, el modelo del queso suizo con adaptaciones hacia el pensamiento sistémico. En una breve descripción de los aspectos novedosos de este modelo:
• Se eliminó el concepto de causas por factores.
• El nivel individual es un factor desencadenante y luego se consideran los factores en las defensas, factores humanos y organizacionales en un mismo nivel jerárquico.
• Las Recomendaciones de Seguridad Operacional (RSO) van dirigidas al sistema.
4. El modelo sistémico permite diseñar políticas de seguridad operacional al más alto nivel, provocando cambios estructurales
Al hacer un análisis sistémico de los accidentes, identificamos factores estructurales y damos cuenta de que esto no es solo una competencia técnico-científica, sino que existe un espacio todavía poco explorado por los investigadores y especialistas en seguridad operacional.
Me refiero a la “dimensión política”. El desarrollo de reglamentos emitidos por entes fiscalizadores y normativos es una instancia política, y las prácticas de operadores de primera línea son consecuencia de estas políticas. Por ello, como se describió anteriormente, si las RSO van dirigidas al sistema, se traducen en políticas. Este enfoque se aleja del “utilitarismo”, que solo intenta utilizar argumentos técnico- científicos para responder al problema de la gestión de riesgos. Si bien la investigación de accidentes y su análisis puede formularse en términos científicos, la correcta respuesta de cómo incidir en las condiciones que produjeron el accidente está más allá de lo técnico-científico, y se articula con las políticas.
Las políticas son especificaciones generales de la manera en que la administración espera que se realicen las operaciones, y es en ese lugar donde van las RSO.
Para finalizar de forma audaz este artículo, me permito decir que el modelo de análisis sistémico es el que va a permitir saldar la deuda política, abrir la frontera más allá de la técnica y la ciencia, y explorar la dimensión política de la seguridad operacional. Así como no alcanza con más capacitación para el trabajador o añadir más capas de defensas o hacer promesas de que estaremos mejor preparados para enfrentar la próxima catástrofe, tampoco alcanza con enfocarse exclusivamente en análisis solamente técnicos, sin introducir la dimensión política. “Muchos teóricos organizacionales que estudian los problemas de seguridad lo han hecho de esta forma: han descuidado el poder y los intereses en sus estudios” (Sagan, citado en Jorge Walter y Francisco Pucci, 1994: 95). “Perrow sugiere que, en última instancia, el problema no es el riesgo sino el poder: el poder de imponer riesgos a muchos en beneficios de pocos” (Perrow, citado por Nancy Levenson, 1993: 17).
El poder de continuar con el análisis del fallo único depositado en el trabajador de primera línea o indagar en el sistema. Los resultados de la investigación de accidentes en sentido sistémico se proponen incidir sobre los agentes que tienen el poder de guiar un cambio en el sistema, ya que también es el poder el que crea las condiciones de posibilidad para que en el sistema se desencadenen catástrofes.
Por último, la reflexión por la ética. Para ello nos haremos una pregunta: ¿cuál es la importancia de definir un modelo de análisis de accidentes? El investigador va hacia los restos del accidente con una incertidumbre que necesita reducir rápidamente para dar algunas respuestas inmediatas, y los hechos que va validando no son independientes del modelo de accidentes que adopta. Si la organización no enuncia el modelo desde el cual dar la explicación al accidente, el investigador utilizará el suyo. Así, cada accidente quedará librado al arbitrio de cada investigador y, como dijimos párrafos antes, quizás se tome el camino más simple y lineal.
Considero que una organización de investigación debe enunciar su modelo, y es esta enunciación la que le otorga objetividad, la cual es producto de un estudio sociotécnico y una decisión política. Una organización estatal de investigación de accidentes no puede dejar librado a la perspectiva de cada investigador la explicación al accidente. Es responsabilidad del Estado definir su política de seguridad operacional en el transporte público y, con ella, el modelo y la estrategia de seguridad operacional.
Si no se elige el modelo, si no se enuncia y se trabaja en la aprehensión del mismo, no hay política de Estado.
La reconstrucción del accidente en un informe final debe ser entonces la concordancia de la política de seguridad del Estado con el modelo de investigación de accidentes adoptado por el organismo a cargo. El modelo es una condición de posibilidad para cambiar las políticas de Estado en referencia a la seguridad operacional.
Si consideramos a la ética como una práctica que se evidencia en acciones, es el informe final la última y principal acción de una organización de investigación de accidentes, por la cual se miden muchas cosas. La nota introductoria que incorporó la JST en los Informes de Seguridad Operacional (ISO), en la cual presenta su modelo, es el compromiso organizacional con un modelo elegido. Deja claro que el modelo es la práctica de la organización, independientemente de cualquier práctica individual de los investigadores. La enunciación ética de la organización en la introducción es la enunciación ética de todos sus miembros, y se convierte así en un valor.
CONCLUSIÓN
El presente artículo, con el cual se inaugura la revista RSO de la JST, intentó transmitir que existen explicaciones a los accidentes que son más potentes que otras a la hora de pensar los eventos en términos de prevenir su recurrencia; explicaciones de accidentes que impactan y fortalecen la arquitectura de seguridad de un sistema, explicaciones “que mueven la aguja” de la seguridad operacional. A partir del momento en que la JST adoptó un análisis sistémico, abandonó el registro judicial y los modelos lineales, porque ambos ya no tienen cabida en los sistemas sociotécnicos complejos, en la cuarta Revolución Industrial y en la gestión de los grandes riesgos.
Estimado lector, la investigación de accidentes es un desafío político, ético e intelectual.
Bibliografía
Amalberti, René (2009). La acción humana en los sistemas de alto riesgo. Madrid: Modus Laborandi.
Covello, Alejandro (2021). Investigación sistémica de accidentes: modelo para el transporte y la gestión de riesgos en sistemas
complejos. Buenos Aires: Imaginante.
Heinrich, H.W (1941). Industrial Accident Prevention. Nueva York: Mcgraw-hill Book Company Inc.
Hollnagel, Erik (2009). Barreras y prevención de accidentes. Madrid: Modus Operandi.
Levenson, Nancy (2004). “A systems-theoretic approach to safety in software-intensive systems”. IEEE Trans. Dependable Secur. Comput., vol. 1, no. 1, pp. 66–86.
Levenson, Nancy; Wesley, Addison (1993). Safeware, safety and computer: why, what and how? Michigan: University of Michigan.
Perrow, Charles (1984 -2009-). Normal accidents: living with high risk technologies. Nueva York: Basic Books.
Reason, J. (2009). El error humano. Madrid: Modus Laborandi.
Reason, J. (2010). La gestión de los grandes riesgos. Principios humanos y organizativos de la seguridad. Madrid: Modus Laborandi.
Sabey, B. E., & Taylor, H. (1980). The known risks we run: the highway. New York: Plenum Press.
Suchman, Edwar (1961). A conceptual analysis of the accident phenomenon. New York: Department of Health.