No existe sistema socio-técnico que presente riesgo cero. Esto
se debe a que ningún elemento físico tiene tasa de falla cero, ningún
ser humano está exento de cometer errores y ningún diseño de software puede prever
todas las posibilidades operacionales. Luego todos los sistemas fallan. No existen los sistemas sin fallas.
A pesar de ello, la
percepción pública del riesgo, especialmente después de un incidente mayor, a menudo exige el ideal de riesgo cero. Pero, en general, la mayoría de las personas entienden que esto no es
practicable, y se pueden consultar valores de riesgo
diario de muerte por diversas causas, que están lejos de ser nulos. De este modo, prevalece el sentido común y la noción de reconocer un riesgo tolerable asociado a cualquier actividad humana.
Ahora bien, el grado real de riesgo
que se considera tolerable variará de acuerdo con una serie de factores
tales como el grado de control que se tiene sobre las circunstancias,
el carácter voluntario o involuntario del riesgo o el número de personas
en riesgo en cualquier incidente, entre otros factores.
A partir de ello, se ha desarrollado una tecnología de la seguridad en torno a la necesidad de establecer metas de niveles de
riesgo tolerables y evaluar si los diseños propuestos cumplen con estos
objetivos, ya sean en plantas de proceso, sistemas de transporte, equipos
médicos o cualquier otra aplicación.
A principios de
los 70, las personas vinculadas a la industria de procesos se dieron
cuenta de que, con plantas cada vez más grandes y complejas, que implicaban mayores
inventarios de material peligroso, la práctica de aprender por errores
(si es que lo hacían) ya no era aceptable. Se desarrollaron métodos para identificar y cuantificar las consecuencias de las fallas. Se desarrollaron en gran medida para ayudar en el proceso de toma de decisiones al desarrollar o modificar la planta. Las presiones externas para identificar y cuantificar el riesgo vendrían después.
A mediados de esa década ya existía preocupación por la falta de controles
formales para regular esas actividades, lo que podría dar lugar a
incidentes que tuvieran un impacto importante en la salud y la seguridad
del público en general.
El incidente de Flixborough en junio de 1974, que resultó en 28 muertes, centró la
atención del público británico y de los medios de comunicación en esta área de la
tecnología. Muchos otros acontecimientos, como el
de Seveso (Italia) en 1976 hasta el desastre de Piper Alpha y los
incidentes ferroviarios más recientes de Paddington (y otros), han
mantenido vivo ese interés y han dado lugar a la publicación de
directrices y también a legislación en el Reino Unido. Luego veremos que esto generó estándares internacionales para el desarrollo de sistemas críticos.

No hay comentarios:
Publicar un comentario