miércoles, 16 de noviembre de 2016

Conceptos sobre sistemas críticos

No existe sistema socio-técnico que presente riesgo cero. Esto se debe a que ningún elemento físico tiene tasa de falla cero, ningún ser humano está exento de cometer errores y ningún diseño de software puede prever todas las posibilidades operacionales. Luego todos los sistemas fallan. No existen los sistemas sin fallas. 

A pesar de ello, la percepción pública del riesgo, especialmente después de un incidente mayor, a menudo exige el ideal de riesgo cero. Pero, en general, la mayoría de las personas entienden que esto no es practicable, y se pueden consultar valores de riesgo diario de muerte por diversas causas, que están lejos de ser nulos. De este modo, prevalece el sentido común y la noción de reconocer un riesgo tolerable asociado a cualquier actividad humana.

Ahora bien, el grado real de riesgo que se considera tolerable variará de acuerdo con una serie de factores tales como el grado de control que se tiene sobre las circunstancias, el carácter voluntario o involuntario del riesgo o el número de personas en riesgo en cualquier incidente, entre otros factores.

A partir de ello, se ha desarrollado una tecnología de la seguridad en torno a la necesidad de establecer metas de niveles de riesgo tolerables y evaluar si los diseños propuestos cumplen con estos objetivos, ya sean en plantas de proceso, sistemas de transporte, equipos médicos o cualquier otra aplicación. 
 
A principios de los 70, las personas vinculadas a la industria de procesos se dieron cuenta de que, con plantas cada vez más grandes y complejas, que implicaban mayores inventarios de material peligroso, la práctica de aprender por errores (si es que lo hacían) ya no era aceptable. Se desarrollaron métodos para identificar y cuantificar las consecuencias de las fallas. Se desarrollaron en gran medida para ayudar en el proceso de toma de decisiones al desarrollar o modificar la planta. Las presiones externas para identificar y cuantificar el riesgo vendrían después.

A mediados de esa década ya existía preocupación por la falta de controles formales para regular esas actividades, lo que podría dar lugar a incidentes que tuvieran un impacto importante en la salud y la seguridad del público en general.

El incidente de Flixborough en junio de 1974, que resultó en 28 muertes, centró la atención del público británico y de los medios de comunicación en esta área de la tecnología. Muchos otros acontecimientos, como el de Seveso (Italia) en 1976 hasta el desastre de Piper Alpha y los incidentes ferroviarios más recientes de Paddington (y otros), han mantenido vivo ese interés y han dado lugar a la publicación de directrices y también a legislación en el Reino Unido. Luego veremos que esto generó estándares internacionales para el desarrollo de sistemas críticos.

No hay comentarios:

Publicar un comentario