Life-critical

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa
Question book.svg
Esta página ou secção não cita nenhuma fonte ou referência, o que compromete sua credibilidade (desde abril de 2013).
Por favor, melhore este artigo providenciando fontes fiáveis e independentes, inserindo-as no corpo do texto por meio de notas de rodapé. Encontre fontes: Googlenotícias, livros, acadêmicoScirusBing. Veja como referenciar e citar as fontes.
Wikitext.svg
Este artigo ou seção precisa ser wikificado (desde abril de 2013).
Por favor ajude a formatar este artigo de acordo com as diretrizes estabelecidas no livro de estilo.
Translation Latin Alphabet.svg
Este artigo ou secção está a ser traduzido de en:Life-critical. Ajude e colabore com a tradução.

Sistemas Críticos[editar | editar código-fonte]

(Life-critical ou safety-critical systems)
São aqueles cuja falha ou mal funcionamento podem resultar em:
* mortes ou ferimentos graves a pessoas;
* perda ou dano severo a equipamentos (patrimônio);
* ou dano ambiental.

Geralmente são usados métodos e ferramentas de engenharia de segurança para controle de riscos dessa natureza. Sistemas dessa natureza são projetados para apresentar uma probabilidade estatística de falhas abaixo de 10-5 por ano.


Regimes de Confiabilidade:[editar | editar código-fonte]

Existem diversos regimes de confiabilidade para sistemas críticos (ou vitais-críticos: life-critical):

Sistemas anti-falha[editar | editar código-fonte]

ou operacional sob falha (ou com modo operacional sob falha: Fail-operational) continuam operando quando seus sistemas de controle falham. Exemplos incluem
elevadores, termostatos a gás (em fornos domésticos e industriais) e reatores nucleares (passivamente) seguros.


O modo operacional sob falha (Fail-operational) às vezes é inseguro. No caso de armas nucleares, o modo “lance em caso de perda de comunicações” foram rejeitadas pelos sistemas de controle das forças armadas americanas, por ser considerado muito arriscado; contrastando fortemente com o comportamento Falha-fatal (Fail-deadly) dos sistemas de perímetro durante a guerra fria.

Sistemas seguros[editar | editar código-fonte]

ou à prova de falhas (Fail-safe) tornam-se seguros quando ocorre uma falha. Muitos sistemas médicos caem nesta categoria, por exemplo, bombas de infusão:
ao detectar uma possível falha, dá alerta muito antes de chegar ao ponto de parada, quando haverá risco ao paciente; assim o pessoal técnico poderáa tomar as
providências necessárias.
De forma similar, um controlador de um queimador doméstico ou industrial pode falhar, mas em modo seguro., ou seja, desligam a combustão quando uma falha é detectada. Os famosos sistemas de armas nucleareslance-ao-comando” são sistemas seguros (fail-safe), porque se o sistema de comunicações falhar os lançamentos não podem ser ordenados. A sinalização em ferrovias também é projetada para ser assim.

Sistemas com Falha-segura[editar | editar código-fonte]

(ou falha protegida: Fail-secure) mantém máxima segurança quando não podem operar. Por exemplo, enquanto sistemas seguros (fail-safe) destrancam portas
automáticas em caso de problemas, permitindo a passagem sistemas com falha-segura (Fail-secure) as travam bloqueando o acesso.

Sistemas passivos antifalha[editar | editar código-fonte]

(ou com Falha-passiva: Fail-passive) continuam a operar na ocorrência de uma falha no sistema. Exemplos incluem pilotos-automáticos aeronáuticos, em caso de falha
a aeronave permaneceria em estado controlável até que o piloto pudesse retomar o controle e aterrissar a aeronave.

Sistemas com tolerâncias a falhas[editar | editar código-fonte]

(Fault-tolerant) evitam falha no serviço quando um problema e introduzido no sistema. Um exemplo seria os sistemas de controle de reatores nucleares comuns: 
O método normal para tolerar falhas é ter diversos computadores testando continuamente as partes do sistema e substituir os subsistemas falhantes assim que 
detectados.


Enquanto os sistemas problemáticos forem substituídos ou reparados em intervalos satisfatórios o sistema é considerado seguro. Nestes casos, computadores, sistemas de alimentação e pessoal precisam ter redundância (um backup imediato para cada elemento).

Exemplos[editar | editar código-fonte]

Infraestrutura[editar | editar código-fonte]

Disjuntores elétricos;

Sistemas de Despacho de Serviços de Urgência e Emergência;

Geração, transmissão e distribuição de eletricidade;

Alarmes de incêndio;

Sprinkler;

Fusível (elétricos);

Fusíveis (hidráulicos);

Telecomunicações;

Sistemas de controle de queima;

Medicina[editar | editar código-fonte]

As exigências de tecnologia devem ir além de evitar falhas e devem facilitar o cuidado intensivo e suporte vital (estabilização de pacientes).

Máquinas de suporte cardio-respiratório;

Sistemas de ventilação mecânica;

Bombas de infusão e insulina;

Equipamentos de radioterapia;

Equipamentos de cirurgia assistida (robotic surgery);

Desfibriladores

Engenharia Nuclear[editar | editar código-fonte]

Sistemas de controle de reator nuclear;

Recreação[editar | editar código-fonte]

Equitação;

Equipamentos para escalada;

Equipamentos para Paraquedismo;

Equipamentos para mergulho;


Transporte[editar | editar código-fonte]

Sinalização e controle de ferrovias;


Automóveis[editar | editar código-fonte]

Airbags;

Sistemas de frenagem;

Cinto de segurança;

Sistemas de direção;

Aviação[editar | editar código-fonte]

Sistemas para controle de tráfego aéreo;

Sistemas aviônicos e fly-by-wire;

Radionavegação;

Sistemas de controle de potência;

Sistemas de suporte vital (tripulação e passageiros);

Planejamento de vôo;


Exploração Espacial[editar | editar código-fonte]

Veículos tripulados;

Sistemas de segurança de lançamento;

Veículos de lançamento seguro;


Referências

Tradução livre da versão em inglês na Wikipedia. 1

Referências

Ligações externas

http://en.wikipedia.org/wiki/Life-critical_system.
Erro de citação: existem marcas <ref>, mas falta adicionar a predefinição {{referências}} no final da página