Problema do ano 2000

Origem: Wikipédia, a enciclopédia livre.
(Redirecionado de Y2K)
Ir para: navegação, pesquisa
NoFonti.svg
Este artigo ou se(c)ção cita uma ou mais fontes fiáveis e independentes, mas ela(s) não cobre(m) todo o texto (desde abril de 2011).
Por favor, melhore este artigo providenciando mais fontes fiáveis e independentes e inserindo-as em notas de rodapé ou no corpo do texto, conforme o livro de estilo.
Encontre fontes: Googlenotícias, livros, acadêmicoScirusBing. Veja como referenciar e citar as fontes.
Y2K
Foto do dia 3 de janeiro de 2000 mostra um painel eletrônico de um metrô na França com a data errada: 3 de janeiro de 1900.
Outros nomes Bug do milênio
Projeção Global
Data 1 de janeiro de 2000

Problema do ano 2000, Bug do milênio (ou milénio) ou Bug Y2K[1] foi o termo usado para se referir ao problema previsto ocorrer em todos os sistemas informatizados na passagem do ano de 1999 para 2000. Bug é um jargão internacional usado por profissionais e conhecedores de programação, que significa um erro de lógica na programação de um determinado software.

Contexto histórico[editar | editar código-fonte]

Na década de 1960, com a solidificação de vários sistemas computacionais e a ampliação de sua abrangência, foi necessária a adoção de diversos padrões para garantir a compatibilidade entre os diversos tipos de hardware e os softwares escritos para eles. Numa época em que cada byte de memória economizado representava economia de dinheiro muitos destes padrões adotavam formas resumidas para armazenar dados. Ainda hoje centenas destes padrões ainda estão em vigor, embora muitos tenham sido substituídos para se atualizar com a flexibilidade dos novos hardwares disponíveis.

Nos sistemas mais antigos, como aqueles na linguagem COBOL e semelhantes, as datas eram armazenadas com apenas 2 dígitos para o ano, ficando os restantes implicitamente entendidos como sendo "19". Desta forma cada data armazenada deixava de ocupar oito bytes (dois para o dia, dois para o mês e quatro para o ano), e passava a ocupar somente seis bytes (somente dois no ano). A opção por representar as datas desta forma vinha da necessidade real de economia de memória e espaço de armazenamento. Hoje isso parece insignificante mas na época isso foi o suficiente para justificar a adoção do padrão, tamanho o custo das memórias e dispositivos de armazenamento.

Para ter uma ideia imagine um banco de dados com vários campos, entre eles data de nascimento, data de casamento e data de cadastro. Para cada registro a economia nas três datas totaliza seis bytes. Se o banco de dados tiver dez mil registros são 60kB bytes a menos, o que era significativo numa época em que os discos tinham o tamanho de 180kB.

O problema[editar | editar código-fonte]

Como todas as datas eram representadas por somente 2 dígitos, os programas assumiam o "19" na frente para formar o ano completo. Assim, quando o calendário mudasse de 1999 para 2000 o computador iria entender que estava no ano de "19" + "00", ou seja, 1900. Os softwares mais modernos, que já utilizavam padrões mais atuais, não teriam problemas em lidar com isso e passariam corretamente para o ano 2000, mas constatou-se que uma infinidade de empresas e instituições de grande porte ainda mantinham em funcionamento programas antigos, em função da confiança adquirida por anos de uso e na sua estabilidade. Para além disso, temiam-se os efeitos que poderiam ser provocados no hardware pelo sistema BIOS, caso este reconhecesse apenas datas de dois dígitos.

Caso as datas realmente "voltassem" para 1900, clientes de bancos veriam suas aplicações dando juros negativos, credores passariam a ser devedores, e boletos de cobrança para o próximo mês seriam emitidos com cem anos de atraso.

Soluções[editar | editar código-fonte]

O temor do Bug do milênio motivou uma renovação em massa dos recursos de informática (tanto de software como de hardware) e houve uma louca corrida para corrigir, atualizar e testar os sistemas antes que ocorresse a mudança do milênio. Velhos programadores de COBOL foram tirados da aposentadoria, para voltar a trabalhar em sistemas muitas vezes desenvolvidos por eles mesmos, vinte anos antes.

Na verdade, alguns dos sistemas desenvolvidos já possuíam alguma previsão para a virada do milênio. Um exemplo de técnica de compensação ao Bug pode ser encontrado no velho sistema em COBOL da empresa brasileira Espiral Informática: O sistema adicionava 1900 ao ano sempre que este fosse maior do que 25. E adicionava 2000 a todos os anos anteriores a 25. Assim, "24" seria interpretado como 2024, e "26", como "1926". Já "85" era interpretado como 1985. Este sistema tinha vida útil até 2025, data escolhida de forma arbitrária pelo desenvolvedores, possivelmente na crença de que em 2025 o sistema já teria sido substituído por simples obsolescência.

Nos computadores da Apple Inc., era utilizado um sistema de contagem de segundos desde 1 de Janeiro de 1904, sendo que o sistema operativo se encarregava de converter os segundos em data.

Consequências[editar | editar código-fonte]

Surpreendentemente, houve poucas falhas decorrentes do Bug do milênio, que se revelou quase inofensivo apesar de ter gerado uma onda de pânico coletivo, especialmente nos países nos quais os computadores estavam mais popularizados. O assunto gerou muita polêmica devido aos grandes lucros gerados para as empresas de informática, foi alvo de matérias copiosas na imprensa e deu até origem a vários filmes. Hoje é considerado como um dos casos registrados pela História de pânico coletivo vazio de fundamentos, uma versão moderna do "temor do fim do mundo" que acometeu os povos da Europa Medieval na virada do ano de 999 para 1000.

Na cultura popular[editar | editar código-fonte]

No filme Entrapment (No Brasil: A Armadilha) do ano 1999, é mostrado um roubo tecnológico em consequência do Bug do Milênio.[2]

Ver também[editar | editar código-fonte]

Referências

  1. Y2K bug fails to bite (em inglês). Página visitada em 23 de maio de 2010.
  2. JC OnLine - Editoria Economia. www2.uol.com.br. Página visitada em 22 de abril de 2012.