Informática

Esta é uma versão em áudio do artigo. Clique aqui para ouvi-lo.
Origem: Wikipédia, a enciclopédia livre.

Informática é um termo usado para descrever o conjunto das ciências relacionadas à coleta, armazenamento, transmissão e processamento de informações em meios digitais, estando incluídas neste grupo: a ciência da computação, os sistemas de informação, a teoria da informação, o processo de cálculo, a análise numérica e os métodos teóricos da representação dos conhecimentos e da modelagem dos problemas. Mas também a informática pode ser entendida como ciência que estuda o conjunto de informações e conhecimentos por meios digitais.

O termo informática, sendo dicionarizado com o mesmo significado amplo nos dois lados do Atlântico, assume em Portugal o sentido sinônimo da ciência da computação, enquanto que no Brasil é habitualmente usado para rever especificamente o processo de tratamento da informação por meio de máquinas eletrônicas definidas como computadores.

O estudo da informação começou na matemática quando nomes como Alan Turing, Kurt Gödel e Alonzo Church começaram a estudar que tipos de problemas poderiam ser resolvidos, ou computados, por elementos humanos que seguissem uma série de instruções simples, independentemente do tempo requerido para isso. A motivação por trás destas pesquisas era o avanço durante a revolução industrial e da promessa que máquinas poderiam futuramente conseguir resolver os mesmos problemas de forma mais rápida e mais eficaz. Do mesmo jeito que as indústrias manuseiam matéria-prima para transformá-la em um produto final, os algoritmos foram desenhados para que um dia uma máquina pudesse tratar informações.

Etimologia[editar | editar código-fonte]

A palavra surge, em meados do século XX, da junção de duas outras palavras, processamento da informação por meios automáticos analógicos ou digitais (quer sejam binários ou não, como "qubit" ou bit quântico). O meio mais comum da utilização de informática são os computadores que tratam informações de maneira automática.

A informática é a disciplina que lida com o tratamento racional e sistemático da informação por meios automáticos e eletrônicos. Representa o tratamento automático da informação. Constitui o emprego da ciência da informação através do computador. Embora não se deva confundir informática com computadores, na verdade ela existe porque estes existem.[1]

Origem e concepção[editar | editar código-fonte]

Karl Steinbuch teórico da informação, ciberneticista e engenheiro elétrico.

Em 1956, o cientista da computação alemão Karl Steinbuch publicou o periódico Informatik: Automatische Informationsverarbeitung ("Informática: processamento automático de informação"),[2] a palavra se estabeleceu como o termo alemão para a ciência da computação, uma disciplina progenitora para o campo mais vasto da informática.[3]

Em 1966, o pesquisador russo Alexander Mikhailov, junto com colaboradores, chegou a utilizar o conceito "Informatika" relacionado a uma disciplina que estuda, organiza e dissemina a informação científica (ligada a Ciência da Informação). Entretanto, essa definição ficou restrita à antiga União Soviética e aos países do Bloco comunista.[4][5]

Primeira Geração: ENIAC, começou a ser desenvolvido, ca. 1943

Computação moderna - A evolução dos computadores[editar | editar código-fonte]

  • Primeira Geração (1930 - 1958): Nesta geração os computadores tinham como principal característica, o excesso na utilização de relés e válvulas eletrônicas, assim, possuindo dimensões extremas, pois utilizavam quilômetros de fios, pesava cerca de 30 toneladas e ocupava um espaço de 150 m2 e, apesar do tamanho, tinha memória de apenas 200 bits. Este foi o primeiro computador digital, chamado como ENIAC (Electrical Numerical Integrator and Calculator), criado para desenvolver os cálculos das tabelas balísticas para o exército americano durante a Segunda Guerra Mundial.[6][7]
  • Segunda Geração (1959 - 1964): Na segunda geração, ocorreu a troca das válvulas eletrônicas por transistores, o que diminuiu o tamanho do hardware consideravelmente. A tecnologia de circuitos impressos também foi criada, fazendo com que os hardwares destes novos computadores consumissem menos energia, possuíam maior confiabilidade, eram mais rápidos (a velocidade passou para milionésimos de segundos) e eliminavam quase que por completo o problema do desprendimento de calor. [6][7]
  • Terceira Geração (1964-1970): O avanço desta geração, foi o desenvolvimento e o uso de nova tecnologia, os circuitos integrados (CIs), sendo compacto, e muito mais ágeis eles substituíram o uso de válvulas e transistores, pois, permitiram que uma mesma placa armazenasse vários circuitos que se comunicavam com hardwares distintos ao mesmo tempo, permitindo um maior número de funcionalidades, um exemplo de um computador desta época é o IBM 360/91, que teve seu lançamento em 1967, alcançando o sucesso em vendas. Com esse grande avanço houve uma preocupação no final deste período, pelo fato de ter um avanço enorme em hardware houve a falta na qualidade de desenvolvimentos de software.[6][7]
  • Quarta Geração (1971 até os dias atuais): Com a quarta geração nasceu a empresa INTEL que foi a pioneira no desenvolvimento de microprocessadores, que era equivalente ao computador ENIAC da primeira geração, ocorre também o nascimento da Apple com a criação do Apple I(ca. 1966). Com o passar dos anos, surgiram novos computadores, e os supercomputadores, que eram usado em laboratórios e centros de pesquisa aplicadas, podendo chegar na perfeição como um exemplo o Cray-I. Está geração sem duvida é a mais conhecida por todos nós, pelo advento dos microprocessadores e computadores pessoais, com a redução drástica de tamanho e preço das maquinas, tornando-as mais acessíveis, e ainda mais potente com o afamado da internet. Existem rumores de uma possível e provável quinta geração, onde fala-se em biochips, computadores capazes de compreender e aperfeiçoar ainda mais com a inteligência artificial. [6][7]

Ver também[editar | editar código-fonte]

Ouça o artigo (info)

Sound-icon.svg
Este áudio foi criado a partir da revisão datada de 03/12/2012 e pode não refletir mudanças posteriores ao artigo (ajuda).

Referências

  1. Chiavenato, Idalberto (2001). «Conceito de informática». Teoria Geral da Administração, Volume 2. [S.l.]: Elsevier Brasil. p. 256. 538 páginas. ISBN 853520850X. Consultado em 23 de outubro de 2013 
  2. Karl Steinbuch Eulogy - Bernard Widrow, Reiner Hartenstein, Robert Hecht-Nielsen
  3. Gammack, John G.; Hobbs, Valerie; Pigott, Diarmuid (2011). The Book of Informatics (em inglês) revisada ed. [S.l.]: Cengage Learning. p. 20. 548 páginas. ISBN 0170216004. Consultado em 23 de outubro de 2013 
  4. Federação Internacional de Informação e Documentação. F.I.D. News Bulletin, Volumes 17-21. 1967
  5. Benedicto, Silva (1974). Da documentação à formática: exposições e debates. [S.l.]: Fundação Getúlio Vargas, Instituto de Documentação, Serviço do Publicações. p. 12 
  6. a b c d Gabriel Gugik, Gabriel (6 de março de 2009). «A história dos computadores e da computação». TecMundo. Consultado em 8 de agosto de 2021 
  7. a b c d Oliveira, Luiz Affonso Henderson Guedes de (Abril de 2004). Introdução à Informática: Histórico e Evolução (PDF). Natal: Universidade Federal do Rio Grande do Norte Centro de Tecnologia - Departamento de Computação e Automação. pp. 16–25 

Bibliografia[editar | editar código-fonte]

  • Informática no Brasil, A Opção Política É Nossa, Autor: Maria Lúcia Salgueiro dos Santos, Editora da UFSC/MEC.