Saltar para o conteúdo

Usuário(a):Dr.Negro Gabriel Beatz/Testes

Origem: Wikipédia, a enciclopédia livre.

1. INTRODUÇÃO DA INFORMÁTICA

  Informática é um termo usado para descrever o conjunto das ciências relacionadas ao armazenamento, transmissão e processamento de informações em meios digitais, estando incluídas neste grupo: a ciência da computação, a teoria da informação, o processo de cálculo, a análise numérica e os métodos teóricos da representação dos conhecimentos e da modelagem dos problemas. Mas também a informática pode ser entendida como ciência que estuda o conjunto de informações e conhecimentos por meios digitais.
  O termo informática, sendo dicionarizado com o mesmo significado amplo nos dois lados do Atlântico, assume em Portugal o sentido sinônimo da ciência da computação, enquanto no Brasil é habitualmente usado para rever especificamente o processo de tratamento da informação por meio de máquinas eletrônicas definidas como computadores.
  O estudo da informática começou na matemática, quando os grandes nomes como Alan Turing, Kurt Gödel e Alonzo Church, começaram a estudar que tipos de problemas poderiam ser computados, por elementos humanos que seguissem uma séria de instruções simples, independente do tempo requerido para isso. A motivação por trás destas pesquisas era o avanço durante a revolução industrial e da promessa que máquinas poderiam futuramente conseguir resolver os mesmos problemas de forma mais rápida e mais eficaz.

do mesmo jeito que as indústrias manuseiam matéria-prima para transformá-la em um produto final, os algoritmos foram desenhados para que um dia uma máquina pudesse tratar informações.

  A palavra informática surgiu no meado do século XX (20), da junção de, duas outras palavras, processamento da informação por meios automáticos analógicos ou digitais (quer sejam binários ou não, como "qubit" ou bit quântico). O meio mais comum da utilização da informática são os computadores que tratam informações de maneira automática.
  A informática é a disciplina que lida com o tratamento racional e sistemático da informação por meios automáticos e eletrônicos. Representa o tratamento automático da informação. Constitui o emprego da ciência da informação através do computador. 

T.P.C 1 – O que é a Informática. 2 – O que significa informática. 3 – Onde começou a informática. 4 – Onde surgiu a informática. 5 – Qual é o meio mais comum na utilização da informática. 7 – Quais são os grandes nomes que começaram estudaram a informática. 8 – Para que foram desenhados os algoritmos. 1.2. A ORIGEM E CONCEPÇÃO

  Em 1956, o cientista da computação alemão Karl Steinbuch publicou o periódico Informatico: Automatische Informationsverarbeitung ("Informática: processamento automático de informação"),[2] a palavra se estabeleceu como o termo alemão para a ciência da computação, uma disciplina progenitora para o campo mais vasto da informática.
   Em 1966, o pesquisador russo Alexander Mikhailov, junto com colaboradores, chegou a utilizar o conceito "Informatico" relacionado a uma disciplina que estuda, organiza e dissemina a informação científica (ligada a ciência da Informação). Entretanto, essa definição ficou restrita à antiga União Soviética e aos países do Bloco comunista.

COMPUTADOR


  Computador é uma máquina capaz de variar tipos de tratamentos automáticos de informações ou processamento de dados. Um computador pode possuir inúmeros atributos, dentre deles esta armazenamento de dados, processamento de dados, cálculo em grande escala, desenho industrial, tratamento de imagens gráficas, realidade virtual, entretenimento e cultura.

O computador completo, é composto por:

1 – Monitor 2 – Unidade central 3 – Rato 4 – Teclado 5 – Cabos electricos e cabo VGA


  No passado, o termo foi aplicado nas pessoas responsáveis por algum cálculo. Em geral, entende-se por computador um sistema físico que realiza algum tipo de computação. Existe ainda o conceito matemático rigoroso, utilizado na teoria da computação.
  Assumiu-se que os computadores pessoais e laptops são ícones da Era da Informação; e isto muitas pessoas consideram como "computador". Entretanto, atualmente as formas mais comuns de computador em uso são os sistemas embarcados, pequenos dispositivos usados para controlar outros dispositivos, como robôs, câmeras digitais ou brinquedos.

T.P.C

1. Qual é o ciêntista alemão que publicou o periódico informático em 1956. 2. Como é composto o computador. a) – O que é o monitor e para serve. b) – O que é o unidade central e para serve. c) – O que é o rato e para serve. d) – O que é o teclado e para serve. e) – O que o cabo VGA e para seve. f) – O que são os cabos eletricos e para serve. 3. O que estuda a informática. 4. O que entendes por armazenamento de dados. 5. Quais são os inúmeros atributos do computador. 6. Quais são as formas mais comuns do computador. 7. O que e a ciencia da computação. 8. O que é o computador. 9. O que entende-se por computador.


1.3. O ESTUDO DA INFORMÁTICA

 *Chama-se genericamente Informática como um conjunto das Ciências da Informação, estando incluídas neste grupo: a teoria da informação, o processo de cálculo, a análise numérica e os métodos teóricos da representação dos conhecimentos e de modelação dos problemas. Habitualmente usa-se o termo Informática para referir especificamente o processo de tratamento automático da informação por meio de máquinas electrónicas chamadas computadores. A origem da palavra informática se dá através da junção da palavra informação com a palavra automática que significa Informação automática. 
 *A Internet é uma rede de redes em escala mundial de milhões de computadores. Ao contrário do que se pensa comummente, Internet não é sinónimo de World Wide Web. Esta é parte daquela, sendo a World Wide Web, que utiliza hipermídia em sua formação básica, um dos muitos serviços oferecidos na Internet.
  A Web é um sistema de informação muito mais recente que emprega a Internet como meio de transmissão. Alguns dos serviços disponíveis na Internet, além da Web, são o acesso remoto a outras máquinas (Telnet e SSH), transferência de arquivos (FTP), correio electrónico (e-mail normalmente através dos protocolos POP3 e SMTP), boletins electrónicos (news ou grupos de notícias), bate-papo online (chat), mensagens instantâneas (ICQ, YIM, Jabber, MSN Messenger, Blogs), etc. 
 * Vírus informático: Na terminologia da segurança de computadores, um vírus é um pedaço de um programa que, como um vírus biológico, faz cópias de si mesmo e se espalha anexando-se a um hospedeiro, o programa infectado. O programa infectado é um programa de computador que pode fazer parte do Sistema Operacional. Este programa infecta outros programas que permitem a propagação do vírus. 
 *O antivírus: é um programa que detecta e elimina os vírus encontrados em seu computador. Os antivírus possuem uma base de dados contendo as informações dos vírus que ele pode eliminar. A cada dia novos vírus são criados e por isso a base de dados de qualquer antivírus deverá permanecer sempre actualizada. 
 *Computador: é um equipamento ou dispositivo capaz de armazenar e manipular, lógica e matematicamente, quantidades numéricas representadas fisicamente.

Tipos de computadores: Computador analógico, Computador digital.

   Computadores Analógicos: são computadores que executam trabalhos usando elementos representados por grandezas físicas, como por exemplo, a intensidade de uma corrente eléctrica ou o ângulo de giro de uma engrenagem. São computadores criados para uma finalidade específica, isto é, só se aplicam a um determinado trabalho. Os resultados obtidos com o uso de computadores analógicos são aproximados e servem ao próprio sistema onde é utilizado, como por exemplo: controle de temperatura de uma caldeira utilizando sensores, medidor de água ou de energia eléctrica. 
   Computadores Digitais: computadores que realizam suas operações utilizando elementos representados por grandezas matemáticas (números), ou seja, operam dígito a dígito. São computadores destinados a aplicações múltiplas, podendo ser utilizados em diversas tarefas. Por utilizar valores numéricos, os resultados obtidos com esse tipo de computador são exactos, como por exemplo: os cálculos de engenharia. 

A diferenciação entre o que chamamos de computador analógico e computador digital é que os analógicos realizam operações aritméticas por meio de analogia (sistema de representação de fenómenos por meio de pontos de semelhança), ou seja, não trabalham com números ou símbolos que representem os números, eles fazem analogia direta entre as quantidades; eles medem as quantidades a serem trabalhadas, tendo, portanto, uma analogia entre os valores com os quais pretende trabalhar e os valores internos da máquina. Vantagem do computador é a sua multifuncionalidade

 *O computador pode ser utilizado como instrumento de trabalho, entretimento, diversão e etc. Instrumento de criação de textos, imagens, sons e vídeos. Instrumento de fragmentação de informações, banco de dados. Instrumento de simulação em treinamentos, planilhas, planos de apoio, gerenciamento de pesquisas. E também como instrumentos de diversão com os jogos, que a cada dia se tornam mais reais e interativos.
 O computador evoluiu em sua capacidade de armazenamento de informações, que é cada vez maior, o que possibilita a todos um acesso cada vez maior a informação. Isto significa que o computador agora representa apenas um ponto de um novo espaço, o ciberespaço. Essas informações contidas em computadores de todo mundo e presentes no ciberespaço, possibilitam aos usuários uma acesso à novos mundos, novas culturas, sem a locomoção física. Com todo este armazenamento de textos, imagens, dados, etc.
 Um computador sempre precisa de no mínimo um programa em execução por todo o tempo para operar. Tipicamente este programa é o sistema operacional (ou sistema operativo). O sistema operacional determina quais programas vão executar, quando, e que recursos (como memória e E/S) ele poderá utilizar. O sistema operacional também fornece uma camada de abstração sobre o hardware, e dá acesso aos outros programas fornecendo serviços, como programas gerenciadores de dispositivos ("drivers") que permitem aos programadores escreverem programas para diferentes máquinas sem a necessidade de conhecer especificidades de todos os dispositivos eletrônicos de cada uma delas.

Unidade Central A expressão PC ou CPU pode se referir a: • PC - Computador pessoal (do inglês personal computer) • A CPU - Unidade Central de Processamento (Central Processing Unit)

 A CPU ou PC (Central Processing Unit, ou Unidade Central de Processamento) é a parte de um computador que interpreta e leva as instruções contidas no software. Na maioria das CPU's, essa tarefa é dividida entre uma unidade de controle que dirige o fluxo do programa e uma ou mais unidades de execução que executam operações em dados. 
  O termo CPU é frequentemente usado de forma pouco precisa para incluir outras partes centricamente importantes de um computador, tais como caches e controladores de entrada/saída, especialmente quando aquelas funções estão no mesmo chip microprocessador da CPU. 
 Os fabricantes de computadores de mesa com frequência equivocadamente descrevem como CPU o computador pessoal inteiro, chamando-o de a unidade de sistema ou algumas vezes a caixa branca, incluindo o gabinete do computador e os componentes sólidos (termo genérico "hardware" em inglês) que ele contém. Correctamente, a CPU, como unidade funcional, é aquela parte do computador que realmente executa as instruções (somar, subtrair, mudar de posição, agarrar, etc.) 

T.P.C 1. Importância do CPU. 2. O que significa a palavra PC. 3. O que é a internet. 4. O que é o sistema operacional. 5. O que é um Vírus. 6. Como podemos eliminar um Vírus. 7. Quais são os tipos de computadores que estudaste. 8. Como pode ser utilizado o computador. 9. Qual é a vantagem do antivírus. 10. Quais são as duas palavras que deram a origem da palavra informática.


1.4. O PRIMEIRO COMPUTADOR ELETROMECÂNICO

  O primeiro computador eletromecânico foi construído por Konrad Zuse (1910–1995). Em 1936, esse engenheiro alemão construiu, a partir de relês que executavam os cálculos e dados lidos em fitas perfuradas, o Z1. Zuse tentou vender o computador ao governo alemão, que desprezou a oferta, já que não poderia auxiliar no esforço de guerra. Os projetos de Zuse ficariam parados durante a guerra, dando a chance aos americanos de desenvolver seus computadores.
  Foi na Segunda Guerra Mundial que realmente nasceram os computadores atuais. A Marinha dos Estados Unidos, em conjunto com a Universidade de Harvard, desenvolveu o computador Harvard Mark I, projetado pelo professor Howard Aiken, com base no calculador analítico de Babbage. O Mark I ocupava 120m³ aproximadamente, conseguindo multiplicar dois números de dez dígitos em três segundos.
  Simultaneamente, e em segredo, o Exército dos Estados Unidos desenvolvia um projeto semelhante, chefiado pelos engenheiros J. Presper Eckert e John Mauchly, cujo resultado foi o primeiro computador a válvulas, o Eletronic Numeric Integrator And Calculator (ENIAC)[2], capaz de fazer quinhentas multiplicações por segundo. Tendo sido projetado para calcular trajetórias balísticas, o ENIAC foi mantido em segredo pelo governo americano até o final da guerra, quando foi anunciado ao mundo.

T.P.C

1. Quem construi o primeiro computador eletromecânico. 2. Em que ano ano engenheiro alemão construi o O primeiro computador eletromecânico. 3. O que deu a chance para que os americanos desenvolverem os seus computadores. 4. Em que da guerra mundial que nasceram os novos computadores. 5. Quem desenvolveu e projetou o Harvard Mark I. 6. Quais foram os engenheiros que projetaram o mesmo projecto semelhante.

1.5. ENIAC, COMPUTADOR DESENVOLVIDO PELO EXÉRCITO DOS ESTADOS UNIDOS.

No ENIAC, o programa era feito rearranjando a fiação em um painel. Nesse ponto John von Neumann propôs a ideia que transformou os calculadores eletrônicos em “cérebros eletrônicos”: modelar a arquitetura do computador segundo o sistema nervoso central. Para isso, eles teriam que ter três características:

1 - Codificar as instruções de uma forma possível de ser armazenada na memória do computador. Von Neumann sugeriu que fossem usados uns e zeros.

2 - Armazenar as instruções na memória, bem como toda e qualquer informação necessária a execução da tarefa.

3 - Quando processar o programa, buscar as instruções diretamente na memória, ao invés de lerem um novo cartão perfurado a cada passo.

  Este é o conceito de programa armazenado, cujas principais vantagens são: rapidez, versatilidade e automodificação. Assim, o computador programável que conhecemos hoje, onde o programa e os dados estão armazenados na memória ficou conhecido como Arquitetura de von Neumann.
   Para divulgar essa ideia, von Neumann publicou sozinho um artigo. Eckert e Mauchy não ficaram muito contentes com isso, pois teriam discutido muitas vezes com ele. O projeto ENIAC acabou se dissolvendo em uma chuva de processos, mas já estava criado o computador moderno.

T.P.C

1. Quais são as três caracteristicas para modelar do coputador o sistema nervoso central. 2. Quais são as principais vantagens do conceito de programa armazenado. 3. Que projecto acabou se dissolvendo uma de chuva processos para criação de computadores modernos.


6. PROCESSAMENTO

  O processador é uma das partes principais do hardware do computador e é responsável pelos cálculos, execução de tarefas e processamento de dados. A velocidade com que o computador executa as tarefas ou processa dados está diretamente ligada à velocidade do processador. As primeiras CPUs eram constituídas de vários componentes separados, mas desde meados da década de 1970 as CPUs vêm sendo manufaturadas em um único circuito integrado, sendo então chamadas microprocessadores.
  A unidade lógica e aritmética (ULA) é a unidade central do processador, que realmente executa as operações aritméticas e lógicas entre dois números. Seus parâmetros incluem, além dos números operandos, um resultado, um comando da unidade de controle, e o estado do comando após a operação. O conjunto de operações aritméticas de uma ULA pode ser limitado a adição e subtração, mas também pode incluir multiplicação, divisão, funções trigonométricas e raízes quadradas. Algumas podem operar somente com números inteiros, enquanto outras suportam o uso de ponto flutuante para representar números reais (apesar de possuírem precisão limitada).
  A unidade de controle é a unidade do processador que armazena a posição de memória que contém a instrução corrente que o computador está executando, informando à ULA qual operação a executar, buscando a informação (da memória) que a ULA precisa para executá-la e transferindo o resultado de volta para o local apropriado da memória. Feito isto, a unidade de controle vai para a próxima instrução (tipicamente localizada na próxima posição da memória, a menos que a instrução seja uma instrução de desvio informando que a próxima instrução está em outra posição.
  A CPU também contém um conjunto restrito de células de memória chamadas registradores, que podem ser lidas e escritas muito mais rapidamente que em outros dispositivos de memória. São usadas frequentemente para evitar o acesso contínuo à memória principal cada vez que um dado é requisitado.

7. MEMÓRIA

  A memória é um dispositivo que permite ao computador armazenar dados por certo tempo. Atualmente o termo é geralmente usado para definir as memórias voláteis, como a RAM, mas seu conceito primordial também aborda memórias não voláteis, como o disco rígido. Parte da memória do computador é feita no próprio processador; o resto é diluído em componentes como a memória RAM, memória cache, disco rígido e leitores de mídias removíveis, como disquete, CD e DVD.
  Nos computadores modernos, cada posição da memória é configurado para armazenar grupos de oito bits (chamado de um byte). Cada byte consegue representar 256 números diferentes; de 0 a 255 ou de -128 a +127. Para armazenar números maiores pode-se usar diversos bytes consecutivos (geralmente dois, quatro ou oito). Quando números negativos são armazenados, é utilizada a notação de complemento para dois.
  A memória do computador é normalmente dividida entre primária e secundária, havendo também pesquisadores que afirmam haver a memória "terciária".

MEMÓRIA PRIMÁRIA

  A memória primária é aquela acessada diretamente pela Unidade Lógica e Aritmética. Tradicionalmente essa memória pode ser de leitura e escrita (RAM) ou só de leitura (ROM). Atualmente existem memórias que podem ser classificadas como preferencialmente de leitura, isso é, variações da memória ROM que podem ser regravadas, porém com um número limitado de ciclos e um tempo muito mais alto.
  Normalmente a memória primária se comunica com a ULA por meio de um barramento ou canal de dados. A velocidade de acesso a memória é um fator importante de custo de um computador, por isso a memória primária é normalmente construída de forma hierárquica em um projeto de computador. Parte da memória, conhecida como cache fica muito próxima à ULA, com acesso muito rápido. A maior parte da memória é acessada por meio de vias auxiliares.
  Normalmente a memória é nitidamente separada da ULA em uma arquitetura de computador. Porém, os microprocessadores atuais possuem memória cache incorporada, o que aumenta em muito sua velocidade.

MEMÓRIA RAM

Memória RAM de um PC.
  A memória RAM (Random Access Memory) é uma sequência de células numeradas, cada uma contendo uma pequena quantidade de informação. A informação pode ser uma instrução para dizer ao computador o que fazer. As células podem conter também dados que o computador precisa para realizar uma instrução. Qualquer célula pode conter instrução ou dado, assim o que em algum momento armazenava dados pode armazenar instruções em outro momento. Em geral, o conteúdo de uma célula de memória pode ser alterado a qualquer momento, a memória RAM é um rascunho e não um bloco de pedra.
  As memórias RAM são denominadas genericamente de DRAM (RAM dinâmica) pelo fato de possuírem uma característica chamada refrescamento de memória, que tem a finalidade de regravar os dados armazenados em intervalos regulares de tempo,o que é necessário para a manutenção de seu conteúdo. O tamanho de cada célula, e o número de células, varia de computador para computador, e as tecnologias utilizadas para implementar a memória RAM variam bastante. Atualmente o mais comum é a implementação em circuitos integrados.

MEMÓRIA ROM

Memória ROM de um PC.
  A memória ROM (Read-Only Memory) é aquela que só pode ser lida e os dados não são perdidos com o desligamento do computador. A diferença entre a memória RAM e a ROM é que a RAM aceita gravação, regravação e perda de dados. Mesmo se for enviada uma informação para ser gravada na memória ROM, o procedimento não é executado (esta característica praticamente elimina a criação de vírus que afetam a ROM).
  Um software gravado na ROM recebe o nome de firmware. Em computadores da linha IBM-PC eles são basicamente três, que são acessados toda vez que ligamos o computador, a saber: BIOS, POST e SETUP.
  Existe uma variação da ROM chamada memória preferencialmente de leitura que permite a re-gravação de dados. São as chamadas EPROM (Erasable Programmable Read Only Memory) ou EEPROM (Electrically Erasable Programmable Read-Only Memory).

MEMÓRIA SECUNDÁRIA

  A memória secundária ou memória de massa é usada para gravar grande quantidade de dados, que não são perdidos com o desligamento do computador, por um período longo de tempo. Exemplos de memória de massa incluem o disco rígido e mídias removíveis como o CD-ROM, o DVD, o disquete e o pen drive.
  Normalmente a memória secundária não é acessada diretamente pela ULA, mas sim por meio dos dispositivos de entrada e saída. Isso faz com que o acesso a essa memória seja muito mais lento do que o acesso a memória primária. Para isso cada dispositivo encontra-se com um buffer de escrita e leitura para melhoramento de desempenho.
  Supostamente, consideramos que a memória terciária está permanentemente ligada ao computador.

MEMÓRIA TERCIÁRIA


Fita magnética para gravação de dados.
  Sistemas mais complexos de computação podem incluir um terceiro nível de memória, com acesso ainda mais lento que o da memória secundária. Um exemplo seria um sistema automatizado de fitas contendo a informação necessária. A memória terciária pode ser considerada um dispositivo de memória secundária ou memória de massa colocado para servir um dispositivo de memória secundária.
  As tecnologias de memória usam materiais e processos bastante variados. Na informática, elas têm evoluído sempre em direção de uma maior capacidade de armazenamento, maior miniaturização, maior rapidez de acesso e confiabilidade, enquanto seu custo cai constantemente.
  Entretanto, a memória de um computador não se limita a sua memoria individual e física, ela se apresenta de maneira mais ampla, e sem lugar definido (desterritorializada). Temos possibilidades de armazenar em diversos lugares na rede, podemos estar em Cairo e acessar arquivos que foram armazenados em sítios no Brasil.
  É crescente a tendência para o armazenamento das informações na memória do espaço virtual, ou o chamado ciberespaço, através de discos virtuais e anexos de e-mails. Isto torna possível o acesso a informação a partir de qualquer dispositivo conectado à Internet.

Entrada e saída Ver artigo principal: E/S

8. MOUSE OU RATO

   Rato é um dispositivo de entrada e saída (E/S) que são periféricos usados para a interação homem-computador. Nos computadores pessoais modernos, dispositivos comuns de entrada incluem o mouse (ou rato), o teclado, o digitalizador e a webcam. Dispositivos comuns de saída incluem a caixa de som, o monitor[3] e a impressora.

  O rato (português europeu) ou mouse (português brasileiro) [máuss][1] é um periférico de entrada que, historicamente, se juntou ao teclado como auxiliar no processo de entrada de dados, especialmente em programas com interface gráfica. O rato ou mouse (estrangeirismo, empréstimo do inglês "mouse", que significa "camundongo") tem, como função, movimentar o cursor (apontador) pelo ecrã ou tela do computador. Foi criado pela Xerox mas somente se tornou um produto comercializado com a Apple.[2]

  O mouse funciona como um apontador sobre a tela (português brasileiro) ou ecrã (português europeu) do computador e disponibiliza, normalmente, quatro tipos de operações: movimento, clique, duplo clique e arrastar e largar (drag and drop).
  Existem modelos com um, dois, três ou mais botões cuja funcionalidade depende do ambiente de trabalho e do programa que está a ser utilizado. Claramente, o botão esquerdo é o mais utilizado.
  O mouse é, normalmente, ligado ao computador através de uma porta serial PS2 ou, mais recentemente, USB (Universal Serial Bus). Também existem conexões sem fio: as mais antigas em infravermelho, as atuais em Bluetooth.
  Outros dispositivos de entrada competem com o rato: touchpads (usados basicamente em notebooks) e trackballs. Também é possível ver o joystick como um concorrente, mas os joysticks não são comuns em computadores. É interessante notar que uma trackball pode ser vista como um rato de cabeça para baixo.
  O que todos os dispositivos de entrada têm em comum é que eles precisam codificar (converter) a informação de algum tipo em dados que podem ser processados pelo sistema digital do computador. Dispositivos de saída por outro lado, descodificam os dados em informação que é entendida pelo usuário do computador. Neste sentido, um sistema de computadores digital é um exemplo de um sistema de processamento de dados.
   
   

INTERIOR DE UM RATO

1 - A bola, que faz girar a roldana; 2 - Roldana que irá alterar a passagem de luz entre o LED e o sensor; 3 - Sensor fotoeléctrico; 4 - Botão de clique (esquerdo e direito); LED.

  O rato ou rato original possuía dois discos que rolavam nos eixos X e Y e tocavam directamente na superfície. O modelo mais conhecido de rato é, provavelmente, o rato baseado em uma esfera, que roda livremente, mas que, na prática, gira dois discos que ficam em seu interior. O movimento dos discos pode ser detectado tanto mecanicamente quanto por meio óptico.
  Os modelos mais modernos de rato são totalmente ópticos, não tendo peças móveis. De modo muito simplificado, eles tiram fotografias que são comparadas e que permitem deduzir o movimento que foi feito. O rato óptico não é uma invenção tão moderna quanto parece: já no início da década de 1990 a Sun fornecia máquinas com um rato óptico que exigia um mousepad especial, com uma padronagem matricial. O rato óptico actual, porém, usa uma tecnologia muito mais avançada, que pode funcionar em qualquer superfície não reflexiva. O rato, por padrão, possui, pelo menos, dois botões: o esquerdo é usado para selecionar e clicar (acionar) ícones e o direito realiza funções secundárias como, por exemplo, exibir as propriedades do objeto apontado. Há, ainda, na maioria dos ratos, um botão Scroll em sua parte central, que tem, como função principal, movimentar a barra de rolagem das janelas.

HISTÓRIA Rato de 1 botão


  Embora tenha sido inventado por Bill English, a sua patente pertence a Douglas Engelbart, com a patente n. 3.541.541 Nos Estados Unidos datando de 1970.
  Engelbart apresentou este periférico pela primeira vez em 9 de dezembro de 1968 denominando-o de "XY Position Indicator For A Display System". Constituía-se então em uma pequena caixa de madeira com apenas um botão. O invento de Engelbart ficou sem muita utilização devido à falta de necessidade de tal dispositivo: afinal, a maioria dos computadores utilizava apenas textos sem cursores na tela.
  A partir da primeira metade da década de 1980, mais precisamente em 1983, a Apple Inc. Passou a utilizar o rato como dispositivo apontador em seus micros Apple Lisa. Desde lá para cá, o periférico tornou-se parte integrante dos atuais PCs.
  O Windows da Microsoft foi criado à volta dele e navegar na Internet seria impossível sem um rato (mouse). Pode-se dizer que, a partir do lançamento do Windows 3.1, em abril de 1992, o lugar do rato estava assegurado.

   Rato óptico atual usando um LED vermelho para projetar luz na superfície de tração.

  Na época, Douglas Engelbart vendeu a patente do "X-Y Position Indicator" (rato/mouse) por 10 000 dólares estadunidenses.
  Nestes trinta e quatro anos, centenas de milhões de computadores e, certamente, um número igual ou maior de ratos foram vendidos.
  Em 10 de abril de 1997, Engelbart recebeu, em Washington, o prêmio Lemelson-MIT de 500 mil dólares estadunidenses, um dos principais prêmios do mundo para inventores.



MUDANÇAS EM ORDEM CRONOLÓGICA

Mouse sem fios de 5 botões.

1 - Esfera: ganhou uma esfera, para que pudesse transmitir, com mais precisão, os movimentos. 2 - Trackball: inventa-se o trackball, um rato de "cabeça para baixo". Os movimentos são conseguidos usando-se o polegar diretamente na esfera. Algumas pessoas se sentem mais à vontade com o trackball do que com o rato. 3 - Sem fio: a opção de não se ter mais um fio entre o rato e o microcomputador. O rato sem fio envia as informações para a base e esta se encarrega de passar, para o computador, as informações. 4 - Ergonomia: tanto os ratos como os trackballs passam a ter desenhos mais ergonômicos, se adaptando mais aos usuários 5 - Scroll: roda usada para rolar a tela. 6 - Óptico: a esfera desaparece e todo o conjunto mecânico que era responsável pela leitura do movimento passa a ser óptico. O sistema óptico emite um feixe que "lê" em até 2 000 vezes por segundo a superfície. Através desta leitura é que se detecta o movimento.

2 Ratos de 1986.


Rato de 3 botões.


Rato contemporâneo.


Rato moderno.


Rato de laptop (Touchpad).


  Processo este, que consiste basicamente em três fases: Entrada, Processamento e Saída. Entendemos por entrada todo o procedimento de alimentação de informações, que por sua vez serão processadas (fase de processamento) e após isso, são repassadas as respostas ao usuário (saída).
  Podemos ter dispositivos que funcionam tanto para entrada como para saída de dados, como o modem e o drive de disquete. Atualmente, outro dispositivo híbrido de dados é a rede de computadores.

9. TECLADO (INFORMÁTICA)


Teclado padrão.


Teclado com design moderno (mas já desatualizado).

  Na computação, o teclado de computador é um dispositivo que possui uma série de botões ou teclas, e utilizado para inserir dados no computador. É um tipo de periférico de entrada utilizada pelo usuário para a entrada manual no sistema de dados e comandos. Possui teclas representando letras, números, símbolos e outras funções, baseado no modelo de teclado das antigas máquinas de escrever.
  Um teclado normalmente tem caracteres gravados ou impressos sobre cada botão, que corresponde a um único símbolo escrito. No entanto, para produzir alguns símbolos no computador, é necessário utilizar mais de uma tecla simultaneamente, ou apertando Windows+r e escrever "charmap".
  Os teclados mais comuns são projetados para a escrita de textos e inserção de comandos de sistema. Juntamente ao rato, é uma das principais interfaces entre o computador e o utilizador.

Teclado com design moderno (mas já desatualizado).


HISTÓRIA

Uma máquina de escrever Smith Premier Typewriter.

  A origem dos teclados com layout dos dias de hoje foram criados por Christopher Sholes, e foi através das máquinas de escrever e dos keypunchers. Vários dispositivos que imprimiam dados alfanuméricos eram usados no começo do século XX. Os mais antigos eram as fitas de papeis perfurados, que começaram a ser utilizados em 1881. O código Morse sonoro foi usado até meados de 1917 quando os circuitos principais, especialmente aqueles que usavam cabos como a API e a UPI foram convertidos para usar impressoras mecânicas. Sistemas de cartões perfurados, que eram usados a muitos anos para controlar máquinas de confeccionar, além disso começaram a criar empregos para as pessoas que guardavam os dados com as máquinas de tabulação. No século vinte a máquina de teletipo se uniu com a máquina de escrever, onde resultou em uma nova forma de comunicação telegráfica, em 1930. Inicialmente, essas máquinas imprimiam em uma fita de papel, onde papeis maiores poderiam ser usados. A tecnologia de cartões perfurados criada em 1881 ajudou a criar a guardar mensagens e depois poderiam ler de novo com um leitor mecânico. A Segunda Guerra Mundial ajudou na criação de computadores para quebrar códigos de mensagens criptografadas de guerra fazendo cálculos realmente rápidos para sua época. Mesmo antes da guerra, algumas companhias como a Bell Laboratories começavam a trabalhar com computadores. Em setembro de 1940, G.R. Stibitiz demonstrou o Model 1 que utilizava uma entrada de teclado do teletipo. Essa demonstração foi única porque foi feita através de linhas telefônicas, algo que não seria repetido por mais de uma década. Os anos 50 viram o começo da comercialização do computador. Computadores como o Univac tinham um teclado que era usado para controlar o console, mas antes eles eram apenas para calcular números de maneira mais fácil.

ESTRUTURA

  Os teclados são essencialmente formados por um arranjo de teclas ou botões. Cada botão tem um ou mais caracteres impressos ou gravados face, sendo que cerca de cinquenta por cento dos botões produzem caracteres gráficos [carece de fontes].
  As teclas são ligadas a um chip dentro do teclado, responsável por identificar a tecla pressionada e por enviar as informações para o computador. O meio de transporte dessas informações entre o teclado e o computador pode ser sem fio (via rede sem fio, bluetooth ou infravermelho) ou a cabo (os conectores mais comuns são PS/2 e USB, mas computadores mais antigos utilizavam padrão DIN).

Design Teclado padrão


  Comumente, os teclados são formados por teclas paralelas em uma estrutura plana, horizontal, sobre a qual o utilizador posiciona as mãos a fim de pressionar, com os dedos, as teclas necessárias à operação. Entretanto, há diversos desenhos de teclados voltados para fins específicos. Há também teclados ergonômicos, em que o posicionamento das teclas busca maior conforto para quem digita.

Arranjo das Teclas. Teclado de 105 teclas padrão QWERTY.


  O número de teclas em um teclado padrão varia de 101 a 104 teclas, entretanto, considerando-se teclas de atalho e outros recursos, é comum encontrar teclados de até 130 teclas. Também há variantes compactas com menos de 90 teclas, geralmente encontradas em laptops e em computadores de mesa compactos.
  Os arranjos mais comuns em países ocidentais se baseiam no padrão QWERTY e variantes próximas, como o plano de AZERTY francês.

TECLAS ADICIONAIS E RECURSOS DE INTERNET

  Os teclados de computadores mais modernos são baseados em versões padrão, mas muitas vezes incluem teclas adicionais, podendo incluir ou não o teclado complementar numérico. Nos últimos anos, teclados com recursos específicos para navegação na Internet ficaram populares. Esses incluem botões extras para aplicações específicas ou funções (tipicamente em navegador ou cliente de e-mail).






Teclados Alternativos Tipos de teclado


  Foram propostos outros tipos de teclados para equipamentos portáteis pequenos, nos quais a instalação de um teclado comum seria incompatível por questões de tamanho, por exemplo
  Um sistema que permitiu reduzir o número de teclas foi o denominado "chord" (o nome deriva da palavra inglesa para a palavra acorde, por analogia com acordes executados em um instrumento musical de teclas). Nesse sistema, ao pressionar diversas teclas simultaneamente, é produzido um caractere diferente. Assim, o utilizador deve aprender as combinações de teclas necessárias para gerar os caracteres de que necessita. Um exemplo de sistema do tipo “chord” é o teclado de GKOS, projetado para dispositivos sem fio pequenos.
  Outras alternativas são teclados tipo controlador de jogos, como o AlphaGrip, que também é usado para introduzir dados e texto.

Disposição do teclado em Portugal e no Brasil

Teclado usado em Portugal


Teclado usado no Brasil


  No Brasil, a ABNT certificou dois padrões de teclado baseados no QWERTY. O ABNT e o ABNT-2.

COMANDOS

   Um teclado também é usado para comandos em um computador. Uns exemplos famosos no PC são a combinação Ctrl+Alt+Del (teclas Control, Alt e Delete) pressionadas simultaneamente. Nas versões mais recentes do Microsoft Windows, isto expõe um cardápio com, dentre outras, opções para controlar as aplicações correntes e desligar o computador. No MS-DOS e em algumas versões mais antigas de Windows, executa-se o Ctrl+Alt+Del para reiniciar o computador.
  No Linux, pode ser programado pelo administrador para executar algum comando determinado, como um simples LOGOUT ou mesmo desabilitado para evitar acidentes, porém o uso principal continua sendo o de reiniciar a máquina.

JOGOS ELETRÔNICOS

Teclado com formato anatômico para as mãos.
 
Teclas W A S D comumente usadas em jogos eletrônicos.

  Um teclado é um dos meios primários de controle em jogos de computador. Por exemplo, as teclas de seta ou um grupo de letras cuja disposição se assemelhe ao padrão das teclas de seta –W-A-S-D – pode ser usado para movimento de um personagem num jogo.
  Em jogos, muitas teclas podem ser configuradas de acordo com a preferência do usuário. Teclas com letras do alfabeto também executam, às vezes, ações que começam com aquela letra. O teclado é menos ideal quando muitas teclas são pressionadas simultaneamente. Como os circuitos são limitados, só um certo número de teclas serão registradas por vez. Um exemplo óbvio disto é o bloqueio fundamental. Em teclados mais velhos, devido ao desenho do circuito, apertando simultaneamente às vezes três teclas resulta em um comando. Teclados modernos impedem que isto aconteça bloqueando a 3ª tecla em certas combinações fundamentais, mas enquanto isto previne o aparecimento de teclas de fantasmas, também significa que quando duas teclas estiverem simultaneamente pressionadas, muitas das outras teclas no teclado não responderão até que uma das duas teclas pressionadas seja solta. São projetados teclados melhores de forma que isto raramente acontece em programas de escritório, mas permanece um problema em jogos igual em teclados caros, devido à configuração de comando com teclas freneticamente diferentes em jogos diferentes.



10. MONITOR DE VÍDEO


  O monitor é um dispositivo de saída do computador, cuja função é transmitir informação ao utilizador através da imagem. Porém são poucas as pessoas que se interessam por sua historia. Nos anos 50, a televisão ainda era novidade. Os computadores ocupavam vários metros quadrados, e eram utilizados cartões perfurados para armazenar, e papeis impressos para exibir os dados. Estes computadores eram usados em grandes empresas, pois era inviável e inútil alguém ter um destes em casa. Naquela época, era ficcional existirem computadores pessoais, e também que estes tivessem uma interface gráfica (termo desconhecido na época).
  A tecnologia começou a avançar cada vez mais, e com ajuda da tecnologia dos televisores, o monitor foi criado. Antes do monitor, foi desenvolvido o Tele impressor, que exibia as imagens em uma tela de televisão, evitando assim um monte de impressões. O monitor só exibia as imagens dos códigos.
  Utilizando os cabos dos vídeo-games, a maioria dos computadores dos anos 70 usava os televisores para visualizar os dados. Foi nesta época que surgiram os computadores pessoais. No ano de 1970 foi lançado o VT05 com um tele impressor embutido.
  Nos anos 80 foram feitas mais adaptações em relação aos televisores, e os monitores passaram a exibir cores. Não eram muito variadas, mais foi um avanço importante. Foi nesta época também que surgiram os monitores de cristal liquido, que quando foram criados, eram somente usados em notebooks, pois eram muito caros e com eficiência igual a de um monitor comum.
  Os monitores de tubo já perderam espaço no mercado, pois são grandes e consomem muita energia. Os monitores LCD evoluíram muito, melhorando a imagem e a economia. Atualmente são os mais vendidos.
  Os monitores são classificados de acordo com a tecnologia de amostragem de vídeo utilizada na formação da imagem. Atualmente, essas tecnologias são três: CRT , LCD e plasma. À superfície do monitor sobre a qual se projecta a imagem chamamos tela, ecrã ou écran.

TECNOLOGIAS CRT Tubo de raios catódicos

Monitor CRT da marca LG.

  CRT (Cathodic Ray Tube), em inglês, sigla de (Tubo de raios catódicos) é o monitor "tradicional", em que a tela é repetidamente atingida por um feixe de elétrons, que atuam no material fosforescente que a reveste, assim formando as imagens.
  Este tipo de monitor tem como principais vantagens:

1 - Longa vida útil; 2 - bBixo custo de fabricação; 3 - Grande banda dinâmica de cores e contrastes; e 4 - Grande versatilidade (uma vez que pode funcionar em diversas resoluções, sem que ocorram grandes distorções na imagem).

As maiores desvantagens deste tipo de monitor são: 1 - suas dimensões (um monitor CRT de 20 polegadas pode ter até 50 cm de profundidade e pesar mais de 20 kg); 2 - O consumo elevado de energia; 3 - seu efeito de cintilação (flicker); e 4 - a possibilidade de emitir radiação que está fora do espectro luminoso (raios x), danosa à saúde no caso de longos períodos de exposição. Este último problema é mais frequentemente constatado em monitores e televisores antigos e desregulados, já que atualmente a composição do vidro que reveste a tela dos monitores detém a emissão dessas radiações. 5 - Distorção geométrica.

LCD Um monitor de cristal líquido


  LCD (Liquid Cristal Display), em inglês, sigla de (tela de cristal líquido) é um tipo mais moderno de monitor. Nele, a tela é composta por cristais que são polarizados para gerar as cores.

Tem como vantagens: 1 - O baixo consumo de energia; 2 - As dimensões e peso reduzidas; 3 - A não-emissão de radiações nocivas; 4 - A capacidade de formar uma imagem praticamente perfeita, estável, sem cintilação, que cansa menos a visão - desde que esteja operando na resolução nativa.

As maiores desvantagens são:

1 - o maior custo de fabricação (o que, porém, tenderá a impactar cada vez menos no custo final do produto, à medida que o mesmo se for popularizando); 2 - o fato de que, ao trabalhar em uma resolução diferente daquela para a qual foi projetado, o monitor LCD utiliza vários artifícios de composição de imagem que acabam degradando a qualidade final da mesma; e 3 - o "preto" que ele cria emite um pouco de luz, o que confere ao preto um aspecto acinzentado ou azulado, não apresentando desta forma um preto real similar aos oferecidos nos monitores CRTs; 4 - o contraste não é muito bom como nos monitores CRT ou de Plasma, assim a imagem fica com menos definição, este aspecto vem sendo atenuado com os novos painéis com iluminação por leds e a fidelidade de cores nos monitores que usam painéis do tipo TN (monitores comuns) são bem ruins, os monitores com painéis IPS, mais raros e bem mais caros, tem melhor fidelidade de cores, chegando mais próximo da qualidade de imagem dos CRTs; 5 - Um fato não divulgado pelos fabricantes: se o cristal líquido da tela do monitor for danificado e ficar exposto ao ar, pode emitir alguns compostos tóxicos, tais como o óxido de zinco e o sulfeto de zinco; este será um problema quando alguns dos monitores fabricados hoje em dia chegarem ao fim de sua vida útil (estimada em 20 anos). 6 - Ângulo de visões inferiores: Um monitor LCD, diferente de um monitor CRT, apresenta limitação com relação ao ângulo em que a imagem pode ser vista sem distorção. Isto era mais sensível tempos atrás quando os monitores LCDs eram de tecnologia passiva, mas atualmente apresentam valores melhores em torno de 160º.

Apesar das desvantagens supra mencionadas, a venda de monitores e televisores LCD vem crescendo bastante.

PRINCIPAIS CARACTERÍSTICAS TÉCNICAS Para a especificação de um monitor de vídeo, as características técnicas mais relevantes são: Luminância Tamanho da tela Tamanho do ponto Temperatura da cor Taxa de contraste Interface (DVI ou VGA, usualmente) Frequência de sincronismo horizontal Frequência de sincronismo vertical Tempo de resposta Taxa de atualização

11. UNIDADE CENTRAL DE PROCESSAMENTO

  A unidade central de processamento ou CPU (Central Processing Unit), também conhecido como processador, é a parte de um sistema computacional, que realiza as instruções de um programa de computador, para executar a aritmética básica, lógica, e a entrada e saída de dados[1]. A CPU tem papel parecido ao cérebro no computador[2]. O termo vem sendo usado desde o início de 1960.[3] A forma, desenho e implementação mudaram drasticamente desde os primeiros exemplos, porém o seu funcionamento fundamental permanece o mesmo.

12. BARRAMENTOS

  Para interligar todos esses dispositivos existe uma placa de suporte especial, a placa-mãe, que através de barramentos, fios e soquetes conecta todos os dispositivos. Sua função inclui também a conexão de placas auxiliares que subcontrolam os periféricos de entrada e saída, como a placa de som (conecta-se com a caixa de som), a placa de vídeo (conecta-se com o monitor), placa de rede (conecta-se com a LAN) e o fax-modem (conecta-se com a linha telefônica).
  Nota-se que o barramento entre os componentes não constitui uma conexão ponto a ponto; ele pode conectar logicamente diversos componentes utilizando o mesmo conjunto de fios. O barramento pode utilizar uma interface serial ou uma interface paralela.
  Outros equipamentos adicionais usados em conjunto com a placa-mãe são o dissipador, um pequeno ventilador para resfriar o processador, e a fonte de energia, responsável pela alimentação de energia de todos os componentes do computador.

Arquitetura de software Instruções

  A principal característica dos computadores modernos, o que o distingue de outras máquinas, é que pode ser programada. Isto significa que uma lista de instruções pode ser armazenada na memória e executa posteriormente.

  Diagrama de linguagem de programação compilada em linguagem de máquina.
  As instruções executadas na ULA discutidas acima não são um rico conjunto de instruções como a linguagem humana. O computador tem apenas um limitado número de instruções bem definidas. Um exemplo típico de uma instrução existente na maioria dos computadores é "copie o conteúdo da posição de memória 123 para a posição de memória 456", "adicione o conteúdo da posição de memória 510 ao conteúdo da posição 511 e coloque o resultado na posição 507" e "se o conteúdo da posição 012 é igual a 0, a próxima instrução está na posição 678".
  Instruções são representadas no computador como números - o código para "copiar" poderia ser 007, por exemplo. O conjunto particular de instruções que um computador possui é conhecido como a linguagem de máquina do computador. Na prática, as pessoas não escrevem instruções diretamente na linguagem de máquina mas em uma linguagem de programação, que é posteriormente traduzida na linguagem de máquina através de programas especiais, como interpretadores e compiladores. Algumas linguagens de programação se aproximam bastante da linguagem de máquina, como o assembly (linguagem de baixo nível); por outro lado linguagens como o Prolog são baseadas em princípios abstratos e se distanciam bastante dos detalhes da operação da máquina (linguagens de alto nível).
  A execução das instruções é tal como ler um livro. Apesar da pessoa normalmente ler cada palavra e linha em sequência, é possível que algumas vezes ela volte para pontos anteriores do texto de interesse ou passe sessões não interessantes. Da mesma forma, um computador que segue a arquitetura de von Neumann executa cada instrução de forma sequencial, da maneira como foram armazenadas na memória. Mas, através de instruções especiais, o computador pode repetir instruções ou avançá-las até que alguma condição seja satisfeita. Isso é chamado controle do fluxo e é o que permite que o computador realize tarefas repetitivamente sem intervenção humana.
  Uma pessoa usando uma calculadora pode realizar operações aritméticas como somar número apertando poucos botões. Mas somar sequencialmente os números de um a mil iria requerer apertar milhares de vezes os botões, com uma alta probabilidade de erro em alguma iteração. Por outro lado, computadores podem ser programados para realizar tal tarefa com poucas instruções, e a execução e extremamente rápida.
  Mas os computadores não conseguem pensar, eles somente executam as instruções que fornecemos. Um humano instruído, ao enfrentar o problema da adição explicado anteriormente, perceberia em algum momento que pode reduzir o problema usando a seguinte equação:

1 + 2 + 3 + . . . + n = n ( n + 1 ) 2 , e chegar na mesma resposta correta com pouco trabalho. Alguns computadores modernos conseguem tomar algumas decisões para acelerar a execução dos programas ao prever instruções futuras e reorganizar a ordem de instruções sem modificar seu significado. Entretanto, os computadores ainda não conseguem determinar instintivamente uma maneira mais eficiente de realizar sua tarefa, pois não possuem conhecimento para tal [4].



13. PROGRAMAS

Programa de computador

  Programas são simplesmente grandes listas de instruções para o computador executar, tais com tabelas de dados. Muitos programas de computador contêm milhões de instruções, e muitas destas instruções são executadas repetidamente. Um computador pessoal típico (no ano de 2003) podia executar cerca de dois a três bilhões de instruções por segundo. Os computadores não têm a sua extraordinária capacidade devido a um conjunto de instruções complexo. Apesar de existirem diferenças de projeto com CPU com um maior número de instruções e mais complexas, os computadores executam milhões de instruções simples combinadas, escritas por bons "programadores". Estas instruções combinadas são escritas para realizar tarefas comuns como, por exemplo, desenhar um ponto na tela. Tais instruções podem então ser utilizadas por outros programadores.
  Hoje em dia, muitos computadores aparentam executar vários programas ao mesmo tempo, o que é normalmente conhecido como multitarefa. Na realidade, a CPU executa as instruções de um programa por um curto período de tempo e, em seguida, troca para um outro programa e executa algumas de suas instruções. Isto cria a ilusão de vários programas sendo executados simultaneamente através do compartilhamento do tempo da CPU entre os programas. Este compartilhamento de tempo é normalmente controlado pelo sistema operacional. Nos casos em que o computador possui dois núcleos de processamento, cada núcleo processa informações de um programa, diminuindo assim o tempo de processamento.

14. SISTEMA OPERACIONAL

  Um computador sempre precisa de no mínimo um programa em execução por todo o tempo para operar. Tipicamente este programa é o sistema operacional (ou sistema operativo), que determina quais programas vão executar, quando, e que recursos (como memória e E / S) ele poderá utilizar. O sistema operacional também fornece uma camada de abstração sobre o hardware, e dá acesso aos outros programas fornecendo serviços, como programas gerenciadores de dispositivos ("drivers") que permitem aos programadores escreverem programas para diferentes máquinas sem a necessidade de conhecer especificidades de todos os dispositivos eletrônicos de cada uma delas.


15. IMPACTOS DO COMPUTADOR NA SOCIEDADE

Visualização gráfica de várias rotas em uma porção da Internet mostrando a escalabilidade da rede
  Segundo Pierre Lévy, no livro "Cibercultura", o computador não é mais um centro, e sim um nó, um terminal, um componente da rede universal calculante. Em certo sentido, há apenas um único computador, mas é impossível traçar seus limites, definir seu contorno. É um computador cujo centro está em toda parte e a circunferência em lugar algum, um computador hipertextual, disperso, vivo, fervilhante, inacabado: o ciberespaço em si.
  O computador evoluiu em sua capacidade de armazenamento de informações, que é cada vez maior, o que possibilita a todos um acesso cada vez maior a informação. Isto significa que o computador agora representa apenas um ponto de um novo espaço, o ciberespaço. Essas informações contidas em computadores de todo mundo e presentes no ciberespaço, possibilitam aos usuários um acesso a novos mundos, novas culturas, sem a locomoção física. Com todo este armazenamento de textos, imagens, dados, etc.
  Houve também uma grande mudança no comportamento empresarial, com uma forte redução de custo e uma descompartimentalização das mesmas. Antes o que era obstante agora é próximo, as máquinas, componentes do ciberespaço, com seus compartimentos de saída, otimizaram o tempo e os custos.






16. COMPUTADOR PESSOAL

Computador pessoal (estilo Desktop).


  Um computador pessoal ou PC (do inglês Personal Computer) é um computador de pequeno porte e baixo custo, que se destina ao uso pessoal ou por um pequeno grupo de indivíduos.
  A expressão "computador pessoal" (ou sua abreviação em inglês PC, de "Personal Computer") é utilizada para denominar computadores de mesa (desktops), laptops, PDAs ou Tablet PCs, executando vários Sistemas Operacionais em várias arquiteturas. Os Sistemas Operacionais predominantes são Microsoft Windows, Mac OS X e os sistemas baseados em Linux, e as principais arquiteturas são as baseadas nos processadores x86, x64 e PowerPC.
  No entanto o termo PC tem sido utilizado apenas para computadores pessoais derivados do modelo da IBM, o IBM PC, devido a larga campanha publicitária em 1981. A atual convergência entre PCs e palmtops, celulares e dispositivos móveis que possuem funções similares, sistemas operacionais e componentes leva a uma discussão sobre a extensão do termo "computador pessoal" a esses dispositivos.

LAPTOP


  Um laptop (AFI: [læpˈtɔp]), no Brasil, também denominado notebook (AFI: [noʊtˈbʊk]) ou computador portátil (em Portugal, abreviado frequentemente para portátil) é um computador portátil, leve, projetado para ser transportado e utilizado em diferentes lugares com facilidade. Geralmente, um laptop contém tela de LCD ou LCD LED[1](cristal líquido), teclado, mouse (geralmente um touchpad, área onde se desliza o dedo), unidade de disco rígido, portas para conectividade via rede local ou fax/modem, gravadores de CD/DVD. Os mais modernos não possuem mais a entrada para discos flexíveis (disquetes), e, havendo necessidade de utilizar um desses dispositivos, conecta-se um adaptador a uma das portas USB.
  Segundo o Dicionário Aurélio da Língua Portuguesa, existe uma pequena distinção entre laptop e notebook, sendo o notebook aproximadamente do mesmo tamanho de um caderno universitário e necessariamente menor que o laptop. Apesar disso, não existe uma convenção oficial sobre a nomenclatura e, na linguagem popular, o uso dos dois nomes se faz de forma aleatória, sendo que os computadores portáteis pequenos com menos recursos são ocasionalmente chamados de laptops, e os computadores portáteis grandes e com maiores recursos são ocasionalmente chamados de notebooks.
  A expressão "laptop" deriva da aglutinação dos termos em inglês lap (colo) e top (em cima), significando "em cima do colo", em contrapartida ao desktop (que significa, literalmente, "em cima da mesa").
  Laptops podem ser divididos em duas categorias: os portáteis, voltados especialmente aos que necessitam de um computador como acessório de trabalho mas que locomovem-se com frequência entre um lugar e outro, e os desktops replacements, voltados a pessoas que querem computadores com alguma mobilidade e com performance semelhante à de um computador de mesa.
  Laptops portáteis são pequenos, leves e projetados para que suas baterias sejam capazes de abastecê-los por um longo período de tempo (quatro a cinco horas ou mais). Isto ao custo de configurações de hardware mais simplificadas, com pouca memória RAM (raramente superior a 4 gigabytes), placa de vídeo na maioria das vezes integrada ao chipset ou processador, velocidade do processador raramente superior a 3,00 GHz, e hard drive quase sempre limitado a 500 gigabytes de capacidade . As telas mais comuns são as de 14 polegadas (ou 14,1 polegadas em widescreen) e 15" (ou 15,4" em widescreen).

TOSHIBA T1100


  Atuais substitutos de desktop, por outro lado, são projetados de modo a possuir performance comparável a bons computadores de mesa (4 gigabytes ou mais de RAM, placa de vídeo dedicada, 250 gigabytes de espaço ou mais e até 2,8 giga-hertz (Core 2 Duo, Core i3, Core i5, Core i7) de velocidade do processador. Tais laptops, voltados aos que querem performance (para uso de aplicativos pesados, tais como jogos, por exemplo) estão ficando mais leves, relativamente menores, e gastam mais lentamente suas baterias (que normalmente duram no máximo 4 horas em laptops com baterias de 9 células, executando aplicativos de peso médio). Substitutos de desktops comuns possuem entre 15 e 17 polegadas, embora alguns laptops possuam 19 ou mesmo 20 polegadas. Novos laptops possuem tamanho de uma agenda e são finos como uma capa de dvd, como alguns modelos da Acer e Asus denominados netbooks.
  Atualmente, muitos laptops são dotados de adaptadores de rede wireless, que possibilitam a conexão a redes de computadores sem fio. Essas redes podem ser instaladas em escritório, e já é muito comum encontrá-las também em residências. Com os adaptadores wireless, os usuários de laptops podem acessar a internet em diversos estabelecimentos, tais como restaurantes e aeroportos, sem a necessidade de conectar fios, desde que esses locais ofereçam o serviço. O acesso à rede sem fio também pode ser controlada, sendo que o internauta somente poderá se conectar à rede através do uso de senhas ou cartões. Esse tipo de tarifação tem sido muito utilizada por fornecer ao estabelecimento a possibilidade de, além de cobrar pelo serviço oferecido, ter controle de todos os usuários do serviço. Um dos grandes exemplos de sistemas de tarifação é o Accesscard, onde o internauta compra cartões pré-pagos com tempo definido e se loga ao sistema através da inserção de um código impresso no cartão. Mas, hoje, as operadoras de celular cobram uma taxa fixa de navegação de dados 3G.

DESKTOP


  Desktop, expressão inglesa oriunda de desktop publisher (editor de textos de mesa), é o termo internacionalmente usado para se referir aos computadores de mesa, que têm tudo separado (rato ou mouse, teclado, gabinete, monitor, impressora...), em oposição aos laptops (computadores portáteis, por vezes também chamados notebooks). Na comparação, os desktops também costumam ter um menor custo.
  O termo desktop também pode ser defindo como: tampo da mesa, onde se apoiam os objetos de trabalho. Esta ideia é metaforicamente usada no meio computacional para denominar a Área de Trabalho (na tradução do Windows no Brasil) ou Ambiente de Trabalho (na tradução do Windows em Portugal) ou, ainda, Mesa (na tradução do Mac OS no Brasil) ou Secretária (na tradução do Mac OS em Portugal) é como se a tela do monitor de um computador pessoal representasse a área de trabalho de uma tampa de uma mesa de escritório.
  Em meio computacional, uma área de trabalho consiste em um ambiente gráfico adequado ao usuário (ou utilizador), onde ele pode abrir algumas janelas de programas e efetuar operações básicas sobre as janelas abertas e sobre o ambiente em si. Há ambientes gráficos (gerenciadores de janelas) que permitem ao usuário ter mais de uma área de trabalho aberta ao mesmo tempo, para que haja uma melhor distribuição das janelas dos programas abertos entre as áreas de trabalho, resultando numa melhor organização.