Saltar para o conteúdo

Arquitetura de von Neumann: diferenças entre revisões

Origem: Wikipédia, a enciclopédia livre.
Conteúdo apagado Conteúdo adicionado
Linha 112: Linha 112:
[[uk:Архітектура фон Неймана]]
[[uk:Архітектура фон Неймана]]
[[zh:冯·诺伊曼结构]]
[[zh:冯·诺伊曼结构]]
o sox é gay

Revisão das 09h46min de 10 de fevereiro de 2011

John von Neumann.



A Arquitetura de von Neumann - de John von Neumann (pronunciado Nóimann) - é uma arquitetura de computador que se caracteriza pela possibilidade de uma máquina digital armazenar seus programas no mesmo espaço de memória que os dados, podendo assim manipular tais programas.Esta arquitetura é um projeto modelo de um programa armazenado-computador digital que utiliza uma unidade de transformação e de um separado armazenamento estrutura para realizar ambas as instruções e dados.

A máquina proposta por Von Neumann reúne os seguintes componentes: (i) uma memória, (ii) uma unidade aritmética e lógica (ALU), (iii) uma unidade central de processamento (CPU), composta por diversos registradores, e (iv) uma Unidade de Controle (CU), cuja função é a mesma da tabela de controle da Máquina de Turing universal: buscar um programa na memória, instrução por instrução, e executá-lo sobre os dados de entrada.

Todos os elementos dessa arquitetura são alinhados da estrutura hardware do CPU, assim o sistema pode realizar todas as suas atividades sem apresentar erros no desempenho. Von Neumann é continuamente influenciado pela evolução tecnológica, tendo peças mais modernas inseridas. Cada um dos elementos apresentados é realizado à custa de componentes físicos independentes, cuja implementação tem variado ao longo do tempo, consoante a evolução das tecnologias de fabricação, desde os relés electromagnéticos, os tubos de vácuo (ou válvulas), até aos semicondutores, abrangendo os transistores e os circuitos eletrônicos integrados, com média, alta ou muito alta densidade de integração (MSI - medium scale, LSI - large scale, ou VLSI - very large scale integration), medida em termos de milhões transistores por pastilha de silício.

As interações entre os elementos exibem tempos típicos que também têm variado ao longo do tempo, consoante as tecnologias de fabricação. Atualmente, as CPUs processam instruções sob controlo de relógios cujos períodos típicos são da ordem de 1 nanosegundo, ou seja, segundos. As memórias centrais têm tempos típicos de acesso da ordem da dezena de nanosegundos. As unidades de entrada e saída exibem tempos típicos extremamente variáveis, mas que são tipicamente muito superiores à escala do nanosegundo. Por exemplo, os discos rígidos exibem tempos da ordem dos milissegundos (milésimo de segundo, ). Outros dispositivos periféricos são inertes, a não ser que sejam ativados por utilizadores humanos. Por exemplo, ao se fazer "copy and paste" nao se-percebe nada do que foi descrito acima, pois um teclado só envia informação para o computador após serem pressionada as devidas teclas. Assim, este dispositivo se comunica com a CPU eventualmente e, portanto, exibe tempos indeterminados.

Descrição

As primeiras máquinas de computação tinham programas fixos. Alguns computadores muito simples ainda usam este projeto, quer para fins de simplicidade ou de formação. Por exemplo, uma calculadora de mesa (em princípio) é um programa de computador fixo. Ele pode fazer a matemática básica, mas não pode ser usado como um processador de texto ou uma consola de jogos. Alterar o programa de uma máquina de programa fixo exige re-ligação, re-estruturação ou re-projetar a máquina. Os primeiros computadores não eram tão "programados", como eles foram "desenhados". Era um processo trabalhoso, começando com fluxogramas e cédulas de papel, seguido de desenhos detalhados de engenharia e, em seguida o processo muitas vezes penoso fisicamente de re-ligação e re-construção da máquina. Podendo levar três semanas para criar um programa no ENIAC e começar a trabalhar.

A idéia do computador de programa armazenado, mudou tudo isso: um computador que pelo projeto inclui um conjunto de instruções e pode armazenar na memória um conjunto de instruções (programa) que detalha o cálculo. Um projeto de programa armazenado também permite que os programas possam se modificar durante a execução. Uma motivação precoce para uma instalação desse tipo foi a necessidade de um programa para incrementar ou modificar a porção do endereço das instruções, o que tinha que ser feito manualmente em projetos adiantados. Isto tornou-se menos importante quando registradores de índice e endereçamento indireto foram as características usuais da arquitetura da máquina. Código de Auto-modificação foi amplamente caído em desuso, já que normalmente é difícil de entender e depurar, bem como sendo ineficiente em pipelining processador moderno, e esquemas de cache.

Em grande escala, a capacidade de tratar as instruções como os dados é o que faz montadores, compiladores e outras ferramentas de programação automatizada possíveis. Pode-se "escrever programas que escrevem programas." Em uma escala menor, instruções de I / O da máquina intensiva, como o BitBlt primitivos usados para modificar imagens em um display bitmap. Foi mostrado posteriormente que estas instruções podem ser implementadas de forma eficiente por "na compilação fly" ("just-in-time de compilação) de tecnologia, por exemplo, geração de código de programas, uma forma de código de auto-modificação que se manteve popular.

Há desvantagens para a concepção de von Neumann. Além do gargalo de von Neumann descrito abaixo, alterações do programa pode ser bastante prejudicial, quer por acidente ou design. Em alguns projetos simples computador de programa armazenado, um programa com defeito pode danificar outros programas, ou o sistema operacional, possivelmente levando a uma pane no computador. Proteção de memória e outras formas de controle de acesso.

O matemático Alan Turing, que tinha sido alertado para um problema de lógica matemática pelas palestras de Max Newman na Universidade de Cambridge, escreveu um artigo em 1936 intitulado On Computable Numbers, com um aplicativo para o Entscheidungsproblem, que foi publicado nos Anais da Sociedade Matemática de Londres. Nela, ele descreveu uma máquina hipotética que ele chamou de "máquina de computação universal", e que agora é conhecida como a "máquina de Turing universal". A máquina hipotética tinha uma loja de infinitas (memória na terminologia de hoje instruções e dados. O engenheiro alemão Konrad Zuse, independentemente escreveu sobre este conceito em 1936. John von Neumann tornou-se familiarizado com Turing, quando ele era professor visitante na Universidade de Cambridge em 1935 e também durante o ano que Turing passou na Universidade de Princeton, em 1936-1937.

Von Neumann estava envolvido no Projeto Manhattan no Los Alamos National Laboratory, que exigiu enormes quantidades de cálculo. Isso o levou para o projeto ENIAC, no verão de 1944. Lá ele se juntou ao debate em curso sobre a concepção deste computador de programa armazenado, o EDVAC. Como parte desse grupo, ele se ofereceu para escrever uma descrição do mesmo. O termo "arquitetura de von Neumann" surgiu a partir de papel de von Neumann Primeiro esboço de um relatório sobre o EDVAC datado de 30 de junho de 1945, que incluía idéias de Eckert e Mauchly. Ele estava inacabado quando seu colega Herman Goldstine que circulou somente com o nome de von Neumann sobre ele, para a consternação de Eckert e Mauchly.O documento foi lido por dezenas de colegas de von Neumann nos Estados Unidos e Europa, e influenciou para a próxima rodada de modelos de computador.

Von Neumann foi, então, o criador da arquitetura de programa armazenado, e Jack Copeland considera que é "historicamente inadequado, para se referir a electrônica de programa armazenado e computadores digitais como" máquinas de von Neumann ".

Ambos os papéis de von Neumann e Turing descreveram um programa armazenado para computadores, mas o papel anterior de von Neumann alcançado maior circulação e da arquitetura do computador que expôs ficou conhecido como a "arquitetura de von Neumann". No livro de 1953 mais rápido do que se pensava (editado por Bowden BV), uma secção no capítulo sobre Computadores na América do seguinte teor.

Gargalo (von neumann)

A separação entre a CPU e a memória leva para o gargalo de von Neumann, a produção limitada (taxa de transferência) entre a CPU e a memória em comparação com a quantidade de memória. Na maioria dos computadores modernos, o throughput é muito menor do que a taxa com que o processador pode trabalhar. Isso limita seriamente a velocidade de processamento eficaz quando o processador é exigido para realizar o processamento mínimo em grandes quantidades de dados. A CPU é continuamente forçada a esperar por dados que precisam ser transferidos para ou a partir da memória. Como a velocidade da CPU e tamanho da memória têm aumentado muito mais rapidamente que a taxa de transferência entre eles, o gargalo se tornou mais um problema, um problema cuja gravidade aumenta com cada geração de CPU.

O termo "gargalo de von Neumann" foi cunhado por John Backus em sua palestra Award 1977 ACM Turing. Segundo Backus:

Certamente deve haver uma maneira menos primitiva de se fazer grandes mudanças na loja, do que deixando um grande número de palavras para trás, através do gargalo de von Neumann. Não só é um tubo de estrangulamento literal para o tráfego de dados de um problema, mas, mais importante, é um factor de estrangulamento intelectual que nos tem mantido amarrado a pensar palavra-em-um-tempo em vez de encorajar-nos a pensar em termos de grandes unidades conceituais da tarefa em questão. Assim, a programação é basicamente o planejamento e detalhamento do tráfego enorme de palavras através do gargalo de von Neumann.

O problema de desempenho pode ser aliviado (até certo ponto) por diversos mecanismos. Os algoritmos fornecem um cache entre o processador ea memória principal, proporcionando caches separados com os caminhos de acesso separado para dados e instruções (a chamada arquitetura de Harvard), e utilizando preditor e lógica são as três formas de desempenho. O problema também pode ser contornado usando um pouco de computação paralela, por exemplo a arquitetura NUMA, esta abordagem é geralmente utilizado pelos supercomputadores.Uma solução proposta é Backus que não teve uma grande influência. Modern programação funcional e programação orientada a objetos, são menos voltadas para do que as linguagens anteriores, mas é internamente o que os computadores passam a maior parte do tempo fazendo, mesmo os supercomputadores altamente paralelos.

Primeiros computadores de arquitetura von Neumann

fonte: Wikipedia em inglês.
A Primeira Ideia (primeiro rascunho - First Draft) descrevia um design de computador que foi usado por muitas universidades e corporações para construir seus computadores. [1] Dentre esses computadores, somente o ILLIAC e o ORDVAC possuíam instruções compatíveis.

  • ORDVAC (U-Illinois) @ Aberdeen Proving Ground, Maryland (completado em novembro de 1951[2])
  • IAS machine @ Princeton University (jan. de 1952)
  • MANIAC I @ Los Alamos Scientific Laboratory (mar. 1952)
  • ILLIAC @ the University of Illinois, (set. 1952)
  • AVIDAC @ Argonne National Laboratory (1953)
  • ORACLE @ Oak Ridge National Laboratory (jun. 1953)
  • JOHNNIAC @ RAND Corporation (jan. 1954)
  • BESK em Stockholm (1953)
  • BESM-1 em Moscow (1952)
  • DASK em Denmark (1955)
  • PERM em Munich (1956?)
  • SILLIAC em Sydney (1956)
  • WEIZAC em Rehovoth (1955)


e o sOx é gay!!!

Referências

  1. Electronic Computer Project ([ligação inativa]) 
  2. Illiac Design Techniques, report number UIUCDCS-R-1955-146, Digital Computer Laboratory, University of Illinois at Urbana-Champaign, 1955  Parâmetro desconhecido |name= ignorado (ajuda)

Predefinição:Link FA

John Von Neumann

o sox é gay