Claude Shannon

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa
Claude Shannon
Matemática, engenharia elétrica
Claude Elwood Shannon (1916-2001)
Nacionalidade Estados Unidos Estadunidense
Residência  Estados Unidos
Nascimento 30 de Abril de 1916
Local Petoskey
Morte 24 de Fevereiro de 2001 (84 anos)
Local Medford
Atividade
Campo(s) Matemática, engenharia elétrica
Instituições Bell Labs, Instituto de Tecnologia de Massachusetts, Instituto de Estudos Avançados de Princeton
Alma mater Universidade de Michigan, Instituto de Tecnologia de Massachusetts
Tese 1940: An Algebra for Theoretical Genetics
Orientador(es) Frank Lauren Hitchcock
Orientado(s) William Daniel Hillis, Ivan Sutherland, Bert Sutherland
Conhecido(a) por Codificação de Shannon-Fano, Número de Shannon, Índice de Shannon
Prêmio(s) Gibbs Lecture (1963), Medalha Nacional de Ciências (1966), Medalha de Honra IEEE (1966), Prémio Harvey (1972), Prêmio Claude E. Shannon (1972), Medalha John Fritz (1983), Prêmio Kyoto (1985), National Inventors Hall of Fame (2004)

Claude Elwood Shannon (30 de Abril de 191624 de Fevereiro de 2001) foi um matemático americano, engenheiro eletrônico, e criptógrafo, conhecido como "o pai da teoria da informação".[1] [2]

De 1932 a 1936, estudou matemática e engenharia elétrica na Universidade de Michigan.

Em 1948, publicou o importante artigo científico intitulado A Mathematical Theory of Communication enfocando o problema de qual é a melhor forma para codificar a informação que um emissor queira transmitir para um receptor. Neste artigo, trabalhando inclusive com as ferramentas teóricas utilizadas por Norbert Wiener, Claude Shannon propôs com sucesso uma medida de informação própria para medir incerteza sobre espaços desordenados (mais tarde complementada por Ronald Fisher, que criou uma medida alternativa de informação apropriada para medir incerteza sobre espaços ordenados).

Em 1949, em co-autoria com o também matemático estadunidense Warren Weaver (1894-1978), publicou o livro Teoria Matemática da Comunicação (The Mathematical Theory of Communication),[3] contendo reimpressões do seu artigo científico de 1948 de forma acessível também a não-especialistas - isto popularizou seus conceitos.

Entre 1946 e 1953, Claude Shannon integrou temporariamente o grupo reunido sob o nome de Macy Conferences, contribuindo para a consolidação da teoria cibernética junto com outros cientistas renomados: Arturo Rosenblueth, Gregory Bateson, Heinz von Foerster, John von Neumann, Julian Bigelow, Kurt Lewin, Lawrence Kubie, Lawrence K. Frank, Leonard Jimmie Savage, Margaret Mead, Molly Harrower, Norbert Wiener, Paul Lazarsfeld, Ralph Waldo Gerard , Walter Pitts, Warren McCulloch e William Ross Ashby; além de Erik Erikson e Max Delbrück.

Shannon é famoso por ter fundado a teoria da informação com um artigo publicado em 1948. Mas a ele também é creditado como fundador tanto do computador digital como do projeto de circuito digital em 1937, quando, com 21 anos de idade e aluno de mestrado no MIT, ele escreveu uma tese demonstrando que uma aplicação elétrica utilizando álgebra booleana poderia resolver qualquer problema de lógica. Tem sido dito que esta foi a tese de mestrado de mais importância de todos os tempos.[4] Shannon contribui para o campo da criptoanálise durante a segunda guerra mundial.

Biografia[editar | editar código-fonte]

Shannon nasceu em Petoskey, Michigan. Seu pai, Claude Sr (1862–1934), um descendente dos primeiros colonos de New Jersey, foi um empresário bem sucedido e foi juiz por um certo tempo. Sua mãe , Mabel Wolf Shannon (1890–1945), filha de imigrantes alemães, era uma professora de línguas. Os primeiros 16 anos de Shannon foram em Gaylord, Michigan, onde ele frequentou o ensino público, graduando-se no Gaylord High School em 1932. Shannon mostrou uma inclinação para coisas mecânicas, seus melhores talentos eram para a ciência e matemática. Em casa construiu dispositivos tais como modelos de aviões, um modelo de um barco controlado por rádio e um sistema de telégrafo. Enquanto crescia, trabalhava como mensageiro da Western Union. Seu herói de infância era Thomas Edison, que descobriu depois ser um primo distante. Ambos eram descendentes de John Ogden, um líder colonial e um ancestral de muitas pessoas ilustres.[5] [6]

Teoria Booleana[editar | editar código-fonte]

Em 1932 Shannon começou a cursar a Universidade de Michigan, formando em 1936 com duas graduações de bacharelado em engenharia elétrica e matemática. Posteriormente, começou seus estudos de pós-graduação no Instituto de Tecnologia de Massachusetts (MIT), onde trabalhou com o analisador diferencial de Vannevar Bush, um computador lógico.[7]

Ao estudar os complexos circuitos ad hoc do analisador diferencial, Shannon viu que os conceitos de George Boole, inventor da álgebra booleana, poderia ser útil para várias coisas. Um documento eleborado a partir da sua tese de mestrado em 1937, A Symbolic Analysis of Relay and Switching Circuits,[8] foi publicado na edição de 1938 da Transactions of the American Institute of Electrical Engineers. Howard Gardner, da universidade de Harvard, chamou a tese de Shannon como "possivelmente a mais importante e também a mais famosa tese de mestrado do século."[carece de fontes?]

Neste trabalho, Shannon provou que a álgebra booleana e a aritmética binária poderiam ser utilizadas para simplificar o arranjo dos relés eletromecânicos e então utilizados em comutadores para roteamento telefônico. Expandindo o conceito ele também mostrou que deveria ser possível a utilização de arranjos de relés para resolver problemas de álgebra booleana. A exploração dessa propriedade de interruptores elétricos criou a lógica e os conceitos mais básico dos computadores digitais. O trabalho de Shannon tornou-se o princinpal na área de circuitos digitais quando se tornou amplamente conhecido entre a comunidade de engenharia elétrica durante e após a segunda guerra mundial. O trabalho teórico rigoroso de Shannon substituiu completamente os métodos ad hoc que haviam prevalecido anteriormente.

Em 1940, Shannon se tornou pesquisador do Instituto nacional de Estudos Avançados em Princeton, Nova Jersey. Em Princeton, Shannon teve a oportunidade de discutir suas idéias com cientistas e matemáticos influentes como Hermann Weyl e John von Neumann, além de um encontro ocasional com Albert Einstein. Shannon trabalhou livremente em todas as áreas, e começou a moldar as idéias que se tornariam a teoria da informação.[9]

Pesquisa em Tempo de Guerra[editar | editar código-fonte]

Shannon em seguida juntou-se a Bell Labs para trabalhar em sistemas de controle de fogo e criptografia durante a segunda guerra mundial, sob um contrato com a seção D-2 (Seção de Controle de Sistemas) do Comitê Nacional de Pesquisa em Defesa.

Conheceu sua esposa quando era um analista numerico na Bell Labs. Casaram em 1949.[10]

Durante dois meses no início de 1943, Shannon entrou em contato como o criptoanalista líder e matemático britânico Alan Turing. Turing havia sido enviado para Washington para compartilhar com o serviço de criptoanálise da marinha dos EUA os métodos utilizados pela escola de códigos e cifras do governo britânico em Bletchley Park para quebrar as cifras utilizadas pelos submarinos alemães no Atlântico Norte.[11] Ele também ficou interessado em cifragem de fala e para isso ficou um tempo no Bell Labs. Shannon and Turing se encontraram na hora do lanche em uma cafeteria [11] e Turing mostrou a Shannon seu artigo que definiu o que hoje é conhecido como a "Máquina Universal de Turing"[12] [13] Em 1945, quando a guerra estava chegando ao fim, O NDRC estava emitindo um resumo dos relatórios técnicos como sua última atividade antes de seu eventual fechamento. Dentro do volume de controle de fogo um documento especial intitulado "Suavização de Dados e Previsão em Sistemas de Controle de Fogo",coautoria de Shannon, Ralph Beebe Blackman, e Hendrik Wade Bode, formalmente tratava do problema de suavização dos dados no controle de incêndio por analogia com "o problema de separar um sinal de um ruído interferindo no sistema de comunicação."[14] Em outras palavras foi modelado o problema em termos de dados e processamento de sinal e assim, anunciava o início da era da informação.

Seu trabalho em criptografia foi mais estreitamente relacionada com suas publicações posteriores sobre a teoria da informação.[15] No final da guerra, ele preparou um memorando para a Bell Telephone Labs intitulado "Uma Teoria Matemática da Criptografia," datada de setembro de 1945. Uma versão desclassificada deste trabalho foi posteriormente publicada em 1949 como "Teoria da Comunicação de Sistemas Secretos" no Bell System Technical Journal. Este trabalho incorporou muitos dos conceitos e formulações matemáticas que também apareceram em seu "Uma Teoria Matemática da Comunicação". Shannon disse que suas idéias em teoria da comunicação e criptografia durante a guerra haviam sido desenvolvidas simultaneamente e " elas estavam tão juntas que você não podia separa-las" .[16] Em note de rodapé perto do início do relatório classificado, Shannon anunciou sua intenção de "desenvolver estes estudos... em um memorando sobre a transmissão de informações."[17]

Enquanto na Bell Labs, ele provou que a one-time pad era inquebrável em sua pesquisa que mais tarde foi publicada em outubro de 1949. Ele também provou que qualquer sistema inquebrável deve ter essencialmente as mesmas características do one-time pad: A chave deve ser verdadeiramente aleatória, tão grande quanto o texto original, nunca reutilizada e mantida em segredo.[18]

Contribuições Pós-Guerra[editar | editar código-fonte]

Em 1948, o memorando prometido apareceu como "A Mathematical Theory of Communication", um artigo com duas partes nas edições de julho e outubro do Bell System Technical Journal. Este trabalho enfoca no problema da melhor forma de codificar uma informação que um remetente deseja transmitir. Neste trabalho fundamental ele usou ferramentas da teoria da probabilidade, desenvolvidas por Norbert Wiener, que estavam em seus estágios iniciais de serem aplicadas a teoria das comunicações na época. Shannon desenvolveu a entropia da informação como uma medida de incerteza em uma mensagem.

Contribuição fundamental da teoria da informação para processamento de linguagem natural e lingüística computacional foi ainda estabelecida em 1951, em seu artigo "Previsão e Entropia de Impresso Inglês", mostrando limites superior e inferior da entropia nas estatísticas de Inglês - dando uma base estatística para análise da linguagem.

Outro papel notável publicado em 1949 é a "Communication Theory of Secrecy Systems", uma versão desclassificada do seu trabalho em tempo de guerra sobre a teoria matemática de criptografia , no qual ele provou que todas as cifras teoricamente inquebrável deve ter os mesmos requisitos que a one-time pad. A ele também é creditado a introdução da teoria da amostragem, que se preocupa com o que representa um sinal de tempo contínuo a partir de um conjunto (uniforme) discreto de amostras. Essa teoria foi essencial para permitir a passagem das telecomunicações dos sistemas analógicos para sistemas digitais no ano de 1960 e posteriores.

Hobbies e Invenções[editar | editar código-fonte]

Fora de suas pesquisas acadêmicas, Shannon estava interessado em malabarismo, monociclo, e xadrez. Ele também inventou diversos dispositivos. Um dos seus dispositivos mais engraçados era uma caixa mantida em sua mesa chamada de "Máquina definitiva", baseada em uma idéia de Marvin Minsky. Além disso, ele construiu um dispositivo que poderia resolver o Cubo de Rubik.

Ele também é considerado o co-inventor do primeiro computador portátil, juntamente com Edward O. Thorp. O dispositivo foi utilizado para melhorar as chances quando se jogar roleta.

Legado e homenagens[editar | editar código-fonte]

Shannon chegou ao MIT em 1956, para se juntar ao corpo docente e para realizar um trabalho no Laboratório de Pesquisa de Eletrônica (RLE). Ele continuou a servir no corpo docente do MIT até 1978. Para comemorar suas conquistas, houve celebrações de seu trabalho em 2001, e atualmente há seis estátuas de Shannon esculpido por Eugene L. Daub: um na Universidade de Michigan, uma no MIT no Laboratório de Sistemas de Informação e Decisão, um em Gaylord, Michigan, um na Universidade da Califórnia, San Diego, uma no Bell Labs, e outro no Labs Shannon AT & T. Após o rompimento na Bell, a parte do Bell Labs que ficou com a AT & T foi nomeado Shannon Labs em sua honra.

De acordo com Neil Sloane, a perspectiva introduzida por Shannon da teoria da comunicação (agora chamada de teoria da informação) é a base da revolução digital, e cada dispositivo que contém um microprocessador ou microcontrolador é um descendente conceitual da publicação de Shannon. "... Ele é um dos grandes homens do século, sem ele, nenhuma das coisas que conhecemos hoje existiria. Toda a revolução digital começou com ele".

Shannon desenvolveu a doença de Alzheimer, e passou seus últimos anos em um asilo de Massachusetts. Ele foi auxiliado por sua esposa, Mary Elizabeth Moore Shannon, o filho, Andrew Moore Shannon; a filha, Shannon Margarita, uma irmã, Catherine S. Kay e suas duas netas.

Referências

  1. doi:10.1098/rsbm.2009.0015
    Esta citação será automaticamente completada em poucos minutos. Você pode furar a fila ou completar manualmente
  2. Bell Labs website: "For example, Claude Shannon, the father of Information Theory, had a passion..."
  3. Shannon, Claude E.; Weaver, Warren. The Mathematical Theory of Communication (em inglês). Illinois: Illini Books, 1949. 117 pp. Library of Congress Catalog Card nº 49-11922
  4. Poundstone, William: Fortune's Formula : The Untold Story of the Scientific Betting System That Beat the Casinos and Wall Street
  5. MIT Professor Claude Shannon dies; was founder of digital communications, MIT — News office, Cambridge, Massachusetts, February 27, 2001
  6. CLAUDE ELWOOD SHANNON, Collected Papers, Edited by N.J.A Sloane and Aaron D. Wyner, IEEE press, ISBN 0-7803-0434-9
  7. Robert Price (1982). Claude E. Shannon, an oral history IEEE Global History Network. IEEE. Página visitada em 14 July 2011.
  8. Claude Shannon, "A Symbolic Analysis of Relay and Switching Circuits," unpublished MS Thesis, Massachusetts Institute of Technology, Aug. 10, 1937.
  9. Erico Marui Guizzo, “The Essential Message: Claude Shannon and the Making of Information Theory” (M.S. Thesis, Massachusetts Institute of Technology, Dept. of Humanities, Program in Writing and Humanistic Studies, 2003), 14.
  10. Shannon, Claude Elwood (1916-2001)
  11. a b Hodges, Andrew (1992), Alan Turing: The Enigma, London: Vintage, pp. 243–252, ISBN 978-0-09-911641-7 
  12. Turing, A.M. (1936), "On Computable Numbers, with an Application to the Entscheidungsproblem", Proceedings of the London Mathematical Society, 2 42: 230–65, 1937, doi:10.1112/plms/s2-42.1.230 
  13. Turing, A.M. (1938), "On Computable Numbers, with an Application to the Entscheidungsproblem: A correction", Proceedings of the London Mathematical Society, 2 43 (6): 544–6, 1937, doi:10.1112/plms/s2-43.6.544 
  14. David A. Mindell, Between Human and Machine: Feedback, Control, and Computing Before Cybernetics, (Baltimore: Johns Hopkins University Press), 2004, pp. 319-320. ISBN 0-8018-8057-2.
  15. David Kahn, The Codebreakers, rev. ed., (New York: Simon and Schuster), 1996, pp. 743-751. ISBN 0-684-83130-9.
  16. quoted in Kahn, The Codebreakers, p. 744.
  17. quoted in Erico Marui Guizzo, "The Essential Message: Claude Shannon and the Making of Information Theory," unpublished MS thesis, Massachusetts Institute of Technology, 2003, p. 21.
  18. Shannon, Claude (1949). "Communication Theory of Secrecy Systems". Bell System Technical Journal 28 (4): 656–715.

Ver também[editar | editar código-fonte]

Ligações externas[editar | editar código-fonte]


Precedido por
Harold Alden Wheeler
Medalha de Honra IEEE
1966
Sucedido por
Charles Hard Townes


Wikiquote
O Wikiquote possui citações de ou sobre: Claude Elwood Shannon
Ícone de esboço Este artigo sobre um(a) matemático(a) é um esboço. Você pode ajudar a Wikipédia expandindo-o.