História da entropia

Origem: Wikipédia, a enciclopédia livre.

O conceito de entropia se desenvolveu em resposta à observação de que uma certa quantidade de energia funcional liberada das reações de combustão é sempre perdida por dissipação ou atrito e, portanto, não é transformada em trabalho útil. Os primeiros motores movidos a calor, como o de Thomas Savery (1698), o motor Newcomen (1712) e o triciclo a vapor Cugnot (1769), eram ineficientes, convertendo menos de dois por cento da energia de entrada em saída de trabalho útil; uma grande quantidade de energia útil foi dissipada ou perdida. Nos dois séculos seguintes, os físicos investigaram esse quebra-cabeça da energia perdida; o resultado foi o conceito de entropia.

No início da década de 1850, Rudolf Clausius apresentou o conceito de sistema termodinâmico e postulou o argumento de que, em qualquer processo irreversível, uma pequena quantidade de energia térmica δQ é gradualmente dissipada através da fronteira do sistema. Clausius continuou a desenvolver suas idéias de energia perdida e cunhou o termo entropia.

Desde meados do século XX, o conceito de entropia encontrou aplicação no campo da teoria da informação, descrevendo uma perda análoga de dados em sistemas de transmissão de informação.

Termodinâmica clássica[editar | editar código-fonte]

Em 1803, o matemático Lazare Carnot publicou uma obra intitulada Princípios Fundamentais de Equilíbrio e Movimento. Este trabalho inclui uma discussão sobre a eficiência de máquinas fundamentais, ou seja, polias e planos inclinados. Carnot viu através de todos os detalhes dos mecanismos para desenvolver uma discussão geral sobre a conservação da energia mecânica. Nas três décadas seguintes, o teorema de Carnot foi considerado uma afirmação de que em qualquer máquina as acelerações e colisões das partes móveis representam todas as perdas de momento de atividade,[1] ou seja, o trabalho útil realizado. Disto Carnot deduziu que o movimento perpétuo era impossível. Essa perda de momento de atividade foi a primeira declaração rudimentar da segunda lei da termodinâmica e do conceito de "energia de transformação" ou entropia, ou seja, energia perdida por dissipação e fricção.[2]

Carnot morreu no exílio em 1823. Durante o ano seguinte, seu filho Sadi Carnot, graduado na escola de treinamento da École Polytechnique para engenheiros, mas agora morando com metade do salário com seu irmão Hippolyte em um pequeno apartamento em Paris, escreveu Reflexões sobre a força motriz do fogo. Neste livro, Sadi visualizou um motor ideal no qual qualquer calor (isto é, calórico) convertido em trabalho, poderia ser reintegrado invertendo o movimento do ciclo, um conceito posteriormente conhecido como reversibilidade termodinâmica. Com base no trabalho do pai, Sadi postulou o conceito de que "algum calórico sempre se perde" na conversão em trabalho, mesmo em sua máquina térmica reversível idealizada, que excluía as perdas por atrito e outras perdas devido às imperfeições de qualquer máquina real. Ele também descobriu que essa eficiência idealizada dependia apenas das temperaturas dos reservatórios de calor entre os quais o motor estava trabalhando, e não dos tipos de fluidos de trabalho. Qualquer máquina térmica real não conseguia perceber a reversibilidade do ciclo de Carnot e estava condenada a ser ainda menos eficiente. Essa perda de calorias utilizáveis foi uma forma precursora do aumento da entropia como a conhecemos agora. Embora formulado em termos de calórico, em vez de entropia, este foi um dos primeiros insights da segunda lei da termodinâmica.

Definição de 1854[editar | editar código-fonte]

Rudolf Clausius - criador do conceito de "entropia"

Em suas memórias de 1854, Clausius primeiro desenvolve os conceitos de trabalho interior, ou seja, aquilo "que os átomos do corpo exercem uns sobre os outros", e trabalho exterior, ou seja, aquilo "que surge de influências externas, às quais o corpo pode estar exposto. ", de modo que pode atuar sobre um corpo de fluido ou gás em funcionamento, normalmente funcionando para mover um pistão. Ele então discute as três categorias em que o calor Q pode ser dividido:

  1. Calor empregado para aumentar o calor realmente existente no corpo;
  2. Calor empregado na realização de trabalhos interiores;
  3. Calor empregado na realização de trabalho exterior.

Com base nessa lógica, e seguindo uma apresentação matemática do primeiro teorema fundamental, Clausius então apresentou a primeira formulação matemática da entropia, embora neste ponto, o desenvolvimento de suas teorias, ele a tenha chamado de "valor de equivalência", talvez referindo-se a o conceito de equivalente mecânico de calor que estava se desenvolvendo na época, em vez de entropia, um termo que entraria em uso mais tarde.[3] Ele declarou:[4]

o segundo teorema fundamental na teoria mecânica do calor pode, assim, ser enunciado:

Se duas transformações que, sem a necessidade de qualquer outra mudança permanente, podem substituir-se mutuamente, forem chamadas de equivalentes, então as gerações da quantidade de calor Q do trabalho na temperatura T têm o valor de equivalência :

e a transferência da quantidade de calor Q da temperatura T 1 para a temperatura T 2, tem o valor de equivalência:

em que T é uma função da temperatura, independente da natureza do processo pelo qual a transformação é efetuada.

Na terminologia moderna, pensamos neste valor de equivalência como "entropia", simbolizada por S. Assim, usando a descrição acima, podemos calcular a variação de entropia Δ S para a passagem da quantidade de calor Q da temperatura T 1, através do "corpo de trabalho" do fluido, que era tipicamente um corpo de vapor, até a temperatura T 2 conforme mostrado abaixo:

Ficheiro:Entropy-diagram.png
Diagrama da máquina térmica de Sadi Carnot, 1824

Se fizermos a atribuição:

Então, a mudança de entropia ou "valor de equivalência" para esta transformação é:

que é igual a:

e ao fatorar Q, temos a seguinte forma, conforme derivado por Clausius:

Definição de 1856[editar | editar código-fonte]

Em 1856, Clausius declarou o que chamou de "segundo teorema fundamental da teoria mecânica do calor " da seguinte forma:

sendo N o "valor de equivalência" de todas as transformações não compensadas envolvidas em um processo cíclico. Este valor de equivalência foi uma formulação precursora da entropia.[5]

Definição de 1862[editar | editar código-fonte]

Em 1862, Clausius afirmou o que ele chama de "teorema a respeito dos valores de equivalência das transformações" ou o que agora é conhecido como a segunda lei da termodinâmica, como tal:

“A soma algébrica de todas as transformações que ocorrem em um processo cíclico só pode ser positiva ou, no caso extremo, igual a nada. ”

Quantitativamente, Clausius afirma que a expressão matemática para este teorema é a seguinte.

Esta foi uma formulação inicial da segunda lei e uma das formas originais do conceito de entropia.

Definição de 1865[editar | editar código-fonte]

Em 1865, Clausius deu perda irreversível de calor, ou o que ele anteriormente chamava de "valor de equivalência", um nome:[6] [7]

Clausius não especificou por que escolheu o símbolo "S" para representar a entropia, e quase certamente não é verdade que Clausius escolheu "S" em homenagem a Sadi Carnot ; os nomes de cientistas raramente são usados dessa forma.

Em 1876, o físico J. Willard Gibbs, com base no trabalho de Clausius, Hermann von Helmholtz e outros, propôs que a medição da "energia disponível" Δ G em um sistema termodinâmico poderia ser matematicamente contabilizada subtraindo a "perda de energia" T Δ S da variação de energia total do sistema Δ H. Esses conceitos foram posteriormente desenvolvidos por James Clerk Maxwell [1871] e Max Planck [1903].

Mecânica estatísitca[editar | editar código-fonte]

Em 1877, Ludwig Boltzmann desenvolveu uma avaliação do ponto de vista da mecânica estatística da entropia S, de um corpo em seu próprio macroestado de equilíbrio termodinâmico interno. Pode ser escrito como:

Sendo

kB Boltzmann's constant e
Ω o número de microestados consistente com o macroestado de equilíbrio dado.

O próprio Boltzmann não escreveu realmente esta fórmula expressa com a constante nomeada kB, que se deve à leitura de Boltzmann por Planck.[8]

Boltzmann via a entropia como uma medida de "confusão" ou desordem estatística. Este conceito foi logo refinado por J. Willard Gibbs e agora é considerado um dos pilares da teoria da mecânica estatística .


Erwin Schrödinger fez uso do trabalho de Boltzmann em seu livro What is Life? [9] para explicar por que os sistemas vivos têm muito menos erros de replicação do que seria previsto pela Termodinâmica Estatística. Schrödinger usou a equação de Boltzmann de uma forma diferente para mostrar o aumento da entropia

sendo D é o número de possíveis estados de energia no sistema que podem ser preenchidos aleatoriamente com energia. Ele postulou uma diminuição local da entropia para sistemas vivos quando (1 / D) representa o número de estados que são impedidos de se distribuir aleatoriamente, como ocorre na replicação do código genético.

Sem essa correção, Schrödinger afirmou que a termodinâmica estatística preveria mil mutações por milhão de replicações e dez mutações por cem replicações seguindo a regra da raiz quadrada de n, muito mais mutações do que realmente ocorrem.

A separação de Schrödinger de estados de energia aleatórios e não aleatórios é uma das poucas explicações para porque a entropia poderia ser baixa no passado, mas continuamente aumentando agora. Foi proposto como uma explicação da diminuição localizada da entropia [10] na energia radiante focando em refletores parabólicos e durante a corrente escura em diodos, o que de outra forma estaria em violação da Termodinâmica Estatística.

Teoria da informação[editar | editar código-fonte]

Um análogo da entropia termodinâmica é a entropia da informação . Em 1948, enquanto trabalhava na Bell Telephone Laboratories, o engenheiro elétrico Claude Shannon começou a quantificar matematicamente a natureza estatística da "informação perdida" em sinais de linha telefônica. Para fazer isso, Shannon desenvolveu o conceito muito geral de entropia da informação, uma pedra angular fundamental da teoria da informação. Embora a história varie, inicialmente parece que Shannon não estava particularmente ciente da grande semelhança entre sua nova quantidade e o trabalho anterior em termodinâmica. Em 1939, entretanto, quando Shannon já vinha trabalhando em suas equações há algum tempo, por acaso ele visitou o matemático John von Neumann. Durante suas discussões, sobre o que Shannon deveria chamar de "medida de incerteza" ou atenuação em sinais de linha telefônica com referência a sua nova teoria da informação, de acordo com uma fonte:[11]

De acordo com outra fonte, quando von Neumann perguntou a ele como ele estava se saindo com sua teoria da informação, Shannon respondeu:[12]

Em 1948, Shannon publicou seu artigo seminal A Mathematical Theory of Communication, no qual dedicou uma seção ao que chama de Escolha, Incerteza e Entropia. [13] Nesta seção, Shannon apresenta uma função H da seguinte forma:

sendo K uma constante positiva. Shannon então afirma que "qualquer quantidade dessa forma, em que K apenas equivale a uma escolha de uma unidade de medida, desempenha um papel central na teoria da informação como medidas de informação, escolha e incerteza." Então, como um exemplo de como esta expressão se aplica em uma série de campos diferentes, ele faz referência aos Princípios de Mecânica Estatística de RC Tolman de 1938, afirmando que "a forma de H será reconhecida como a da entropia, conforme definido em certas formulações da mecânica estatística sendo p i a probabilidade de um sistema estar na célula i de seu espaço de fase ... H é então, por exemplo, o H no famoso teorema H de Boltzmann. " Dessa forma, nos últimos cinquenta anos, desde que essa afirmação foi feita, as pessoas vêm sobrepondo os dois conceitos ou mesmo afirmando que são exatamente os mesmos.

A entropia da informação de Shannon é um conceito muito mais geral do que a entropia termodinâmica estatística. A entropia da informação está presente sempre que existem quantidades desconhecidas que podem ser descritas apenas por uma distribuição de probabilidade. Em uma série de artigos de ET Jaynes começando em 1957, [14] [15] a entropia termodinâmica estatística pode ser vista como apenas uma aplicação particular da entropia de informação de Shannon às probabilidades de microestados específicos de um sistema que ocorre a fim de produzir um determinado macroestado.

O termo entropia é freqüentemente usado na linguagem popular para denotar uma variedade de fenômenos não relacionados. Um exemplo é o conceito de entropia corporativa apresentado com certo humor pelos autores Tom DeMarco e Timothy Lister em sua publicação clássica Peopleware de 1987, um livro sobre o crescimento e gerenciamento de equipes produtivas e projetos de software bem-sucedidos. Aqui, eles vêem o desperdício de energia como burocracia e a ineficiência da equipe de negócios como uma forma de entropia, ou seja, energia perdida para o desperdício. Esse conceito se popularizou e agora é um jargão comum nas escolas de negócios.

Em outro exemplo, a entropia é o tema central no conto de Isaac Asimov, The Last Question (primeiro com copyright em 1956). A história brinca com a ideia de que a questão mais importante é como parar o aumento da entropia.

Quando necessário, para eliminar a ambigüidade entre o conceito estatístico termodinâmico de entropia e fórmulas semelhantes à entropia apresentadas por diferentes pesquisadores, a entropia termodinâmica estatística é mais apropriadamente chamada de entropia de Gibbs. Os termos entropia de Boltzmann-Gibbs ou entropia BG e entropia de Boltzmann-Gibbs-Shannon ou entropia BGS também são vistos na literatura.

Ver também[editar | editar código-fonte]

Referências

  1. «Charles-C. Gillispie et Adolf P. Youschkevitch, Lazare Carnot savant et sa contribution à la théorie de l'infini mathématique». Revue d'histoire des sciences (1): 79–82. 1982. Consultado em 10 de março de 2021 
  2. Mendoza, E. (1988). Reflections on the Motive Power of Fire – and other Papers on the Second Law of Thermodynamics by E. Clapeyron and R. Clausius. New York: Dover Publications. ISBN 0-486-44641-7 
  3. Mechanical Theory of Heat, by Rudolf Clausius, 1850-1865
  4. Published in Poggendoff's Annalen, December 1854, vol. xciii. p. 481; translated in the Journal de Mathematiques, vol. xx. Paris, 1855, and in the Philosophical Magazine, August 1856, s. 4. vol. xii, p. 81
  5. Clausius, Rudolf. (1856). "On the Application of the Mechanical theory of Heat to the Steam-Engine." as found in: Clausius, R. (1865). The Mechanical Theory of Heat – with its Applications to the Steam Engine and to Physical Properties of Bodies. London: John van Voorst, 1 Paternoster Row. MDCCCLXVII.
  6. Laidler, Keith J. (1995). The Physical World of Chemistry. [S.l.]: Oxford University Press. pp. 104–105. ISBN 0-19-855919-4 
  7. OED, Second Edition, 1989, "Clausius (Pogg. Ann. CXXV. 390), assuming (unhistorically) the etymological sense of energy to be ‘work-contents’ (werk-inhalt), devised the term entropy as a corresponding designation for the ‘transformation-contents’ (Verwandlungsinhalt) of a system"
  8. Partington, J.R. (1949), An Advanced Treatise on Physical Chemistry, volume 1, Fundamental Principles, The Properties of Gases, London: Longmans, Green and Co., p. 300. 
  9. Schrödinger, Erwin (2004). What is Life? 11th reprinting ed. Cambridge: Canto. ISBN 0-521-42708-8 
  10. «Random and Non Random States» 
  11. M. Tribus, E.C. McIrvine, "Energy and information", Scientific American, 224 (September 1971).
  12. Avery, John (2003). Information Theory and Evolution. [S.l.]: World Scientific. ISBN 981-238-400-6 
  13. C.E. Shannon, "A Mathematical Theory of Communication", Bell System Technical Journal, vol. 27, pp. 379-423, 623-656, July, October, 1948, Eprint, PDF
  14. E. T. Jaynes (1957) Information theory and statistical mechanics, Physical Review 106:620
  15. E. T. Jaynes (1957) Information theory and statistical mechanics II, Physical Review 108:171

Ligações externas[editar | editar código-fonte]