Entropia de Tsallis

Origem: Wikipédia, a enciclopédia livre.

Na física, a Entropia de Tsallis é uma generalização da Entropia de Boltzmann–Gibbs.[1] Ela foi formulada em 1988 por Constantino Tsallis[2] como uma base para generalizar a mecânica estatística padrão. A relevância física da teoria de Tsallis foi muitas vezes debatida no cenário da literatura física mundial. Entretanto, Ao longo da década passada, pesquisadores têm mostrado que a matemática de Tsallis parece descrever acuradamente comportamentos em lei de potência em uma larga gama de fenômenos, desde a turbulência de fluidos até os fragmentos criados nas colisões de partículas de altas energias.

Sendo elas consequências derivadas dessa entropia não-aditiva, como a mecânica estatística não extensiva,[3] que generaliza a teoria de Boltzmann-Gibbs.

Dado um grupo de probabilidades discretas com a condição , e qualquer número real, a Entropia de Tsallis é definida como:

Nesse caso, p é a distribuição de probabilidade de interesse, e q é um parâmetro real. No limite, quando q → 1, a entropia de Boltzmann-Gibbs é recuperada.

Para distribuições de probabilidades contínuas, definimos a entropia como:

A Entropia de Tsallis tem sido usada em conjunto com o princípio da Máxima Entropia para derivar a distribuição de Tsallis.

Famílias exponenciais[editar | editar código-fonte]

Muitas distribuições comuns, como a distribuição normal, pertencem às famílias exponenciais estatísticas. A entropia de Tsallis para uma família exponencial[4][5] pode ser escrita[6] como:

onde F é log-normalizador e k o termo que indica a medida portadora. Para a normal multivariada,[7] o termo k é zero e, portanto, a entropia de Tsallis é fechada.

Referências

  1. E.T. Jaynes; Gibbs vs Boltzmann Entropies; American Journal of Physics, 391, 1965
  2. http://link.springer.com/article/10.1007%2FBF01016429
  3. Tsallis, Constantino (2009). Introduction to nonextensive statistical mechanics : approaching a complex world Online-Ausg. ed. New York: Springer. ISBN 978-0-387-85358-1 
  4. Andersen, Erling (Setembro de 1970). «Sufficiency and Exponential Families for Discrete Sample Spaces». Journal of the American Statistical Association, Vol. 65, No. 331. Journal of the American Statistical Association. 65 (331): 1248–1255. JSTOR 2284291. MR 268992. doi:10.2307/2284291 
  5. Kupperman, M. (1958) "Probabilities of Hypotheses and Information-Statistics in Sampling from Exponential-Class Populations", Annals of Mathematical Statistics, 9 (2), 571–575 JSTOR 2237349
  6. Nielsen, F.; Nock, R. (2012). «A closed-form expression for the Sharma–Mittal entropy of exponential families». Journal of Physics A: Mathematical and Theoretical. 45 (3). 032003 páginas. Bibcode:2012JPhA...45c2003N. arXiv:1112.4221Acessível livremente. doi:10.1088/1751-8113/45/3/032003 
  7. UIUC, Lecture 21. The Multivariate Normal Distribution, 21.5:"Finding the Density".

Ligações externas[editar | editar código-fonte]

Ícone de esboço Este artigo sobre Termodinâmica é um esboço. Você pode ajudar a Wikipédia expandindo-o.