Entropia de Tsallis: diferenças entre revisões
Linha 1: | Linha 1: | ||
{{Sem notas}} |
{{Sem notas}} |
||
Na física, a '''Entropia de Tsallis''' é uma generalização da Entropia de Boltzmann–Gibbs. Ela foi formulada em 1988 por [[Constantino Tsallis]]<ref name=tsallis1988>http://link.springer.com/article/10.1007%2FBF01016429</ref> como uma base para generalizar a mecânica estatística padrão. A relevância física da teoria de Tsallis foi muitas vezes debatida no cenário da literatura física mundial. Entretando, Ao longo da década passada, pesquisadores tem mostrado que a matemática de Tsallis parece descrever acuradamente comportamentos em lei de potência em uma larga gama de fenômenos, desde a turbulência de fluidos até os fragmentos criados nas colisões de partículas de altas energias. |
|||
⚫ | |||
Sendo elas consequências derivadas dessa entropia não-aditiva, como a mecânica estatística não extensiva,<ref name=book2009>{{cite book|last=Tsallis|first=Constantino|title=Introduction to nonextensive statistical mechanics : approaching a complex world|year=2009|publisher=Springer|location=New York|isbn=978-0-387-85358-1|edition=Online-Ausg.}}</ref> que generaliza a teoria de Boltzmann-Gibbs. |
|||
ou no caso discreto: |
|||
Dado um grupo de probabilidades discretas <math>\{p\}</math> com a condição <math>\sum_i p=1</math>, e <math>q</math> qualquer número real, a '''Entropia de Tsallis''' é definida como: |
|||
:<math>S_q(p) = {1 \over q - 1} \left( 1 - \sum_x p^q(x) \right).</math> |
:<math>S_q(p) = {1 \over q - 1} \left( 1 - \sum_x p^q(x) \right).</math> |
||
Nesse caso, ''p'' é a distribuição de probabilidade de interesse, e ''q'' é um parâmetro real. No limite, quando ''q'' → 1, a entropia de Boltzmann-Gibbs é recuperada. |
Nesse caso, ''p'' é a distribuição de probabilidade de interesse, e ''q'' é um parâmetro real. No limite, quando ''q'' → 1, a entropia de Boltzmann-Gibbs é recuperada. |
||
Para distribuições de probabilidades contínuas, definimos a entropia como: |
|||
⚫ | |||
A Entropia de Tsallis tem sido usada em conjunto com o princípio da [[Máxima Entropia]] para derivar a distribuição de Tsallis. |
|||
{{Referências}} |
{{Referências}} |
||
<references /> |
|||
== Ligações externas == |
== Ligações externas == |
Revisão das 17h58min de 11 de junho de 2014
Este artigo ou secção contém uma lista de referências no fim do texto, mas as suas fontes não são claras porque não são citadas no corpo do artigo, o que compromete a confiabilidade das informações. |
Na física, a Entropia de Tsallis é uma generalização da Entropia de Boltzmann–Gibbs. Ela foi formulada em 1988 por Constantino Tsallis[1] como uma base para generalizar a mecânica estatística padrão. A relevância física da teoria de Tsallis foi muitas vezes debatida no cenário da literatura física mundial. Entretando, Ao longo da década passada, pesquisadores tem mostrado que a matemática de Tsallis parece descrever acuradamente comportamentos em lei de potência em uma larga gama de fenômenos, desde a turbulência de fluidos até os fragmentos criados nas colisões de partículas de altas energias.
Sendo elas consequências derivadas dessa entropia não-aditiva, como a mecânica estatística não extensiva,[2] que generaliza a teoria de Boltzmann-Gibbs.
Dado um grupo de probabilidades discretas com a condição , e qualquer número real, a Entropia de Tsallis é definida como:
Nesse caso, p é a distribuição de probabilidade de interesse, e q é um parâmetro real. No limite, quando q → 1, a entropia de Boltzmann-Gibbs é recuperada.
Para distribuições de probabilidades contínuas, definimos a entropia como:
A Entropia de Tsallis tem sido usada em conjunto com o princípio da Máxima Entropia para derivar a distribuição de Tsallis.
Referências
- ↑ http://link.springer.com/article/10.1007%2FBF01016429
- ↑ Tsallis, Constantino (2009). Introduction to nonextensive statistical mechanics : approaching a complex world Online-Ausg. ed. New York: Springer. ISBN 978-0-387-85358-1