===== ENTROPIA ===== (in. Entropy fr. Entropie; al. Entropie; it. Entropia). A [[lexico:n:nocao:start|noção]] de entropia está vinculada ao segundo [[lexico:p:principio:start|princípio]] da termodinâmica, formulada por Sadi Carnot em 1824 e enunciada em termos matemáticos por Clausius (1850). [[lexico:e:esse:start|esse]] princípio afirma que o calor só passa do [[lexico:c:corpo:start|corpo]] mais quente para o corpo mais frio, e que em toda [[lexico:t:transformacao:start|transformação]] de [[lexico:e:energia:start|energia]] num [[lexico:s:sistema:start|sistema]] fechado ocorre a degradação da energia, ou seja, a [[lexico:p:perda:start|perda]] da energia total disponível no sistema. Chama-se degradação a passagem de uma [[lexico:f:forma:start|forma]] de energia para outra forma que [[lexico:n:nao:start|não]] possa [[lexico:s:ser:start|ser]] acompanhada pela transformação inversa completa. Assim, é sempre [[lexico:p:possivel:start|possível]] a transformação completa de energia [[lexico:m:mecanica:start|mecânica]] em calor, mas a transformação inversa nunca é completa porque só uma [[lexico:p:parte:start|parte]] do calor pode ser transformada em energia mecânica. O calor, portanto, é considerado uma forma inferior ou "degradada" de energia; por isso, o segundo princípio da termodinâmica é [[lexico:c:chamado:start|chamado]] de "princípio de degradação da energia". entropia é a [[lexico:f:funcao:start|função]] [[lexico:m:matematica:start|matemática]] que exprime a degradação da energia que infalivelmente ocorre em toda transformação. O princípio da entropia chamou sempre a [[lexico:a:atencao:start|atenção]] dos filósofos, porque estabeleceu, em nível científico, a irreversibilidade dos fenômenos naturais. De [[lexico:f:fato:start|fato]], para a mecânica clássica ou newtoniana, todos os fenômenos são reversíveis.- para eles, o [[lexico:t:tempo:start|tempo]] pode transcorrer indiferentemente em uma ou outra direção, do passado para o [[lexico:f:futuro:start|futuro]] ou do futuro para o passado. O t das equações que exprimem o [[lexico:c:comportamento:start|comportamento]] dos fenômenos mecânicos é uma variável contínua, que não tem [[lexico:s:sentido:start|sentido]] determinado. O princípio da entropia, ao contrário, estabelece um sentido para os fenômenos, qual seja, a sua irreversibilidade no tempo. [[lexico:c:cientistas:start|cientistas]] e filósofos do [[lexico:f:fim:start|fim]] do séc. XIX algumas vezes se dedicaram à [[lexico:p:previsao:start|previsão]] da [[lexico:m:morte:start|morte]] do [[lexico:u:universo:start|universo]] pela degradação total da energia, ou seja, pelo alcance do máximo de entropia, ou a excogitar possíveis meios de salvar o universo dessa morte (cf., p. ex., S. Arrhenius, L’évolution des mondes; trad. fr., Seyrig, 1910). Outros deram [[lexico:u:uso:start|uso]] mais filosófico à noção, entrevendo nela a [[lexico:e:estrutura:start|estrutura]] fundamental do tempo, ou seja, a sua irreversibilidade. [[lexico:r:reichenbach:start|Reichenbach]] utilizou a entropia para a [[lexico:d:determinacao:start|determinação]] da direção do tempo. "A direção do tempo expressa-se para nós nas direções dos processos dados pelos sistemas parciais, que são numerosos no nosso [[lexico:a:ambiente:start|ambiente]]. Todos esses processos vão na mesma direção, a direção da entropia crescente. Esse fato está estreitamente ligado ao crescimento [[lexico:g:geral:start|geral]] da entropia do universo, e é através da reiteração desse fato nos sistemas parciais que o [[lexico:d:desenvolvimento:start|desenvolvimento]] da entropia no universo nos indica a direção do tempo" (The Direction of Time, 1956, p. 131). Na [[lexico:v:verdade:start|verdade]], a [[lexico:c:ciencia:start|ciência]] hoje não parece autorizar a [[lexico:t:transposicao:start|transposição]] dos sistemas fechados ou parciais, nos quais vale a entropia, para o sistemaf geral do universo. Assim, não é fácil dizer qual o [[lexico:v:valor:start|valor]] das especulações filosóficas em torno dessa noção. Na [[lexico:t:teoria-da-informacao:start|teoria da informação]], a partir das obras de Shannon e Wiener, utilizou-se o [[lexico:c:conceito:start|conceito]] de entropia para medir a [[lexico:f:falta:start|falta]] de informação sobre os detalhes da [[lexico:n:natureza:start|natureza]] de um sistema. Como a entropia é constituída pela [[lexico:e:equivalencia:start|equivalência]] entre as possibilidades de desenvolvimento de um sistema, a informação, ao eliminar algumas dessas possibilidades, é uma entropia negativa. Estabelece-se, assim, a equivalência entre entropia e falta de informação e entre informação e entropia negativa. Mas como, na transmissão de qualquer informação, tem-se uma perda de informação, admite-se que, assim como nos sistemas físicos, a entropia tende a crescer também no [[lexico:c:campo:start|campo]] da informação; por isso, a [[lexico:m:medida:start|medida]] da informação pode ser definida pelo crescimento correspondente da entropia negativa. A noção de entropia é extremamente importante em [[lexico:f:fisica:start|física]]; seu uso nas teorias da informação e da [[lexico:c:comunicacao:start|comunicação]] tem levado a intensas polêmicas. Vejamos primeiro seu sentido [[lexico:f:fisico:start|físico]], e depois seu sentido informacional. A entropia está fisicamente associada ao [[lexico:p:processo:start|processo]] termodinâmico da transformação do calor em [[lexico:t:trabalho:start|trabalho]]. O processo inverso, estudado por [[lexico:b:benjamin:start|Benjamin]] Thompson, Conde Rumford na Baviera (1798) e por [[lexico:j:james:start|James]] Prescott Joule (1840 e 1849), levou ao "princípio de Mayer" (1842), que se tornou na Primeira [[lexico:l:lei:start|lei]] da Termodinâmica, e que postula a conservação da energia no universo. Reduzido a dimensões práticas, o princípio de Mayer afirma que podemos transformar trabalho em calor com uma [[lexico:e:eficiencia:start|eficiência]] (teórica) de 100%; no entanto, sabe-se que a transformação inversa, do calor em trabalho, apresenta eficiências muito inferiores a esta eficiência total. Fazendo investigações a [[lexico:r:respeito:start|respeito]], em 1824 Sadi-Carnot concebeu uma [[lexico:m:maquina:start|máquina]] ([[lexico:i:ideal:start|ideal]]) que, sem nenhuma perda por atrito, era capaz de transformar calor em trabalho [[lexico:m:mecanico:start|mecânico]]. Esta máquina funcionava num ciclo de Carnot: (1) o gás (ou vapor) retirava calor de alguma [[lexico:f:fonte:start|fonte]] quente, e se expandia sem que a sua temperatura interna se modificasse; (2) em seguida, o gás se expandia mais ainda, não perdendo calor, mas sofrendo uma [[lexico:q:queda:start|Queda]] na sua temperatura (para equivaler ao trabalho mecânico de expansão realizado) . (3) Resfriando-se, o gás era novamente mantido a uma temperatura constante, cedendo calor, e (4), novamente se impedindo a transmissão de calor, o gás era recomprimido até a temperatura e volume iniciais do ciclo. A eficiência teórica desta máquina nunca chega a 100% (seus valeres máximos teóricos habituais estão na [[lexico:o:ordem:start|ordem]] de 40%; os valores reais são ainda [[lexico:b:bem:start|Bem]] inferiores, por volta de uns 20 a 25%). Num ciclo de Carnot, mostra-se como (Q2/T2) — (Q1/T1) = 0, onde Q2 é o calor cedido ao gás na etapa (1), estando o gás à temperatura T2, e Q1 é o calor cedido pelo gás na etapa (3), sendo sua temperatura igual a T1. À [[lexico:g:grandeza:start|grandeza]] (Q/T) chamamos entropia, e, para um sistema a uma dada temperatura (absoluta) T, a variação da entropia, dS, é dada pela [[lexico:r:relacao:start|relação]] dS = dQ/T, onde dQ é a [[lexico:q:quantidade:start|quantidade]] [[lexico:i:infinitesimal:start|infinitesimal]] de calor aceitada ou rejeitada pelo sistema. Foi Clausius (1850) [[lexico:q:quem:start|quem]] definiu a função S; para qualquer processo termodinâmico, Clausius mostrou que dS maior ou igual a 0. Esta [[lexico:e:expressao:start|expressão]] sintetiza a Segunda Lei da Termodinâmica: a entropia de um sistema não decresce espontaneamente, e a variação da entropia do sistema, mais a variação da entropia do universo, é sempre igual ou maior que [[lexico:z:zero:start|zero]]. Como [[lexico:c:compreender:start|compreender]] o que seja a entropia? Ela está intimamente ligada à noção de tempo. Fisicamente, o tempo é tratado ou como uma "[[lexico:d:dimensao:start|dimensão]]" espacial a mais ou como o parâmetro conveniente para caracterizar os diferentes estados de um sistema. No entanto, uma [[lexico:a:analise:start|análise]] mais cuidadosa mostra que o tempo [[lexico:o:objetivo:start|objetivo]], o tempo das ciências naturais, só pode ser estruturado se lhe associamos (1) uma [[lexico:u:unidade:start|unidade]] de medida e (2) uma direção preferencial. O tempo intuitivo parece "fluir", mas como nos é possível objetificar, manipular este fluxo? A "medida" do tempo é dada através de processos cíclicos, isto é, através de processos que se repitam "em diferentes momentos" de nossa [[lexico:e:experiencia:start|experiência]] [[lexico:i:intuitiva:start|intuitiva]]: o dia, o ano, as estações são os primeiros processos deste [[lexico:t:tipo:start|tipo]] que encontramos. E o "sentido" do tempo é [[lexico:d:dado:start|dado]] pelos processos evolutivos, pelo crescimento das plantas, animais e pessoas. Num nível muito mais [[lexico:f:formal:start|formal]], a entropia, tendendo a aumentar, nos fornece o sentido preferencial [[lexico:n:necessario:start|necessário]] à [[lexico:o:objetificacao:start|objetificação]] do tempo. Uma boa [[lexico:d:discussao:start|discussão]] em torno destas questões está em. Tentando compreender o [[lexico:m:motivo:start|motivo]] desta "[[lexico:t:tendencia:start|tendência]]" da entropia, Ludwig Boltzmann mostrou em 1896 que (baseando-se numa [[lexico:t:teoria:start|teoria]] atômica dos gases), S2 — S1 = k log (p2/p1), onde S2 e S1 são entropias do gás nos estados 2 e 1, respectivamente, e p2 e p1 são "probabilidades" associadas àqueles estados. A [[lexico:i:interpretacao:start|interpretação]] de Boltzmann — que se funda na [[lexico:h:hipotese:start|hipótese]] do "[[lexico:c:caos:start|caos]] molecular" — leva a crer que num sistema físico, a tendência seja passar-se de um [[lexico:e:estado:start|Estado]] de "menor [[lexico:d:desordem:start|desordem]]" (já que são estes os estados de menor [[lexico:p:probabilidade:start|probabilidade]]) para um estado de "maior desordem". Decorrem desta interpretação as considerações (perigosamente pouco fundadas) no sentido de que o universo caminharia para a "morte térmica", para um estado final de homogênea [[lexico:m:maxima:start|máxima]] desordem. O [[lexico:t:teorema:start|teorema]] de Boltzmann foi contestado (num debate [[lexico:c:classico:start|clássico]]) por Poincaré, que mostrou como — para sistemas iguais aos considerados por Boltzmannt~e sem a [[lexico:r:restricao:start|restrição]] da hipótese do "caos molecular" — há uma tendência, no fim de um tempo calculável, a que configurações pelas quais o sistema já passou se repitam. O debate em torno do resultado de Boltzmann é, aparentemente, insolúvel dentro da teoria da termodinâmica. Um dos muitos paradoxos levantados em torno da relação de Boltzmann é o [[lexico:p:paradoxo:start|paradoxo]] do "[[lexico:d:demonio:start|demônio]] de Maxwell". O demônio de Maxwell seria uma criatura tão pequena quanto uma molécula, e capaz de "organizar" as partículas constituintes de um gás, deste [[lexico:m:modo:start|modo]] violando a segunda lei da Termodinâmica. Em 1929 Leo Szilard "resolveu" este paradoxo, propondo que a [[lexico:d:diminuicao:start|diminuição]] de entropia do sistema poderia ser contrabalançada pelo [[lexico:a:aumento:start|aumento]] da entropia do demônio, que deveria se informar — através de alguma troca de energia com as partículas — a respeito dos estados do sistema gasoso. Na década de quarenta, quando foi desenvolvida a relação de Wiener-Shannon como uma medida da "quantidade de informa-çã" associada a uma [[lexico:m:mensagem:start|mensagem]] transmitida por um sistema de comunicação, percebeu-se a estreita [[lexico:a:analogia:start|analogia]] formal entre esta relação e aquela de Boltzmann. Uma [[lexico:s:serie:start|série]] de teóricos, entre os quais o [[lexico:p:proprio:start|próprio]] Norbert Wiener, a partir desta analogia formal, tentou identificar a "entropia" termodinâmica à "quantidade de informação" [[lexico:e:estatistica:start|estatística]]. Esta identificação — que é corrente em todas as obras de divulgação a respeito da teoria da informação — e que é proposta inclusive em trabalhos muito sérios, foi violentamente contestada, em [[lexico:n:nome:start|nome]] de certo [[lexico:r:realismo:start|realismo]] filosófico, por Rudolf Carnap e Yehoshua Bar-Hillel, entre outros. O debate está em [[lexico:a:aberto:start|aberto]]. A vulgarização que se fez da noção de entropia como uma medida da "desordem" de um sistema levou inclusive à tentativa de se caracterizar a obra-de-arte como algo de maior "carga informativa" que outras formas de produção análogas: um [[lexico:d:discurso:start|discurso]] convencional não é "obra-de-arte" porque sua taxa informacional é baixa (ou porque sua entropia é alta). Assim, Caetano Veloso é "melhor" que Chico Buarque de Hollanda porque suas canções tem "maior quantidade de informações" que aquelas de Chico Buarque. Há, evidentemente, [[lexico:a:alguma-coisa:start|alguma coisa]] de [[lexico:g:grotesco:start|grotesco]] em tal análise. Em primeiro [[lexico:l:lugar:start|lugar]], quantidades de informações só são comparáveis se os constituintes elementares das diferentes mensagens forem idênticos. Ora, ninguém até hoje realizou uma "atomização" livre de críticas de uma [[lexico:o:obra:start|obra]] de [[lexico:a:arte:start|arte]]. Mais ainda: uma [[lexico:s:simples:start|simples]] análise de algumas obras de arte pode mostrar como há algo de fundamentalmente ambíguo, de essencialmente [[lexico:o:organico:start|orgânico]] até naquilo que chamaríamos de "[[lexico:e:elemento:start|elemento]] [[lexico:c:caracteristico:start|característico]]" de um [[lexico:a:artista:start|artista]]. Por [[lexico:e:exemplo:start|exemplo]]: uma cadência muito comum nas obras de Carl-Maria von [[lexico:w:weber:start|Weber]] se transformou no [[lexico:t:tema:start|tema]] do Venusberg do Tannhäuser de Wagner, e foi herdado por Richard [[lexico:s:strauss:start|Strauss]] nas passagens "características" das cordas em seus poemas sinfônicos (e em especial no Don Juan e no [[lexico:v:vida:start|vida]] de [[lexico:h:heroi:start|Herói]]). Quer dizer: uma transição inter-temática em Weber passa a ser, com Wagner, um motivo, e em Richard Strauss é o elemento comum (o elemento que fornece a unidade de [[lexico:e:estilo:start|estilo]]) a diversos temas. Da mesma maneira, os primeiros compassos do prelúdio do Tristão e Isolda (o tema que Lavignac chama "A Confissão") levaram aos temas que abrem os adágios das duas últimas sinfonias de Bruckner, e que conduzem à [[lexico:d:desintegracao:start|desintegração]] tonal do quarto [[lexico:m:movimento:start|movimento]] da Nona Sinfonia de Mahler e do primeiro movimento da Décima; a [[lexico:h:historia:start|história]] deste motivo termina, talvez, nas escalas iniciais do Concerto para Violino de Alban Berg. Uma análise cuidadosa desta [[lexico:e:evolucao:start|evolução]] "orgânica" de uma figuração musical nos leva a crer como uma análise "atomística" da obra-de-arte — conforme a realizada pela teoria da informação empregada na [[lexico:e:estetica:start|estética]] — não é satisfatória a uma tentativa de [[lexico:c:compreensao:start|compreensão]] do [[lexico:f:fenomeno:start|fenômeno]] estético. Quer dizer: entropia não tem grande [[lexico:c:coisa:start|coisa]] a [[lexico:v:ver:start|ver]] com arte. (Francisco Doria - [[lexico:d:dcc:start|DCC]]) {{indexmenu>.#1|skipns=/^playground|^wiki/ nsonly}}