PUBLICIDADE
Entropia – Definição
A ideia de entropia vem de um princípio da termodinâmica que trata da energia. Geralmente se refere à ideia de que tudo no universo eventualmente muda da ordem para a desordem, e a entropia é a medida dessa mudança.
A palavra entropia encontra suas raízes na entropia grega, que significa “uma virada para” ou “transformação”.
A palavra foi usada para descrever a medição da desordem pelo físico alemão Rudolph Clausius e apareceu em inglês em 1868. Um exemplo comum de entropia é o derretimento do gelo na água.
A mudança resultante de formado para livre, de ordenado para desordenado, aumenta a entropia.
O que é entropia?
A entropia descreve a tendência dos sistemas de irem de um estado de organização superior para um estado de organização inferior em um nível molecular.
No seu dia-a-dia, você entende intuitivamente como funciona a entropia sempre que coloca açúcar no café ou derrete um cubo de gelo em um copo.
A entropia pode afetar o espaço em que uma substância se espalha, sua mudança de fase de sólido para líquido para gasoso ou sua posição.
Em física, a entropia é uma medida matemática de uma mudança da energia potencial maior para a menor, relacionada à segunda lei da termodinâmica.
Entropia vem de uma palavra grega que significa “transformação”. Essa definição nos dá uma ideia de por que as coisas aparentemente se transformam sem motivo.
Os sistemas só podem manter a organização em um nível molecular enquanto a energia for adicionada. Por exemplo, a água ferverá apenas enquanto você segurar uma panela sobre as chamas.
Você está adicionando calor, uma forma de energia cinética, para acelerar as moléculas na água. Se a fonte de calor for removida, todos nós podemos adivinhar que a água irá esfriar gradualmente até atingir a temperatura ambiente. Isso se deve à entropia, pois as moléculas de água tendem a usar sua energia potencial acumulada, liberar calor e ficar com uma energia potencial menor.
A temperatura não é a única transformação envolvida na entropia. As mudanças sempre envolvem passar do desequilíbrio para o equilíbrio, consistente com a mudança para a ordem decrescente. Por exemplo, as moléculas sempre se espalham para encher uniformemente um recipiente. Quando pingamos corante alimentício em um copo de água transparente, mesmo que não o mexamos, essa concentração unificada de uma gota vai se espalhando gradualmente até que cada parte da água tenha a mesma densidade de cor.
Outro tipo de entropia que tem a ver com o movimento visível (em oposição ao movimento invisível do calor) envolve a gravidade. A menos que coloquemos energia em um sistema, como um braço e uma bola, segurando um objeto, ele cai em direção ao solo. Uma posição elevada tem maior energia potencial. Ele é convertido em energia cinética de movimento conforme o objeto cai.
O objeto sempre termina com a posição de menor energia potencial possível, como por exemplo, apoiado no chão.
Em termos mais técnicos, a entropia é um valor específico que mede quanta energia é liberada em um sistema quando ele se estabelece na energia potencial mais baixa. A entropia avalia a quantidade de desordem, entendida como uma mudança no calor, de um ponto anterior para um ponto posterior no tempo. Isso deve acontecer em um sistema “fechado”, onde nenhuma energia entra ou sai. Teoricamente, isso pode ser medido, mas na prática é muito difícil criar um cenário absolutamente fechado. No exemplo de corante alimentício dado acima, parte da solução corante alimentícia pode estar evaporando, um processo separado da distribuição uniforme de um soluto.
Entropia – Conceito
A entropia, um conceito tão rico quanto misterioso, explica, por exemplo, como a energia contida em um pedaço de carvão pode mover uma locomotiva, ou por que, para resfriar a água, a geladeira esquenta por fora.
Proposta em meados da década de 1980 como caminho para generalizar a mecânica estatística usual, uma nova fórmula generaliza com sucesso a aplicação da entropia a fenômenos tão díspares quanto ciclones e moléculas gigantes.
A energia é um dos conceitos da física com aplicação mais visível no dia-a-dia. Para mover um carro, por exemplo, é necessário obter energia através da queima do combustível. Para os eletrodomésticos funcionarem, depende-se da energia elétrica. Mas nem toda a energia gerada está disponível para ser transformada em trabalho útil.
Para saber o quanto dessa energia pode ser considerada ?livre? ? disponível para consumo ?, é necessário conhecer um outro conceito: o de entropia.
A entropia está relacionada à ordem e desordem em um sistema. É ela que caracteriza o grau de organização (ou desorganização) de um sistema físico qualquer.
Quanto mais desordenado o sistema, maior será sua entropia.
A imagem de uma caixa que contenha bolas nos fornece uma boa analogia para entender o conceito de entropia. Se as bolas estiverem ordenadas em um canto, a entropia será baixa, pois o grau de desorganização desse sistema é também baixo. E para se manter assim será necessário que o nosso sistema imaginário (caixa mais bolas) permaneça isolado do meio externo.
Mas é muito difícil evitar que algum tipo de interação com o ambiente ocorra.
Assim, depois de uma interação qualquer com o exterior ? por exemplo, uma trepidação ao ser mudada de lugar ?, é bem provável que as bolas se desorganizem, pois há muito mais formas de deixar as bolas espalhadas do que de colocá- las arrumadas em um canto.
Em outras palavras: o grau de desorganização (ou entropia) de um sistema físico que interage com o exterior tende a aumentar com o passar do tempo.
Entropia – Energia
A palavra entropia é muitas vezes confundida com a energia. Embora sejam quantidades relacionadas, são distintas.
A entropia, por outro lado, é uma medida da “desordem” de um sistema. Que “desordem refere-se é realmente o número de diferentes estados microscópicos um sistema pode ser, uma vez que o sistema possui uma composição fixa em particular, o volume, energia, pressão e temperatura. por “estados microscópico”, que significa que os estados exatas de todas as moléculas que constituem o sistema.
A idéia aqui é que apenas conhecer a composição, volume, energia, pressão e temperatura não lhe diz muito sobre o estado exato de cada molécula que compõe o sistema. Por, mesmo um pequeno pedaço de material, pode haver biliões de diferentes estados microscópicos, os quais correspondem aos da amostra com a mesma composição, o volume, a energia, a pressão e temperatura.
Mas você é ignorante exatamente qual o sistema está em um determinado momento – e isso acaba por ser importante.
Por que deveria ser importante, afinal, se você conhece as propriedades a granel.
Não é que tudo se costuma precisa?
Acontece que há, de fato, se você quiser, por exemplo, a energia exata de dizer vapor e convertê-lo para um trabalho útil, esses detalhes acabam por ser crucial!.
Para aqueles que são tecnicamente inclinados, a definição exata é:
Entropia = (a constante de Boltzmann k) x logaritmo de número de estados possíveis K = log (N)
Uma vez que o logaritmo de um número sempre aumenta à medida que o número aumenta, vemos que os mais estados possíveis que o sistema pode estar em (dado que tem um determinado volume, a energia, a pressão e temperatura), então quanto maior for a entropia.
Mais uma vez, porque não podemos ver que determinado estado microscópico de um sistema é, muitas vezes as pessoas gostam de dizer que a entropia é a medida quantitativa de como se incerto ou é ignorante sobre o exato, detalhado estado, microscópico de um sistema. Ou, de outra forma popular de dizer isto é que a entropia mede a desordem de um sistema de microscópio.
Como um exemplo simples, suponha que você colocar uma bola de gude em uma grande caixa, e balançou a caixa de volta, e você não olhar para dentro depois.
Em seguida, o mármore pode ser em qualquer parte da caixa. Como a caixa é grande, há muitos lugares possíveis dentro da caixa que o mármore pode ser, portanto, o mármore na caixa tem uma alta entropia. Agora, suponha que você colocar a bolinha em uma pequena caixa e sacudiu a caixa. Agora, mesmo que você balançou a caixa, você sabe muito bem onde o mármore é, porque a caixa é pequena. Neste caso, dizemos que o mármore na caixa tem baixa entropia.
A mesma idéia se aplica ao regime de átomos de um gás em um frasco à temperatura ambiente. Quanto menor for o frasco, a parte inferior da entropia.
Mas tenha em mente que nós também temos que considerar as velocidades das partículas de gás para ter pleno conhecimento de seus estados. Quanto maior for a temperatura do gás, mais rapidamente que as partículas de gás estão movendo-se, em média, de modo que o mais amplo intervalo de velocidades possíveis para as partículas do gás, e, por conseguinte, a mais incerteza que têm aproximadamente a velocidade de qualquer partícula particular. Assim, a temperatura mais elevada, assim como um maior volume significa maior entropia.
Cientistas dizer que a entropia, como a energia, o volume, temperatura e pressão, é outra variável de estado termodinâmico de um sistema. Acontece que, para um sistema simples, se você conhece alguma destas duas variáveis de estado, em seguida, os outros são todos determinados. Embora a palavra entropia pode parecer um conceito misterioso, não é realmente.
Lembre-se que é realmente apenas uma medida do número de estados que um sistema pode ser, dadas as limitações do sistema.
O que é bom para a entropia?
Sabendo que a entropia de um sistema pode nos dizer muitas coisas sobre o que pode e não pode acontecer.
Em particular, a sua base para a segunda lei da termodinâmica: o Universo evolui de tal forma que a sua entropia total sempre permanece a mesma ou aumenta (A primeira lei da termodinâmica é a conservação de energia).
Por que isso acontece?
Na verdade, a idéia básica da entropia é simples de entender. Suponha que você está flutuando no espaço e você tem um frasco contendo um gás particular, dizer argônio. Quando você abre o frasco por um momento, o argônio quase certamente irá escapar para o espaço. Após o árgon escapou, a entropia é grandemente aumentada (e continua a aumentar à medida que o gás se expande).
Como eu sei que a entropia aumentou?
Isto ocorre porque o número de estados que o gás árgon, pode ser em quando ocupa um volume muito maior é muito maior do que quando o seu confinada ao frasco. Assim, a entropia do gás aumenta quando o argônio escapa.
Mas por que a fuga de argônio?
Bem, na verdade, antes de abrir o frasco, se você organizou os estados microscópicos das moléculas de argônio da maneira certa, você poderia abrir o frasco por um momento e não tem o escape de argônio.
O ponto é que é altamente improvável que o argônio é em um desses estados não escapando especiais quando você abre o frasco – a maioria dos estados levar ao gás escapar.
Este é realmente o conteúdo da segunda lei – que, se você começar a não saber o estado microscópico de um sistema, então o sistema é mais do que provável a evoluir para o estado onde você está ainda mais ignorante do seu estado microscópico exata. Basta saber as variáveis de estado termodinâmico de um sistema, tais como a sua temperatura e pressão, significa que você está de fato ignorante sobre o estado exato inicial microscópico – tudo o que você pode saber a partir de variáveis de estado é o número de possíveis estados microscópicos que pode ser, ou seja, a entropia.
Assim, para a maioria das situações que encontramos, as chances são de que a entropia aumenta com o tempo.
É muito interessante comparar o comportamento da entropia comparada com a energia. Ao contrário de energia, a entropia pode ser criado (mas não geralmente destruído). Na verdade, o seu corpo está criando alguns agora como ele gera calor. Uma das razões que a temperatura do corpo tem de ser maior do que o ar circundante, ou que você tem que suar a água, se não é, é que você tem que se livrar da entropia adicional (caso contrário, você iria se tornar desorganizado e eventualmente, morrer). A energia que os irradia corpo quente leva embora a entropia extra.
Ele faz isso porque perder essa energia diminui o número de estados microscópicos que os átomos e moléculas de seu corpo pode estar dentro.
Um outro exemplo prático de entropia é o seguinte. Suponha que nós queremos usar uma fonte de calor, por exemplo, a partir de vapor gerado por aquecimento de água, para conduzir algum tipo de turbina.
Em seguida, verifica-se, considerando a entropia, que a máxima eficiência de nosso processo será inferior a 100%.
A razão por que isto é assim porque, quando o calor é trazido para a turbina, leva com ele alguns entropia. Não podemos manter esta entropia na turbina, porque a turbina seria microscopicamente desordenado e, eventualmente, quebrar. Então, um pouco de energia de calor tem de ser liberado para o mundo exterior para se livrar dessa entropia para proteger a turbina. O calor libertado por esta finalidade, por conseguinte, não pode ser convertida em trabalho (de outro modo não estariam disponíveis mais para libertar a forma de calor). Nós se livrar da entropia indesejada, rejeitando esse calor para o mundo exterior a uma temperatura menor do que nós trouxemos o calor em pelo.
A razão para a temperatura mais baixa é que o calor libertado em um ambiente de baixa temperatura exerce mais entropia da turbina que a entropia esta mesma quantidade de calor transporta para a turbina a uma elevada temperatura.
Isso porque o calor atrapalha um sistema de frio mais do que um quente, porque o quente já é mais desordenada. Assim, só deve sacrificar um pouco do calor levada para a turbina para se livrar da entropia importados para a turbina por que o calor em primeiro lugar. Pode-se ver a partir desta discussão, no entanto, por que as usinas precisam de um ambiente de temperatura fria para despejar seu calor.
Agora, tudo isso pode parecer um pouco abstrato demais.
Aqui está outra maneira de olhar para ele: A energia cinética das moléculas de vapor é grande (porque o vapor é quente), mas as direções das moléculas são desordenadas. De alguma forma, para converter toda a energia do vapor em trabalho útil, você tem que alinhar-los todos na mesma direção (pelo menos, digamos, um de cada vez ou em grupos).
Mas você é ignorante da configuração exata em qualquer instante, certo? E mesmo se não fosse, como é que você vai chegar lá e realmente fazê-lo para cada molécula?
Claramente, a desordem é uma barreira microscópica. Isso mostra por que ser ignorante desses detalhes pode parecer pouco intuitivo, mas na verdade tem consequências reais para as coisas reais que você gostaria de fazer!
Este exemplo anterior demonstra como a energia do calor, uma vez que não pode ser totalmente convertido em energia mecânica na turbina, é, de certo modo, de menor qualidade que a energia mecânica.
As pessoas têm, de fato, classificaram a qualidade de energia neste sentido para muitas fontes diferentes. Energia elétrica solar captada por células fotovoltaicas, em particular, é uma energia de muito alta “qualidade”.
Virtualmente todo ele pode ser convertida em energia mecânica.
Entropia – Sistema
Uma das ideias envolvidas no conceito de entropia é que a natureza tende da ordem à desordem em sistemas isolados.
É um fato observado que, através do Universo, a energia tende a ser dissipada de tal modo que a energia total utilizável se torna cada vez mais desordenada e mais difícil de captar e utilizar.
Quando conduzimos uma carro a energia armazenada na gasolina é convertida em calor por combustão e, depois, em energia mecânica, no motor. A energia mecânica, ordenada, assim produzida, dá origem ao movimento controlado e ordenado do carro. Mas parte dessa energia foi irrevogavelmente dissipada sob a forma de calor, na estrada, como resultado do atrito dos pneus, no aquecimento do ar por meio da exaustão de gases e para vencer a resistência do vento.
Perdemos essa energia para sempre.
A extensão do estado de desordem em que esta energia se encontra é medida por uma quantidade conhecida por entropia. Quanto maior é o estado de desorganização, tanto maior é a entropia, quanto menos extensa for a desorganização, menor é a entropia. De fato, como estabelece a termodinâmica, à temperatura de zero absoluto quando todas as vibrações atômicas e movimento param, a entropia é nula, porque não há movimento desordenado.
Outro exemplo: Suponha que temos água vermelha, com tinta, e água branca, sem tinta, em um tanque, com uma separação. Removendo delicadamente a separação, a água começa dividida, vermelha de um lado e branca do outro. Com o passar do tempo, a água vai gradativamente misturando-se, e no final temos água avermelhada, com a tinta uniformemente distribuída. Agora, mesmo que observemos a mistura por um longo período de tempo, ela não vai separar-se espontaneamente.
A energia total do Universo tende a se tornar cada vez mais desordenada e, por consequência, podemos afirmar que a entropia do Universo cresce continuamente.
Segunda Lei da Termodinâmica
A segunda lei da Termodinâmica determina o sentido da evolução dos processos termodinâmicos. Essa lei pode ser formulada em termos da entropia.
A entropia de um sistema isolado nunca decresce: não se altera nos processos reversíveis e aumenta nos processos irreversíveis que ocorrem dentro do sistema.
O estado de equilíbrio termodinâmico do sistema é o estado de máxima entropia.
O aumento da entropia em processos irreversíveis é muito importante para dar sentido ao próprio conceito de entropia. A energia e a entropia de um sistema isolado não variam se o sistema evolui reversivelmente.
Por definição, em qualquer estágio de um processo reversível, o sistema deve estar em um estado de equilíbrio termodinâmico. E como leva um certo tempo para que o sistema, uma vez perturbado, atinja um novo estado de equilíbrio termodinâmico, um processo só pode ser completamente reversível se se desenvolver muito lentamente. Isso, obviamente, nunca acontece. Por outro lado, a energia se conserva e a entropia sempre aumenta nos processos irreversíveis que ocorrem num sistema isolado. A propriedade de conservação da energia, sendo inerente a um sistema isolado, quaisquer que sejam os processos, reversíveis ou não, pelos quais passa o sistema, mostra que a energia não pode indicar o sentido da evolução de tais processos.
Mas, o aumento da entropia nos processos irreversíveis, aumento esse também inerente a um sistema isolado, mostra que a entropia pode indicar, sim, o sentido da evolução de tais processos: o estado inicial pode ser diferenciado do estado final porque este tem, necessariamente, maior entropia.
FÓRMULA CLÁSSICA SURGIU NO SÉCULO 19
O conceito de entropia surgiu na época da máquina a vapor, proposto pelo prussiano Rudolf Emmanuel Clausius (1822-1888) para explicar o máximo de energia que poderia ser transformada em trabalho útil.
Mais tarde, a entropia foi relacionada à ordem e desordem de um sistema, idéia aproveitada pelo físico austríaco Ludwig Boltzmann (1844-1906) na elaboração da primeira expressão a descre ver microscopicamente o conceito.
Mesmo sem ter certeza da existência de átomos e moléculas ? cuja existência só viria a ser confirmada experimentalmente na primeira década do século 20, principalmente pelos trabalhos do físico francês Jean Perrin (1870-1942) ?, Boltzmann propôs a fórmula baseando-se nas evidências da existência desses elementos. No entanto, sua equação não encontrou apoio imediato.
Transtornado pela resistência de alguns colegas em aceitá-la ou mesmo em reconhecer a teoria atômica, Boltzmann suicidou-se em 1906 ? a fórmula foi gravada no seu túmulo.
A equação de Boltzmann havia sido retomada pelo professor de física matemática americano Josiah Gibbs (1839- 1903), da Universidade de Yale (Estados Unidos). Ele propôs uma nova fórmula, mais abrangente, que inclui certos tipos de interações entre as moléculas.
Entropia – Lei da Termodinâmica
A noção de entropia é extremamente importante em física; seu uso nas teorias da informação e da comunicação tem levado a intensas polêmicas. Vejamos primeiro seu sentido físico, e depois seu sentido informacional.
A entropia está fisicamente associada ao processo termodinâmico da transformação do calor em trabalho. O processo inverso, estudado por Benjamin Thompson, Conde Rumford na Baviera (1798) e por James Prescott Joule (1840 e 1849), levou ao “princípio de Mayer” (1842), que se tornou na Primeira Lei da Termodinâmica, e que postula a conservação da energia no universo. Reduzido a dimensões práticas, o princípio de Mayer afirma que podemos transformar trabalho em calor com uma eficiência (teórica) de 100%; no entanto, sabe-se que a transformação inversa, do calor em trabalho, apresenta eficiências muito inferiores a esta eficiência total. Fazendo investigações a respeito, em 1824 Sadi-Carnot concebeu uma máquina (ideal) que, sem nenhuma perda por atrito, era capaz de transformar calor em trabalho mecânico.
Esta máquina funcionava num ciclo de Carnot:
1) o gás (ou vapor) retirava calor de alguma fonte quente, e se expandia sem que a sua temperatura interna se modificasse
2) em seguida, o gás se expandia mais ainda, não perdendo calor, mas sofrendo uma queda na sua temperatura (para equivaler ao trabalho mecânico de expansão realizado).
3) Resfriando-se, o gás era novamente mantido a uma temperatura constante, cedendo calor, e
4) novamente se impedindo a transmissão de calor, o gás era recomprimido até a temperatura e volume iniciais do ciclo.
A eficiência teórica desta máquina nunca chega a 100% (seus valeres máximos teóricos habituais estão na ordem de 40%; os valores reais são ainda bem inferiores, por volta de uns 20 a 25%). Num ciclo de Carnot, mostra-se como (Q2/T2) ? (Q1/T1) = 0, onde Q2 é o calor cedido ao gás na etapa (1), estando o gás à temperatura T2, e Q1 é o calor cedido pelo gás na etapa (3), sendo sua temperatura igual a T1. À grandeza (Q/T) chamamos entropia, e, para um sistema a uma dada temperatura (absoluta) T, a variação da entropia, dS, é dada pela relação dS = dQ/T, onde dQ é a quantidade infinitesimal de calor aceitada ou rejeitada pelo sistema. Foi Clausius (1850) quem definiu a função S; para qualquer processo termodinâmico, Clausius mostrou que dS^, 0.
Esta expressão sintetiza a Segunda Lei da Termodinâmica: a entropia de um sistema não decresce espontaneamente, e a variação da entropia do sistema, mais a variação da entropia do universo, é sempre igual ou maior que zero.
Fonte: www.nmsea.org/br.geocities.com/www.trabalhoescolar.hpg.ig.com.br/www.wisegeek.org/filoinfo.hyperlogos.info
Redes Sociais