Pular para o conteúdo principal

 

 

Inglês
Português (Brasil)

Texto de partida

2 091 / 5 000

Resultados da tradução

Resultado de tradução

Zack Savitsky 13 de dezembro de 2024 Exatamente 200 anos atrás, um engenheiro francês apresentou uma ideia que quantificaria o deslizamento inexorável do universo para a decadência. Mas a entropia, como é atualmente entendida, é menos um fato sobre o mundo do que um reflexo da nossa crescente ignorância. Abraçar essa verdade está levando a uma reformulação de tudo, desde a tomada de decisões racionais até os limites das máquinas. 52 Uma ilustração de um vaso Ming quebrado. Kristina Armitage/Quanta Magazine Introdução A vida é uma antologia de destruição. Tudo o que você constrói eventualmente quebra. Todos que você ama morrerão. Qualquer senso de ordem ou estabilidade inevitavelmente desmorona. O universo inteiro segue uma jornada sombria em direção a um estado monótono de turbulência final. Para acompanhar essa decadência cósmica, os físicos empregam um conceito chamado entropia. Entropia é uma medida de desordem, e a declaração de que a entropia está sempre aumentando — conhecida como a segunda lei da termodinâmica — está entre os mandamentos mais inescapáveis ​​da natureza. Há muito tempo me sinto assombrado pela tendência universal à desordem. A ordem é frágil. Leva meses de planejamento cuidadoso e arte para criar um vaso, mas um instante para demoli-lo com uma bola de futebol. Passamos nossas vidas lutando para dar sentido a um mundo caótico e imprevisível, onde qualquer tentativa de estabelecer controle parece apenas sair pela culatra. A segunda lei exige que as máquinas nunca possam ser perfeitamente eficientes, o que implica que sempre que surge uma estrutura no universo, ela serve apenas para dissipar ainda mais energia — seja uma estrela que eventualmente explode ou um organismo vivo convertendo comida em calor. Somos, apesar de nossas melhores intenções, agentes da entropia. "Nada na vida é certo, exceto a morte, os impostos e a segunda lei da termodinâmica", escreveu (abre uma nova aba) Seth Lloyd, físico do Instituto de Tecnologia de Massachusetts. Não há como contornar essa diretriz. O crescimento da entropia está profundamente entrelaçado com nossas experiências mais básicas, explicando por que o tempo corre para frente e por que o mundo parece determinístico em vez de mecanicamente quântico incerto.


Mas, apesar de sua importância fundamental, a entropia é talvez o conceito mais divisivo na física. "A entropia sempre foi um problema", Lloyd me disse. A confusão decorre em parte da maneira como o termo é jogado e distorcido entre disciplinas — ele tem significados semelhantes, mas distintos, em tudo, da física à teoria da informação e ecologia. Mas também é porque realmente entender a entropia requer alguns saltos filosóficos profundamente desconfortáveis. À medida que os físicos trabalharam para unir campos aparentemente díspares ao longo do século passado, eles lançaram a entropia sob uma nova luz — voltando o microscópio para o vidente e mudando a noção de desordem para uma de ignorância. A entropia não é vista como uma propriedade intrínseca a um sistema, mas como uma que é relativa a um observador que interage com esse sistema. Essa visão moderna ilumina o profundo vínculo entre informação e energia, que agora está ajudando a inaugurar uma minirrevolução industrial nas menores escalas. Duzentos anos depois que as sementes da entropia foram semeadas pela primeira vez, o que está surgindo é uma concepção dessa quantidade que é mais oportunista do que niilista. A evolução conceitual está derrubando a velha maneira de pensar, não apenas sobre a entropia, mas sobre o propósito da ciência e nosso papel no universo. O poder motriz do fogo Um retrato a óleo de um jovem em uma jaqueta militar. Sadi Carnot aos 17 anos. Louis-Léopold Boilly A noção de entropia surgiu de uma tentativa de aperfeiçoar a maquinaria durante a revolução industrial. Um engenheiro militar francês de 28 anos chamado Sadi Carnot decidiu calcular a eficiência máxima do motor a vapor. Em 1824, ele publicou um livro de 118 páginas (abre uma nova aba) intitulado Reflexões sobre o poder motriz do fogo, que ele vendeu nas margens do Sena por 3 francos. O livro de Carnot foi amplamente desconsiderado pela comunidade científica, e ele morreu vários anos depois de cólera. Seu corpo foi queimado, assim como muitos de seus papéis. Mas algumas cópias de seu livro sobreviveram, e nelas jaziam as brasas de uma nova ciência da termodinâmica — a força motriz do fogo.
Carnot percebeu que a máquina a vapor é, em sua essência, uma máquina que explora a tendência do calor fluir de objetos quentes para os frios. Ele elaborou a máquina mais eficiente concebível, instituindo um limite na fração de calor que pode ser convertida em trabalho, um resultado agora conhecido como teorema de Carnot. Sua declaração mais consequente vem como uma advertência na última página do livro: "Não devemos esperar utilizar na prática toda a força motriz dos combustíveis". Alguma energia sempre será dissipada por atrito, vibração ou outra forma indesejada de movimento. A perfeição é inatingível.

Lendo o livro de Carnot algumas décadas depois, em 1865, o físico alemão Rudolf Clausius cunhou um termo para a proporção de energia que está bloqueada na futilidade. Ele a chamou de "entropia", em homenagem à palavra grega para transformação. Ele então expôs o que ficou conhecido como a segunda lei da termodinâmica: "A entropia do universo tende ao máximo".

Os físicos da época acreditavam erroneamente que o calor era um fluido (chamado de "calórico"). Nas décadas seguintes, eles perceberam que o calor era mais um subproduto de moléculas individuais colidindo. Essa mudança de perspectiva permitiu que o físico austríaco Ludwig Boltzmann reformulasse e aguçasse a ideia de entropia usando probabilidades.

Um par de fotos em preto e branco de dois dos pioneiros da pesquisa de entropia.
Rudolf Clausius (à esquerda) originou a percepção de que a entropia tende a aumentar. Ludwig Boltzmann enraizou esse aumento na mecânica estatística.

Theo Schafgans (à esquerda); Creative Commons
Boltzmann distinguiu as propriedades microscópicas das moléculas, como suas localizações e velocidades individuais, das propriedades macroscópicas em massa de um gás, como temperatura e pressão. Considere, em vez de um gás, um grupo de peças de jogo idênticas em um tabuleiro de xadrez. A lista de coordenadas exatas de todos os verificadores é o que Boltzmann chamou de “microestado”, e sua configuração geral — quer eles formem uma estrela, digamos, ou estejam todos agrupados — é um “macroestado”. Boltzmann definiu a entropia de um dado macroestado em termos do número de possíveis microestados que dão origem a ele. Um macroestado de alta entropia é aquele que tem muitos microestados compatíveis — muitos arranjos possíveis de verificadores que produzem o mesmo padrão geral.

Há apenas algumas maneiras de as peças assumirem formas específicas que parecem ordenadas, enquanto há muito mais maneiras de elas parecerem espalhadas aleatoriamente pelo tabuleiro. Assim, a entropia pode ser vista como uma medida de desordem. A segunda lei se torna uma declaração probabilística intuitiva: há mais maneiras de algo parecer bagunçado do que limpo, então, conforme as partes de um sistema embaralham aleatoriamente por diferentes configurações possíveis, elas tendem a assumir arranjos que parecem cada vez mais bagunçados. Jonas Parnow e Mark Belan/Quanta Magazine; Creative Commons: CC BY-ND 4.0(abre uma nova aba) O calor no motor de Carnot flui do quente para o frio porque é mais provável que as partículas de gás estejam todas misturadas em vez de segregadas pela velocidade — com partículas quentes e rápidas de um lado e frias e lentas do outro. O mesmo raciocínio se aplica ao motivo pelo qual o vidro se estilhaça, o gelo derrete, os líquidos se misturam e as folhas se decompõem. Na verdade, a tendência natural dos sistemas de se moverem de estados de baixa entropia para estados de alta entropia parece ser a única coisa que confere ao universo uma direção temporal consistente de forma confiável. A entropia grava uma flecha do tempo para processos que, de outra forma, aconteceriam facilmente ao contrário. A ideia de entropia acabaria se estendendo muito além dos limites da termodinâmica. "Quando Carnot escreveu seu artigo... Acho que ninguém imaginou o que sairia dele", disse Carlo Rovelli (abre uma nova aba), físico da Universidade de Aix-Marseille. Estendendo a entropia A entropia experimentou um renascimento durante a Segunda Guerra Mundial. Claude Shannon, um matemático americano, estava trabalhando para criptografar canais de comunicação, incluindo aquele que conectava Franklin D. Roosevelt e Winston Churchill. Essa experiência o levou a pensar profundamente sobre os fundamentos da comunicação nos anos seguintes. Shannon procurou medir a quantidade de informações contidas em uma mensagem. Ele fez isso de forma indireta, tratando o conhecimento como uma redução na incerteza.

Uma foto em preto e branco de um homem de terno sentado em frente a um computador primitivo. Claude Shannon, que foi chamado de pai da teoria da informação, entendia entropia como incerteza. Espólio de Francis Bello; Science Source À primeira vista, a equação que Shannon criou não tem nada a ver com máquinas a vapor. Dado um conjunto de caracteres possíveis em uma mensagem, a fórmula de Shannon define a incerteza sobre qual caractere aparecerá em seguida como a soma da probabilidade de cada caractere aparecer multiplicada pelo logaritmo dessa probabilidade. Mas se qualquer caractere for igualmente provável, a fórmula de Shannon é simplificada e se torna exatamente a mesma que a fórmula de Boltzmann para entropia. O físico John von Neumann supostamente pediu a Shannon que chamasse sua quantidade de "entropia" — em parte porque ela se alinhava intimamente com a de Boltzmann, mas também porque "ninguém sabe o que realmente é entropia, então em um debate você sempre terá a vantagem". Assim como a entropia termodinâmica descreve a eficiência de um motor, a entropia da informação captura a eficiência da comunicação. Ela corresponde ao número de perguntas de sim ou não necessárias para descobrir o conteúdo de uma mensagem. Uma mensagem de alta entropia é uma mensagem sem padrões; sem uma maneira de adivinhar o próximo caractere, a mensagem requer muitas perguntas para ser totalmente revelada. Uma mensagem com muitos padrões contém menos informações e é mais fácil de adivinhar. "É uma imagem interligada muito bonita de informação e entropia", disse Lloyd. "Entropia é informação que não conhecemos; informação é informação que conhecemos."

Em dois artigos(abre uma nova aba) de referência(abre uma nova aba) em 1957, o físico americano E.T. Jaynes consolidou essa conexão ao visualizar a termodinâmica através das lentes da teoria da informação. Ele considerou a termodinâmica uma ciência de fazer inferências estatísticas a partir de medições incompletas de partículas. Quando informações parciais são conhecidas sobre um sistema, Jaynes propôs, devemos atribuir probabilidade igual a cada configuração que seja compatível com essas restrições conhecidas. Seu "princípio de entropia máxima" fornece a maneira menos tendenciosa de fazer previsões sobre qualquer conjunto de dados limitado e agora é empregado em todos os lugares, desde mecânica estatística até aprendizado de máquina(abre uma nova aba) e ecologia. Noções de entropia desenvolvidas em contextos díspares se encaixam perfeitamente. Um aumento na entropia corresponde a uma perda de informações sobre detalhes microscópicos. Na mecânica estatística, por exemplo, conforme as partículas em uma caixa se misturam e perdemos o controle de suas posições e momentos, a "entropia de Gibbs" aumenta. Na mecânica quântica, à medida que as partículas se emaranham com seu ambiente, embaralhando assim seu estado quântico, a "entropia de von Neumann" aumenta. E à medida que a matéria cai em um buraco negro e as informações sobre ela se perdem para o mundo externo, a "entropia de Bekenstein-Hawking" aumenta. O que a entropia mede consistentemente é a ignorância: uma falta de conhecimento sobre o movimento das partículas, o próximo dígito em uma sequência de código ou o estado exato de um sistema quântico. "Apesar do fato de que as entropias foram introduzidas com motivações diferentes, hoje podemos vincular todas elas à noção de incerteza", disse Renato Renner (abre uma nova aba), físico do Instituto Federal Suíço de Tecnologia de Zurique.

Um sopro de subjetividade Como estudante de graduação em física no norte da Itália, Carlo Rovelli aprendeu sobre entropia e o crescimento da desordem com seus professores. Algo não parecia certo. Ele foi para casa, encheu um jarro com óleo e água e observou os líquidos se separarem enquanto o sacudia — um aparente afastamento da segunda lei, como lhe fora descrito. "O que eles estão me dizendo é besteira", ele se lembra de ter pensado. "Estava tão claro que havia um problema na maneira como as coisas eram ensinadas." A experiência de Rovelli captura uma razão fundamental pela qual a entropia é tão desconcertante. Há muitas situações em que a ordem parece aumentar, desde uma criança limpando seu quarto até uma geladeira resfriando um peru. Rovelli entendeu que seu aparente triunfo sobre a segunda lei era uma miragem. Um observador sobre-humano com poderosa visão térmica veria como a separação de óleo e água libera energia cinética para as moléculas, deixando um estado termicamente mais desordenado. “O que realmente está acontecendo é que há uma ordem macroscópica se formando às custas da desordem microscópica”, disse Rovelli. A segunda lei sempre se mantém; às vezes, ela está fora de vista. E.T. Jaynes (topo), ao resolver um paradoxo levantado por Willard Gibbs, esclareceu a natureza subjetiva da entropia. Creative Commons (topo); Os artigos científicos de J. Willard Gibbs Jaynes ajudou a esclarecer essa questão também. Para fazer isso, ele recorreu a um experimento mental proposto pela primeira vez em 1875 por Josiah Willard Gibbs, que ficou conhecido como o paradoxo da mistura de Gibbs. Suponha que você tenha dois gases, A e B, em uma caixa, separados por um divisor. Quando você levanta o divisor, a segunda lei exige que os gases se espalhem e se misturem, aumentando a entropia. Mas se A e B são gases idênticos mantidos na mesma pressão e temperatura, levantar o divisor não altera a entropia, pois as partículas já estão misturadas ao máximo

A questão é: O que acontece se A e B são gases distintos, mas você não consegue diferenciá-los? Mais de um século depois que Gibbs apresentou o paradoxo, Jaynes apresentou uma resolução (abre uma nova aba) (que ele insistiu que Gibbs já havia entendido, mas não conseguiu articular claramente). Imagine que os gases na caixa são dois tipos diferentes de argônio, idênticos, exceto que um deles é solúvel em um elemento ainda não descoberto chamado whifnium. Antes da descoberta do whifnium, não havia como diferenciar os dois gases e, portanto, levantar o divisor não inicia nenhuma mudança aparente na entropia. Após a descoberta do whifnium, no entanto, um cientista inteligente poderia empregá-lo para diferenciar as duas espécies de argônio, calculando que a entropia aumenta à medida que os dois tipos se misturam. Além disso, o cientista poderia projetar um pistão baseado em whifnium que aproveitasse energia anteriormente inacessível da mistura natural dos gases. O que Jaynes deixou claro é que a "ordem" de um sistema — e, portanto, o potencial para extrair energia útil dele — depende do conhecimento relativo e dos recursos de um agente. Se um experimentador não consegue discriminar os gases A e B, eles são, na verdade, o mesmo gás. Assim que os cientistas têm os meios para diferenciá-los, eles podem aproveitar o trabalho explorando a tendência dos gases de se misturar. A entropia não depende da diferença entre os gases, mas de sua capacidade de distinção. A desordem está nos olhos de quem vê. Um homem de cabelos grisalhos em uma camisa polo preta está sentado em uma poltrona. O físico Carlo Rovelli há muito enfatiza a dependência do observador de quantidades na física, incluindo a entropia. Christopher Wahl "A quantidade de trabalho útil que podemos extrair de qualquer sistema depende — óbvia e necessariamente — de quanta informação 'subjetiva' temos sobre seu microestado", escreveu Jaynes. O paradoxo de Gibbs enfatiza a necessidade de tratar a entropia como uma propriedade perspectivista em vez de uma inerente a um sistema. E, ainda assim, a imagem subjetiva da entropia era difícil(abre uma nova aba) para os físicos engolirem. Como o filósofo da ciência Kenneth Denbigh escreveu em um livro didático de 1985(abre uma nova aba), “Tal visão, se for válida, criaria alguns problemas filosóficos profundos e tenderia a minar a objetividade do empreendimento científico.”

Aceitar essa definição condicional de entropia exigiu uma reformulação do propósito fundamental da ciência. Ela implica que a física descreve com mais precisão a experiência individual do que alguma realidade objetiva. Dessa forma, a entropia foi varrida pela tendência maior de cientistas que perceberam que muitas quantidades físicas só fazem sentido em relação a um observador. (Até o próprio tempo foi tornado relativo pela teoria da relatividade de Einstein.) "Os físicos não gostam de subjetividade — eles são alérgicos a ela", disse Anthony Aguirre (abre uma nova aba), um físico da Universidade da Califórnia, Santa Cruz. "Mas não há absoluto — isso sempre foi uma ilusão."

Jonas Parnow e Mark Belan/Quanta Magazine; Creative Commons: CC BY-ND 4.0 (abre uma nova aba)
Agora que a aceitação chegou, alguns físicos estão explorando maneiras de incorporar a subjetividade às definições matemáticas de entropia.

Aguirre e colaboradores criaram uma nova medida que eles chamam de entropia observacional(abre uma nova aba). Ela oferece uma maneira de especificar quais propriedades um determinado observador tem acesso ajustando como essas propriedades desfocam, ou "grão grosso", a visão do observador sobre a realidade. Em seguida, atribui probabilidade igual a todos os microestados compatíveis com essas propriedades observadas, assim como Jaynes propôs. A equação faz a ponte entre a entropia termodinâmica, que descreve características macroscópicas amplas, e a entropia da informação, que captura detalhes microscópicos. "Esse tipo de visão de grão grosso, parcialmente subjetiva, é a maneira como nos envolvemos com a realidade de uma forma significativa", disse Aguirre.

Vários grupos independentes usaram a fórmula de Aguirre para buscar uma prova mais(abre uma nova aba) rigorosa(abre uma nova aba)(abre uma nova aba) da segunda lei. De sua parte, Aguirre espera usar sua medida para explicar por que o universo começou em um estado de baixa entropia(abre uma nova aba) (e, portanto, por que o tempo flui para a frente) e para obter uma imagem mais clara do que a entropia significa em buracos negros. "A estrutura de entropia observacional fornece muito mais clareza", disse Philipp Strasberg, um físico da Universidade Autônoma de Barcelona, ​​que recentemente a incluiu em uma comparação de diferentes definições de entropia microscópica(abre uma nova aba). "Ela realmente conecta ideias de Boltzmann e von Neumann com o que as pessoas fazem hoje em dia."


Uma foto espontânea de um homem em uma camisa xadrez falando com alguém fora do quadro. Anthony Aguirre definiu uma quantidade que ele chama de entropia observacional que outros pesquisadores consideram esclarecedora. Lisa Tse para FQxl Enquanto isso, os teóricos da informação quântica adotaram uma abordagem diferente (abre uma nova aba) para lidar com a subjetividade. Eles estão tratando a informação como um recurso que os observadores podem usar para interagir com um sistema que está cada vez mais se misturando com seu ambiente. Para um supercomputador com poder ilimitado que pudesse rastrear o estado exato de cada partícula no universo, a entropia sempre permaneceria constante — já que nenhuma informação seria perdida — e o tempo deixaria de fluir. Mas observadores com recursos computacionais finitos como nós sempre têm que lidar com uma imagem grosseira da realidade. Não podemos acompanhar o movimento de todas as moléculas de ar em uma sala, então fazemos médias na forma de temperatura e pressão. Perdemos progressivamente o controle dos detalhes microscópicos à medida que os sistemas evoluem para estados mais prováveis, e essa tendência implacável se materializa como o fluxo do tempo. “O tempo da física é, em última análise, a expressão da nossa ignorância do mundo”, escreveu Rovelli (abre uma nova aba). A ignorância compõe nossa realidade. Jonas Parnow e Mark Belan/Quanta Magazine; Creative Commons: CC BY-ND 4.0 (abre uma nova aba) No entanto, essa compreensão unificada da entropia levanta uma preocupação preocupante: de qual ignorância estamos falando? .








COMENTÁRIOS

Comentários

Postagens mais visitadas deste blog

2