Entropia

Wikipediasta
Tämä on arkistoitu versio sivusta sellaisena, kuin se oli 16. elokuuta 2010 kello 16.26 käyttäjän KLS (keskustelu | muokkaukset) muokkauksen jälkeen. Sivu saattaa erota merkittävästi tuoreimmasta versiosta.
Siirry navigaatioon Siirry hakuun

Entropia eli haje on fysikaalinen suure, joka ilmaisee epäjärjestyksen määrän systeemissä. Entropiaan liittyvä epäjärjestys tarkoittaa useimmiten energian tai materian jakautumista yhä tasaisemmin sille varatussa tilassa, satunnaisuuden ja epätodennäköisyyden kasvamista sekä erojen ja informaation vähenemistä. Entropia on keskeinen käsite termodynamiikassa, fysikaalisessa kemiassa, tilastollisessa mekaniikassa ja informaatioteoriassa, sekä psykologiassa ja mielenfilosofiassalähde?, joissa se määritellään kussakin hieman eri tavoin. Entropian käsitteen otti fysiikassa ensimmäisenä käyttöön Rudolf Clausius.

Entropian suunta määrittää ajan ja luonnonilmiöiden kulkusuunnan.

Entropia termodynamiikassa

Termodynamiikassa tarkasteltava kokonaisuus on eristetty systeemi, jos se ei vaihda ainetta eikä energiaa ympäristönsä kanssa. Suljettu systeemi voi vaihtaa energiaa mutta ei ainetta ympäristönsä kanssa. Termodynaamisen entropian yksikkö on joule kelviniä kohti [J/K].

Termodynamiikan toinen pääsääntö voidaan ilmasta entropian avulla siten, että eristetyn systeemin entropia voi kasvaa mutta ei koskaan vähetä [1]. Mikäli järjestelmän johonkin osaan halutaan luoda järjestystä eli pienentää sen entropiaa, se vaatii ulkoista työtä. Työtä ei kuitenkaan voida tehdä täydellisellä hyötysuhteella, jolloin osa siitä kuluu lämmön tuottamiseen, ja näin kokonaisentropia on jälleen kasvanut; esimerkiksi tilanteessa, jossa jääkaapin moottori jäähdyttää sen sisäilmaa mutta samalla lämmittää ulkoilmaa.

Koska kokonaisentropia muuttuu ainoastaan suurempaan päin, määrittelee se luonnonilmiöden kehityksen ja ajan kulun suunnan. Kun suurin mahdollinen entropia on saavutettu, ei mikään muutos systeemissä ole enää mahdollinen, ellei siihen ala vaikuttaa jokin ulkopuolinen voima.

Entropia, lämpömäärä ja lämpötila

Termodynamiikassa entropian muutos määritellään kaavalla

missä on systeemiin tuleva lämpömäärä ja se lämpötila, jossa lämpö tulee systeemiin. Lämpötila on tällöin mitattava asteikolla, jonka nolla­pisteenä on absoluuttinen nollapiste, esi­merkiksi kelvineinä. Jos lämpötilan muutos on pieni, tämä integraalina laskettu entropian muutos on käytännössä yhtä suuri kuin luovutettu tai vastaanotettu lämpö­määrä jaettuna tällä kelvin-lämpö­tilalla. Prosessi systeemin tilasta 1 tilaan 2 on tässä määrittelykaavassa reversiibeli eli palautuva prosessi. Kaikissa irreversiibeleissä eli palautumattomissa prosesseissa entropia kasvaa [2].

Esimerkki irreversiibelistä prosessista on kahden eri lämpötilassa olevan aineen sekoittaminen, jolloin aineiden välinen lämpötilaero tasoittuu. Tällöin ennestään lämpimämmän aineen entropia tosin pienenee sen viiletessä, mutta kylmemmän aineen entropia kasvaa vielä enemmän sen lämmetessä (koska kaavassa oleva jakaja eli lämpö­tila on pienempi), joten systeemin kokonaisentropia kasvaa.[3].

Entropia kasvaa myös, kun kitka, väliaineen vastus tai kimmoton törmäys pysäyttää jonkin kappaleen liikkeen tai hidastaa sitä. Tällöin sen liike-energia muuttuu lämmöksi, ja prosessi on palautumaton eli irreversiibeli. Jos tästä aiheutuva lämpötilan muutos on pieni, entropian lisäys voidaan tässäkin tapauksessa likimäärin laskea jakamalla syntynyt lämpömäärä kelvin-lämpötilalla. Monissa tapauksissa täten syntyvä lämpömäärä onkin niin pieni ja leviää niin laajalle ympäristöön, ettei lämpötilan nousua käytännössä voida havaita ilman tarkkoja mittauksia. Kuitenkin esimerkiksi tulitikkua raapaistaessa lämpöä syntyy kitkan vaikutuksesta sen verran, että tikku syttyy.

Tarkkaan ottaen termodynamiikan toinen pääsääntö on vain todennäköisyyslaki. Samankin lämpötilan vallitessa aineessa on aina sekaisin nopeasti ja hitaasti liikkuvia molekyylejä. Jos jossakin suljetussa astiassa kaikki nopeat kaasumolekyylit kerääntyisivät astian toiseen ja hitaat toiseen reunaan, edellisessä lämpötila nousisi ja jälkimmäisessä alensi. Samalla systeemin entropia pienenisi. Että näin tapahtuisi, on kuitenkin äärimmäisen epätodennäköistä eikä sellaista ole milloinkaan havaittu, ja näin ollen käytännössä lakia voidaan pitää yleispätevänä.[4]

Entropia tilastollisessa fysiikassa

Entropia voidaan määritellä myös tilastollisen fysiikan käsittein seuraavasti:

missä on mikrotilan todennäköisyys ja k on lähinnä mittayksikön määrittävä keinotekoinen vakio. Näin määriteltyä entropiaa sanotaan myös Boltzmannin-Gibbsin entropiaksi.

Tämän todennäköisyyteen perustuvan entropian määritelmän esitti ensimmäisenä Ludwig Boltzmann 1800-luvun lopulla, ja hän sovelsi sitä termodynamiikkaan. Tällöin mikrotilat vastaavat tapoja, joilla systeemin kokonaisenergia voi olla jakautunut eri molekyylien kesken. Vaikka tämä määritelmä on täysin eri­lainen kuin edellä esitetty, jo aiemmin tunnettu, lämpö­määrään ja lämpö­tilaan perustuva määritelmä, Boltzmann osoitti nämä yhtä­pitäviksi: samassa termo­dynaamisessa prosessissa kummallakin tavalla laskettu entropian muutos on aina yhtä suuri. Kaavassa esiintyvä vakio k on Boltzmannin vakio (1,380658 · 10−23 J/K). Mikäli kaikkien mikrotilojen todennäköisyys on sama, voidaan lauseke yksinkertaistaa muotoon

missä on kaikkien mahdollisten mikrotilojen lukumäärä tietyssä makroskooppisessa tilassa. Entropia on siis tiettyä makrotilaa vastaavien mikrotilojen lukumäärän (eli ns. termo­dynaamisen toden­näköisyyden) logaritmi.

Entropia informaatioteoriassa

Informaatio- eli viestintäteoriassa entropia on suure, joka mittaa viestin (esimerkiksi sarja binäärimuotoisia bittejä) sisältämän informaation määrää. Tällöin entropia määritellään periaatteessa samoin kuin tilastollisessa fysiikassa: tiettyä makrotilaa vastaavien mikrotilojen lukumäärän tai toden­näköisyyden logaritmina. Mitä suurempi viestin entropia on, sitä enemmän se sisältää satunnaisuutta ja tietoa ja sitä vähemmän järjestystä. Toisella tavalla ilmaistuna suurempi entropia tarkoittaa suurempaa epävarmuutta siitä, mikä viestin seuraava merkki tulee olemaan.

Esimerkiksi tietoliikenteessä kapeakaistainen signaali - mm. puhe - on varsin redundanttia, ja siksi sen entropia on vähäinen. Toisaalta laajakaistainen signaali sisältää varsin paljon entropiaa.lähde?

Entropia arkielämässä

Arkinen vertauskuva entropiasta on huoneen epäjärjestyksen kasvaminen, mikäli ei tee työtä sen siistinä pitämiseksi. Vaikka tässä vertauskuvassa onkin enemmän kyse huolimattomuudesta kuin entropiasta, kuvastaa se silti asioiden pyrkimystä kohti suurempaa epäjärjestystä.[5]

Entropia kasvaa, kun sekoitetaan saman verran kuumaa ja kylmää vettä eristetyssä astiassa. Lämpötilaerot tasoittuvat siten, että lopullinen lämpötila on alkuperäisten lämpötilojen keskiarvo eikä alkuperäistä tilannetta voida enää mitenkään palauttaa. Entropian kasvu ilmenee myös siinä, että jääkuutiot sulavat juomassa, mutta juoman lämpötilan pysyessä vakiona siihen ei voi enää itsestään syntyä uusia jääkuutioita.

Entropia ja maailmankaikkeus

Maailmankaikkeutta voidaan pitää eristettynä systeeminä. Siksi sen kokonaisentropia on käytännössä jatkuvassa kasvussa. Nykykäsityksen mukaan maailmankaikkeus laajenee jopa kiihtyvällä tahdilla: se merkitsee, että vähitellen galaksit, tähdet ja lopulta niiden atomit ja atomien osaset sekä lämpöenergia hajaantuvat yhä tasaisemmin avaruuteen. Näin maailmankaikkeus kulkee kohti suurinta mahdollista entropiaa. Koska maailmankaikkeuden ulkopuolella ei katsota olevan mitään, päädytään lopulta lämpökuolemaksi kutsuttuun tasa­paino­tilaan, jossa ei voi enää tapahtua muutosta. Maailmankaikkeuden lopullinen kohtalo on kuitenkin yhä epävarma, ja kosmologian kehittyessä uusia kehitysnäkymiä saattaa tulla ilmi.[6]

Entropia ja maapallo

Maapalloa voidaan pitää suljettuna systeeminä, koska se ei kovin suuressa määrin vastaan­ota ainetta avaruudesta eikä luovuta sitä; tällöin jätetään huomiotta meteoriittien maapallolle tuoma (suhteellisesti ottaen vähäinen) ainemäärä.[7] Maapallo ei kuitenkaan ole eristetty systeemi, sillä sinne virtaa jatkuvasti Auringon säteilyenergiaa ja samalla maapallo säteilee energiaa avaruuteen lämpösäteilynä.[8]

Energia- ja massavirtojen myötä voi eristämättömän systeemin entropia kasvaa tai vähentyä.[9][10][11] Niinpä maapallollakin materia- ja energiavirrat voivat paikallisesti saada aikaan entropian vähenemistä, esi­merkiksi lämpö­tila­eroja Maan eri alueiden välille, mutta silti entropia kasvaa laajemmassa systeemissä, jonka muodostavat Aurinko, Maa ja ympäröivä avaruus. Entropiaa virtaa pois Maasta noin 0,9 W/K pinnan neliömetriä kohti.[12]

Elävät olennot eivät ole eristettyjä eivätkä edes suljettuja systeemejä[13], ja ne pystyvätkin hyödyntämään saamaansa energiaa siten, että niissä entropia vähenee. Näin tapahtuu esimerkiksi kasvien kasvaessa, kun ne Auringon energiaa hyväksi käyttäen valmistavat fotosynteesin avulla orgaanisia yhdisteitä.

Katso myös

Lähteitä

  • Hans Christian von Baeyer: "Information – The New Language of Science" (Phoenix, England 2004, 1st Edition 2003); luku 11
  • Hans Christian von Baeyer: Maxwellin demoni, suom. Hannu Karttunen, Art House 2000, ISBN 951-884-321-X
  • Peter Atkins: "Galileo's Finger – The ten great ideas of science" (Oxford University Press, Great Britain 2003); luku 4
  • Arponen–Honkonen: Statistinen fysiikka, Limes ry, 2000
  • WSOY: CD-Fakta 2004
  • Markku J. Lampinen: Termodynamiikan perusteet, Otatieto 582, 1997.

Viitteet

  1. Young, Freedman: University Physics, 9th Edition, s. 586
  2. Young, Freedman: University Physics, 9th Edition, s. 578
  3. Young, Freedman: University Physics, 9th Edition, s. 579
  4. von Baeyer, Hans Christian: Maxwellin demoni, s. 140-145. Suomentanut Karttunen, Hannu. Art House, 2000. ISBN 951-884-321-X.
  5. Baeyer, s. 115-116
  6. Baeyer, s. 122-127
  7. Sussman, Art: Dr. Art's Guide to Planet Earth Planetguide.net. Viitattu 29.7.2010. (englanniksi)
  8. Haynie, Donald T.: Biological thermodynamics, s. 11–12. 2nd edition. Cambridge: Cambridge University Press, 2008. ISBN 978-0-521-88446-4. (englanniksi)
  9. LearnThermo.com (Entropy Balance Equation for Open Systems) learnthermo.com. Viitattu 19.7.2010. (englanniksi)
  10. Haase, Rolf: Thermodynamics of irreversible processes, s. 83. Reading, Massachusetts: Addison-Wesley, 1969. (englanniksi)
  11. Prigogine, I.: Introduction to thermodynamics of irreversible processes, s. 85–87. 3rd edition. New York: Interscience Publishers, 1967. (englanniksi)
  12. Kleidon, Axel & Lorenz, Ralph (editors): ”Entropy production by Earth system processes”, Non-equilibrium thermodynamics and the production of entropy: Life, Earth, and beyond, s. 4. Understanding Complex Systems. Berlin: Springer, 2004. ISBN 978-3-540-22495-2. (englanniksi)
  13. Groot, S. R. de: Thermodynamics of irreversible processes, s. 206. Amsterdam: North-Holland Publishing, 1951. (englanniksi)

Aiheesta muualla

Malline:Link GA