Entrópia

A Wikipédiából, a szabad enciklopédiából
Ugrás a navigációhoz Ugrás a kereséshez

Az entrópia a tudomány (elsősorban a hőtan és az informatika) fontos fogalma, egy rendszer rendezetlenségi fokát jellemzi.

Az entrópia műszót Rudolf Clausius (1822–1888) alkotta meg 1865-ben az energia mintájára. Meghagyta az en- (görögül εν-) szótagot, melynek jelentése be-, az ergon (έργον = munka) szót pedig tropé-val (τροπή = megfordulás) helyettesítette, és ezzel jellemezte a termodinamikában az anyagi rendszerek molekuláris rendezetlenségét, illetve termodinamikai valószínűségének a mértékét.[1] Ebből következtetni lehet a maguktól végbemenő folyamatok irányára: a természetben egyre valószínűbb állapotok következnek be.

Például a hő a melegebb testről a hidegebb test felé áramlik. Tehát bizonyos munkamennyiség minden spontán folyamatnál kárba vész, hővé alakul át. Emiatt a természetben a spontán folyamatok visszafordíthatatlanok. A munka, de bármely energiafajta is maradéktalanul hővé alakítható, míg a hő csak részben alakítható át másfajta energiává (ezért tartják alacsonyabb rendű energiának).

Az entrópia és a rendezetlenség egyenértékűsége elvben még a termodinamikában felbukkan, de végleg Erwin Schrödinger tisztázta az életjelenségek kapcsán.

Később – a formai hasonlóság alapján – Neumann János javasolta Shannonnak, hogy képletét nevezze entrópiának. De mivel negatív előjel szerepelt a képlet előtt, negentrópia lett a neve (régen antientrópia is), ami a rendszerek rendezettségének mértékét fejezi ki.[2]

Hőtani értelmezés[szerkesztés]

A termodinamikában (amely a fizika egyik ága) az entrópia (szimbóluma: S) egy extenzív állapotjelző, amelynek megváltozása a test két állapota között reverzibilis folyamat során felvett redukált hőmennyiségek előjeles összegével egyenlő.

Egy zárt termodinamikai rendszer a különböző állapotait meghatározott valószínűséggel veszi fel. A lehetséges állapotok összességét jellemzi az állapothalmaz: .

Az állapotok termodinamikai valószínűsége (hagyományosan) .

A rendszer entrópiája az állapotban

,

ahol k a Boltzmann-állandó. A termodinamikai entrópia fogalmát Rudolf Clausius vezette be.

Az entrópianövekedés és entrópiamaximum elve[szerkesztés]

Ha egy rendszer adiabatikusan zárt (vagyis a környezetéből nem vesz fel hőt), akkor a rendszerben lejátszódó spontán folyamatok során a rendszer entrópiája mindaddig nő, amíg be nem áll az egyensúlyi állapot. Egyensúlyi állapotban a rendszer entrópiája maximális.[3] Nyílt rendszer egyensúlyának azonban nem feltétele az entrópiamaximum, mivel az entrópianövekedés a külvilágnak leadott hővel kompenzálható, sőt, az entrópia akár csökkenhet is.

Az entrópia és a fekete lyukak[szerkesztés]

A fekete lyukak olyan szingularitások, amelyek elnyelik az anyagot úgy, hogy onnan még a fény sem tud kiszabadulni. Kezdetben úgy tűnt, hogy a fekete lyukak léte sérti azt az elfogadott elvet, miszerint a világegyetem entrópiája növekedik. Stephen Hawkingnak sikerült bebizonyítania, hogy ez korántsem igaz.

"A kilépő sugárzás pozitív energiáját a fekete lyukba áramló negatív energiájú részecskék árama egyenlíti ki. Einstein nevezetes egyenlete értelmében az energia arányos a tömeggel: E=mc² (ahol E az energia, m a tömeg, c pedig a fénysebesség). A beáramló negatív energia tehát csökkenti a fekete lyuk tömegét. A tömeg csökkenése következtében csökken az eseményhorizont területe. Az ebből eredő entrópiacsökkenést (a lyuk belsejében) bőven meghaladja a kibocsátott sugárzás okozta entrópianövekedés, úgyhogy szó sincs a második főtétel megsértéséről.

Minél kisebb a fekete lyuk tömege, annál magasabb a hőmérséklete. Ahogy tehát fogy a fekete lyuk tömege, egyre nő a hőmérséklete és részecskekibocsátása, azaz egyre gyorsabban veszíti tömegét. Nem teljesen tisztázott még, mi történik akkor, ha a fekete lyuk végül rettenetesen kicsivé válik. Legészszerűbbnek az a feltevés látszik, hogy hatalmas végső részecskekibocsátás közepette teljesen megsemmisül; a hatás több millió H-bomba egyidejű fölrobbantásával egyenértékű.",[4][5]

Informatikai értelmezés[szerkesztés]

A kommunikációs kapcsolatban a hírforrás mint sztochasztikus (véletlenszerű) kibernetikai rendszer működik. Állapotait véletlenszerűen veszi fel, s az eseményekről tudósító híreket véletlenszerűen sugározza (küldi). A forrás hírkészlete: és a rendszer állapothalmaza (l. fent) között természetes az egy-egy értelmű megfeleltetés, ami ezért a hírkészlet és az állapot-valószínűségek között is fennáll. A forrás egy hírének az entrópiája:

.

A rendszer entrópiája ezek összegezésével adódik: .

Az entrópia lehetséges értékei[szerkesztés]

A rendszer entrópiája a következő értékeket veheti fel: , ahol a lehetséges hírek darabszámát jelenti.

  • Az entrópia akkor a legkisebb (0), ha a hírforrás biztosan mindig ugyanazt a hírt sugározza: ekkor a valószínűségek egyike 1 (amelyiket sugározza), a többié 0, és így az összeg is nulla, mivel azok a tagok 0-val egyenlőek, amelyikben (az egyik tényező), az egyetlen maradék tagban (ahol ) pedig a tényező nulla. Ekkor a bizonytalanságunk nulla, vagyis teljesen biztosak lehetünk benne, hogy az adott hír meg fog érkezni.
  • Az entrópia akkor a legnagyobb (), ha az összes hír valószínűsége egyenlő (). Ekkor a bizonytalanságunk a legnagyobb, hiszen bármelyik hír ugyanakkora valószínűséggel érkezhet.

A forrás-entrópia a híreink átlagos hírértéke. A fizikai entrópia formulájához való hasonlóság nyomán "keresztelte el" Shannon.

Jegyzetek[szerkesztés]

  1. Fülöp József: Rövid kémiai értelmező és etimológiai szótár. Celldömölk: Pauz–Westermann Könyvkiadó Kft. 1998. ISBN 963 8334 96 7  
  2. Bárány-Horváth Attila írása. [2009. június 1-i dátummal az eredetiből archiválva]. (Hozzáférés: 2008. szeptember 23.)
  3. Holics László: Fizika összefoglaló, Typotex Kiadó, 1998, 335. old., ISBN 963-9132-13-6
  4. Stephen Hawking: Az idő rövid története. [2009. január 20-i dátummal az eredetiből archiválva]. (Hozzáférés: 2008. szeptember 24.)
  5. Fekete lyuk, de nem úgy, ahogy mi ismerjük