Információ

A Wikipédiából, a szabad enciklopédiából
Ugrás a navigációhoz Ugrás a kereséshez

Az információ latin eredetű szó, amely értesülést, hírt, üzenetet, tájékoztatást jelent. Egyben az informatika alapfogalma. Számos jelentése, kifejtése ismert, különböző tudományágak különböző módon közelítik meg, írják le. Egyértelműen elfogadott definíciója nem ismert.

Általánosságban információnak azt az adatot, hírt tekintjük, amely számunkra releváns és ismerethiányt csökkent. Egyik legleegyszerűsítettebb megfogalmazás szerint az információ nem más, mint a valóság (vagy egy részének) visszatükröződése.[1] Tudományos értelmezését az információelmélet fogalmazza meg.

Története[szerkesztés]

A középkorban az arisztotelészi érzékelés-elmélettel szemben (mely mintegy radarként képzelte pl. a szemet) az az elképzelés alakult ki, hogy a tárgyakról érkező valami az érzékszervet befolyásolja, formáját megváltoztatja, tehát informálja. A misztikus teológia szerint a lélek felemelkedve Isten közelébe, Isten nyomot hagy rajta, átformálja, informálja.

Az információ, mint tudományos fogalom az ipari forradalom idején jelent meg fokozatosan. A fogalom átvételében Rudolf Clausius 1865-ben készült dolgozatát tekinthetjük fordulópontnak. Később – ezt dolgozatot felhasználva – továbbfejlesztette Ludwig Boltzmann (1894). Szerinte az entrópia azért jelentkezik, mert a zárt rendszerbe nem juthat további anyag, energia és információ.

Olyan személyek munkái jelentették a fejlődést, mint Norbert Wiener, Gábor Dénes, Neumann János, Szilárd Leó, Claude Shannon, Warren Weaver vagy Ralph Vinton Lyon Hartley.

Az 1950-es évektől robbanásszerű fejlődésen megy át a fogalom, mivel számos tudományág felfedezi és használatba veszi. Számtalan kiegészítése, értelmezése lát napvilágot. Olyan szakterületek építik be szaknyelvükbe, mint a kibernetika, biológia, pszichológia, kommunikációs elmélet, nyelvészet, szemiotika, játékelmélet, kódoláselmélet, vezetés- és szervezéselmélet, rendszerelmélet.


Főbb tulajdonságai[szerkesztés]

Az információ önmagában értéket képvisel, ez lehet társadalmi, tudományos, termelési - gazdasági vagy akár hatalmi érték. Az információval képesek vagyunk egy meglévő értéket növelni, így értéknövelő. Mivel értéket képvisel, így profitot, illetve extraprofitot is termelhet. Jellemző tulajdonsága még a mennyisége, minősége, felhasználhatósága, hozzáférhetősége, érthetősége, védelme.[forrás?]

Mennyisége[szerkesztés]

Az információ mennyisége az idővel exponenciálisan nő, ugyanis az információ felhasználásakor nem semmisül meg, többszörösen újrafelhasználható. Ugyanakkor az is igaz, hogy az információ megsemmisíthető, hiszen csak az információt reprezentáló adatokat, jeleket kell törölni.

Minősége[szerkesztés]

Az információ minősége alapvetően a feldolgozás és a tömörítés szintjétől, valamint az információtárolás minőségétől függ. Ide tartozik, hogy az információ mennyire megbízható, pontos, illetve mennyire időszerű.

Entrópia és az információ[szerkesztés]

Az entrópia a fizikában és az informatikában egyaránt használatos fogalom. Az entrópiát – mint a káoszt előidéző erőt – negatív információnak tekintjük, egyúttal a rendszeren belüli információ hiányát is jelenti.[j 1][2]

Mértékegysége[szerkesztés]

Az információmennyiség mértékegysége a bit[j 2] – nem tévesztendő össze a adatmennyiség mértékegységével, amely szintén bit.

Ha egy eldöntendő kérdésre egyforma valószínűséggel adhatók különböző válaszok, akkor az e kérdésre adott bármely válasz pontosan 1 bit információt hordoz.

1 bit információhoz 10−23 J/K entrópiacsökkenés szükséges.[2]

Egyéb ismert mértékegységek[szerkesztés]

A biten kívül két másik mértékegység is ismeretes, de nem terjedtek el széles körben.

Hartley[szerkesztés]

Egy S hírforrás valamely p valószínűséggel (relatív gyakorisággal) kibocsátott h hírének az információtartalma (hírérték, entrópia):

hartley (decimális egység)

1 hartley = 1/lg 2 bit (kb. 3,32 bit), 1 hartley = 1/lg e nat (kb. 2,30 nat).

Nat (natural unit)[szerkesztés]

Egy S hírforrás valamely p valószínűséggel (relatív gyakorisággal) kibocsátott h hírének az információtartalma:

nat

Az információ más alapegységei a bit és a hartley.

1 nat = 1/ln 2 bit (kb. 1,44 bit),

1 nat = 1/ln 10 hartley (kb. 0,43 hartley).

Hír információtartalma[szerkesztés]

Hartley-képlet[szerkesztés]

Egy hír esetén, amely egy N elemű jelkészletből – legyen ez pl. az ABC – M darab jelet használ és a jeleket véletlenszerűen választjuk ki, a hír információtartalma:

A valóságban ezek a feltételeket csak ritkán teljesülnek. A feltételek teljesülésére kitűnő példa a lottóhúzás.

Shannon-képlet[szerkesztés]

Claude Elwood Shannon, az információelmélet megalkotója a következő egyenlettel írta le az információtartalmat:

ahol k a jelkészletből felhasznált jelek száma, p a jelkészletből 1 jel kiválasztásának valószínűsége.

Ha a különböző jelek kiválasztásának valószínűségei nem azonosak, a Shannon-féle entrópiát kell használni.

Tételezzük fel, hogy egy n elemű X jelhalmaz (például egy független komplett üzenetekből álló készlet) x1, x2, … xn elemei rendre p1, p2, … pn valószínűséggel fordulnak elő, ekkor az egyedi információmennyiségek, azaz log2 (1/pi) várható értéke definíció szerint:

ahol összegezni kell i=1-től n-ig. H a Shannon-féle entrópia, ezt tekintjük az üzenet információjának. A képlet formailag hasonló a statisztikus fizika entrópia képletéhez.[3]

Jegyzetek[szerkesztés]

  1. Dr. Munk Sándor. Katonai informatika a XXI. század elején. Zrínyi Kiadó, 9. o. (2007). ISBN 978-963-327-419-4 
  2. a b Haig Zsolt, Várhegyi István. Hadviselés az információs hadszíntéren. Zrínyi Kiadó, 47–48. o. (2005). ISBN 963-327-391-9 
  3. Végh András, Információ, adat, jel : http://veghandras.webnode.hu/news/informacio-adat-jel/
  1. Neumann János javasolta Shannonnak, hogy a fizikában használatos fogalmat használják fel az informatikában, mivel hasonló jelenséget kell leírni.
  2. John W. Tukey a kettes alapú logaritmusból kiindulva nevezte el. - Haig Zsolt, Várhegyi István. Hadviselés az információs hadszíntéren. Zrínyi Kiadó, 17. o. (2005). ISBN 963-327-391-9 

Források[szerkesztés]

  • Dorozsmai Károly. 60 tétel informatikából. Maxim (2008). ISBN 978 963 9624 436 
  • Hack Frigyes. Informatikai ismeretek. ELTE TTK (1999)  Mikrológia 31
  • Hack Frigyes. Fejezetek az informatikából (Egyetemi jegyzet). Tankönyvkiadó (1982) 
  • Haig Zsolt, Várhegyi István. Hadviselés az információs hadszíntéren. Zrínyi Kiadó (2005). ISBN 963-327-391-9 
  • Magyari Endre. A hiradástechnika közös alapelvei. Mérnöki Továbbképző Intézet (1945) 
  • Neumann János. Válogatott előadások és tanulmányok. Közgazdasági és Jogi K. (1965) 
  • Nemann János. A számológép és az agy. Gondolat Kiadó (1972) 
  • Wiener, Norbert. Válogatott tanulmányok. Gondolat Kiadó (1974) 
  • Claude E. Shannon, Warren Weaver. A kommunikáció matematikai elmélete. OMIKK (1986) 
  • Végh András. Szóbeli tételjavaslatok - Informatika. Nemzeti Tankönyvkiadó (2005). ISBN 963-19-5651-2 
  • dr. Heinz Zemanek. Információelmélet. Műszaki Könyvkiadó (1956) 

Kapcsolódó szócikkek[szerkesztés]