Siirry sisältöön

Entropia (informaatioteoria)

Wikipediasta

Entropia informaatioteoriassa kuvaa keskimääräistä epävarmuutta satunnaismuuttujan mahdollisten arvojen suhteen. Täsmällisemmin sanottuna se mittaa satunnaismuuttujan arvon kuvaamiseksi tarvittavan informaation odotusarvoa satunnaismuuttujan todennäköisyysjakauman yli.[1] Tässä yhteydessä satunnaismuuttujan informaatiota kuvaa sen todennäköisyysjakauman käänteisluvun logaritmi, joka epäformaalisti sanottuna kertoo, kuinka yllättävä jokin tapahtuma on: mitä suurempi tapahtuman todennäköisyys on, sitä lähempänä nollaa sen käänteisluvun logaritmi on ja sitä vähemmän informaatiota tähän tapahtumaan liittyy. Käsitteen esitteli Claude Shannon vuonna 1948.[2]

Määritelmät

[muokkaa | muokkaa wikitekstiä]

Diskreetti satunnaismuuttuja

[muokkaa | muokkaa wikitekstiä]

Olkoon diskreetin satunnaismuuttujan määrittelyjoukko ja pistetodennäköisyysfunktio . Tällöin satunnaismuuttujan entropia on:

[1]

Jatkuva satunnaismuuttuja

[muokkaa | muokkaa wikitekstiä]

Olkoon jatkuvan satunnaismuuttujan määrittelyjoukko ja tiheysfunktio . Tällöin satunnaismuuttujan entropia on:

[1]

Jatkuvan satunnaismuuttujan entropiaa kutsutaan myös differentiaalientropiaksi.

  1. a b c Cover, Thomas M.; Thomas, Joy A.: Elements of Information Theory. Hoboken, NJ: John Wiley & Sons, Inc., 2005. doi:10.1002/047174882X ISBN 9780471241959 (englanniksi)
  2. Shannon, C. E.: A mathematical theory of communication. The Bell System Technical Journal, 1948, 27. vsk, nro 3, s. 379–423. doi:10.1002/j.1538-7305.1948.tb01338.x (englanniksi)

Kirjallisuutta

[muokkaa | muokkaa wikitekstiä]