Entropia (informaatioteoria)
Entropia informaatioteoriassa kuvaa keskimääräistä epävarmuutta satunnaismuuttujan mahdollisten arvojen suhteen. Täsmällisemmin sanottuna se mittaa satunnaismuuttujan arvon kuvaamiseksi tarvittavan informaation odotusarvoa satunnaismuuttujan todennäköisyysjakauman yli.[1] Tässä yhteydessä satunnaismuuttujan informaatiota kuvaa sen todennäköisyysjakauman käänteisluvun logaritmi, joka epäformaalisti sanottuna kertoo, kuinka yllättävä jokin tapahtuma on: mitä suurempi tapahtuman todennäköisyys on, sitä lähempänä nollaa sen käänteisluvun logaritmi on ja sitä vähemmän informaatiota tähän tapahtumaan liittyy. Käsitteen esitteli Claude Shannon vuonna 1948.[2]
Määritelmät
[muokkaa | muokkaa wikitekstiä]Diskreetti satunnaismuuttuja
[muokkaa | muokkaa wikitekstiä]Olkoon diskreetin satunnaismuuttujan määrittelyjoukko ja pistetodennäköisyysfunktio . Tällöin satunnaismuuttujan entropia on:
Jatkuva satunnaismuuttuja
[muokkaa | muokkaa wikitekstiä]Olkoon jatkuvan satunnaismuuttujan määrittelyjoukko ja tiheysfunktio . Tällöin satunnaismuuttujan entropia on:
Jatkuvan satunnaismuuttujan entropiaa kutsutaan myös differentiaalientropiaksi.
Lähteet
[muokkaa | muokkaa wikitekstiä]- ↑ a b c Cover, Thomas M.; Thomas, Joy A.: Elements of Information Theory. Hoboken, NJ: John Wiley & Sons, Inc., 2005. doi:10.1002/047174882X ISBN 9780471241959 (englanniksi)
- ↑ Shannon, C. E.: A mathematical theory of communication. The Bell System Technical Journal, 1948, 27. vsk, nro 3, s. 379–423. doi:10.1002/j.1538-7305.1948.tb01338.x (englanniksi)
Kirjallisuutta
[muokkaa | muokkaa wikitekstiä]- Cover, Thomas M.; Thomas, Joy A.: Elements of Information Theory. Hoboken, NJ: John Wiley & Sons, Inc., 2005. doi:10.1002/047174882X ISBN 9780471241959 (englanniksi)