Pienimmän neliösumman menetelmä

Wikipedia
Loikkaa: valikkoon, hakuun

Pienimmän neliösumman menetelmä (PNS-menetelmä, engl. ordinary least squares, OLS) on matemaattisen optimoinnin menetelmä, jolla pyritään löytämään aineistolle paras sovite. Pienimmän neliösumman menetelmässä regressiokertoimien estimaattorit määrätään minimoimalla jäännös- eli virhetermien neliösumma[1]. Saaduilla estimaateilla voidaan siten muodostaa estimoitu regressiosuora, eli malli kuvaamaan selitettävän muuttujan vaihtelua. Visuaalisesti tarkasteltuna PNS-menetelmällä saadaan laskettua havaintopisteiden vertikaalinen etäisyys regressiosuorasta. Mitä pienempi etäisyys PNS-menetelmällä saadaan, sitä paremmin regressiosuora mallintaa havaintopisteiden käytöstä ja sitä parempi selittävyysaste mallilla on.

PNS-menetelmä on käytettävyytensä takia suosittu menetelmä, jonka sovelluskohteita ovat muun muassa ekonometria, aikasarja-analyysi, sähkötekniikka sekä monet muut empiirisen tutkimuksen alat.

Lineaarisen mallin tapauksessa pienimmän neliösumman menetelmä tuottaa tehokkaimman harhattoman estimaattorin, jos Gauss—Markov-oletukset ovat voimassa.

Yleinen lineaarinen malli[muokkaa | muokkaa wikitekstiä]

Olkoon

y_i=\beta_0+\beta_1x_{i1}+\beta_2x_{i2}+\dots+\beta_kx_{ik}+\varepsilon_i, i = 1,2,\dots, n , jossa
  • x_{ik} on selittävän muuttujan kiinteä, ei-satunnainen x_k arvo havaintoyksikössä i
  • y_i on selitettävän muuttujan y satunnainen arvo havaintoyksikössä i
  • \varepsilon_i on jäännös- eli virhetermi havaintoyksikössä i
  • \beta_0 on vakioselittäjän regressiokerroin
  • \beta_1, \beta_2,\dots, \beta_k ovat selittävän muuttujan x regressiokertoimet, jotka eivät riipu havaintoyksiköstä i

Nimitystä yleinen lineaarinen malli käytetään, sillä sen erikoistapauksina saadaan monia erilaisia tilastollisia malleja. PNS-menetelmää voidaan käyttää sellaisenaan yleiseen lineaariseen malliin, joka toteuttaa standardioletukset.

Standardioletukset[muokkaa | muokkaa wikitekstiä]

Yleistä lineaarista mallia koskee tyypillisesti kuusi oletusta, joita kutsutaan standardioletuksiksi. Näiden oletusten ehtojen täyttyessä malliin voidaan soveltaa tilastollisen analyysin tavanomaisia estimointi- ja testausmenetelmiä mukaan lukien pienimmän neliösumman menetelmää.

  1. Selittäjän x_k arvot x_{ik} ovat kiinteitä, ei-satunnaisia vakioita, eli selittäjien arvot ovat valittu
  2. Selittäjien välillä ei ole lineaarisia riippuvuuksia, eli toisin sanoen selittäjää x_k ei voida esittää muiden x:n arvojen lineaarikombinaationa
    • Ehto takaa sen, että PNS-menetelmä tuottaa yksiselitteiset ratkaisut regressiokertoimille \beta_0, \beta_1, \beta_2,\dots, \beta_k
  3. Kaikkien virhetermien \varepsilon_i odotusarvo on nolla. Tällöin taataan, ettei mallin rakenneosaan sisälly systemaattista virhettä \beta_0+\beta_1 x_{i1}+\beta_2 x_{i2}+ \dots+\beta_kx_ik
  4. Kaikilla virhetermeillä \varepsilon_i on sama varianssi \sigma^{2}, eli niin kutsuttu heteroskedastisuusoletus ei päde
  5. Jäännös- eli virhetermit \varepsilon_i,\varepsilon_j eivät korreloi keskenään.
  6. Jäännös- eli virhetermit \varepsilon_i ovat normaalijakautuneita. Oletus vi. sisältää oletukset iii. ja iv.

Selittäjien satunnaisuus[muokkaa | muokkaa wikitekstiä]

Selittävät muuttujat saattavat saada satunnaisia, ei-kiinteitä arvoja. Näin käy esimerkiksi stokastisissa prosesseissa. Jos selittäjistä muodostuva matriisi X on satunnainen, PNS-menetelmä saattaa tuottaa harhaisia tai epätarkentuvia estimaattoreita regressiokertoimille. Tällöin voidaan testata, mikäli kiinteille selittäjille esitetty teoria toteutuu ehdollisesti.

Lineaarisen mallin regressiokertoimien β PNS-estimaattori on

\mathbf{b} = (\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\mathbf{y} \Leftrightarrow \mathbf{b} = \boldsymbol\beta +(\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\mathbf{\varepsilon}, missä \mathbf{y} = \mathbf{X}\boldsymbol\beta + \boldsymbol\varepsilon,.

Jos matriisi on satunnainen, mutta standardioletuksen iii. mukaan virhetermin ε odotusarvo on nolla, estimaattorin ehdolliselle odotusarvolle pätee

\operatorname{E}[\mathbf{b} | \mathbf{X}] = \boldsymbol\beta + \operatorname{E}[(\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\mathbf{\varepsilon} | \mathbf{X}] = \boldsymbol\beta + (\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\operatorname{E}[\mathbf{\varepsilon} | \mathbf{X}]

Vastaava ehdollinen korjaus muihin (iii-vi) yleisen lineaarisen mallin standardioletuksiin mahdollistaa oletusten yleistämisen myös satunnaisille selittäjille. Siitä huolimatta modifioidut ehdot ovat rajoittavia ja mahdollisesti epäpäteviä eri aineistoille, esimerkiksi aikasarjoille. Mikäli näin on, tällaisissa tilanteissa ei pidä käyttää PNS-menetelmää parametrien estimointiin, vaan hyödyntää dynaamisia regressiomalleja. Dynaamisilla regressiomalleilla on mahdollista huomioida paitsi havaitun prosessin (tyypillisesti jonkin aikasarjan) oma historia, myös muiden tunnettujen prosessin käyttäytymismallit ja näiden keskinäiset riippuvuudet.

Regressiokertoimien estimointi pienimmän neliösumman menetelmällä[muokkaa | muokkaa wikitekstiä]

Yleinen lineaarinen malli[muokkaa | muokkaa wikitekstiä]

 \min_{\beta_0,\dots ,\beta_k} \sum_{i=1}^n\varepsilon_i^2 =\sum_{i=1}^n(y-\beta_0-\beta_1x_{i1}-\beta_2x_{i2}-\dots -\beta_kx_{ik})^2

Neliösumman \sum\varepsilon_i^2 minimointi tapahtuu osittaisderivoimalla regressiokertoimien suhteen ja merkitsemällä derivaatat nolliksi. Tämän tuloksena saadaan lineaarinen yhtälöryhmä regressiokertoimien suhteen. Yhtälöryhmässä on k+1 yhtälöä (k+1, sillä mukana on myös vakiokerroin \beta_0), ja yhtälöryhmällä on yksikäsitteinen ratkaisu mikäli ylempänä esitetty standardioletus ii. pätee.

Yhtälöryhmän ratkaisuna saadaan regressiokertoimien \beta_0,\beta_1,\beta_2, \dots,\beta_k PNS-estimaattorit. Estimaattorit voidaan merkitä vastaavilla latinalaisilla kirjaimilla b_0, b_1, b_2, \dots,b_k, siten että b_1 on regressiokertoimen \beta_1 PNS-estimaattori ja niin edelleen.

Matriisiesitys[muokkaa | muokkaa wikitekstiä]

Olkoon \mathbf{y} = \mathbf{X}\boldsymbol\beta + \boldsymbol\varepsilon, standardioletuksen ii. r(\mathbf{X}) = k+1 täyttävä yleinen lineaarinen malli.

  • Regressiokertoimien vektorin β PNS-estimaattori on \mathbf{b} = (b_0, b_1, b_2, \dots,b_k)' = (\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\mathbf{y}
  • Jos standardioletukset i-iv. pätevät, niin \operatorname{E}[\mathbf{b}]=\boldsymbol\beta, \operatorname{Cov}(\mathbf{b})=\sigma^2(\mathbf{X}'\mathbf{X})^{-1} ja koska \operatorname{E}[\mathbf{b}]=\boldsymbol\beta, seuraa, että PNS-estimaattori b on regressiokertoimien vektorin β harhaton estimaattori.

Katso myös[muokkaa | muokkaa wikitekstiä]

Tämä matematiikkaan liittyvä artikkeli on tynkä. Voit auttaa Wikipediaa laajentamalla artikkelia.
  1. Mellin, Ilkka: Tilastolliset menetelmät 2006.