Lineaarinen regressioanalyysi

Wikipedia
Loikkaa: valikkoon, hakuun
Esimerkki lineaarisesta regressioanalyysista 50 datapisteelle.

Lineaarinen regressioanalyysi on tilastollinen analyysimenetelmä, jossa aineiston perusteella estimoidaan tarkasteltavan vastemuuttujan lineaarista riippuvuutta selittävistä muuttujista. Menetelmää sovelletaan lähes kaikilla tieteenaloilla, joilla tehdään empiiristä tutkimusta. Lineaarinen regressiomalli kuuluu yleistettyjen lineaaristen mallien perheeseen.

Seuraavassa on esimerkki lineaarisesta regressioanalyysista, jossa estimoidaan yhtälön

y=\alpha+\beta x,

tuntemattomat parametrit \alpha, \beta kun on havaittu selitettävän muuttujan y_i ja selittävän muuttujan x_i havainnot i=1,..,n. Kirjoitetaan:


y_i=\alpha + \beta x_i+\varepsilon_i,

missä \varepsilon_i on mallin jäännösvirhe eli residuaali. Kun mallin parametrit estimoidaan pienimmän neliösumman menetelmällä, valitaan estimaatit siten, että residuaalien neliöiden summa minimoidaan.

Oletukset[muokkaa | muokkaa wikitekstiä]

Lineaarisessa regressioanalyysissa tehdään yleensä seuraavat oletukset.

  • Virhetermit \varepsilon_i ovat jakautuneet siten, että suhteessa Xi:hin niiden odotusarvo on 0. Jos kahdesta satunnaismuuttujasta toisen ehdollinen odotusarvo suhteessa toiseen on 0, eli oletus pätee, on niiden välinen kovarianssi nolla eli ne ovat toisistaan riippumattomat. Oletuksen tarkoituksena on siis, että virhetermin sisältämät muut Y:hyn vaikuttavat tekijät eivät ole riippuvaisia X:stä. Satunnaiskokeessa kohteet sijoitetaan satunnaisesti koe- tai kontrolliryhmään, jolloin voidaan olla varmoja että X vaikuttaa riippumatta muista tekijöistä \varepsilon - seurauksena virhetermin odotusarvo suhteessa X:ään on 0. Muuten kuin hallitulla kokeella kerätyssä havaintoaineistossa Xi:n ja \varepsilon_i:n välinen riippumattomuus täytyy varmistaa muulla tavoin. Jos Y:hyn vaikuttaa seikka, joka korreloi X:n kanssa ja jota ei ole otettu mukaan regressioanalyysiin omana muuttujanaan, syyllistytään puuttuvan muuttujan harhaan. Tällöin estimaattori on harhainen ja tarkentumaton. Ongelma on korjattavissa sisällyttämällä kyseinen muuttuja regressioanalyysin yhtälöön.[1]
  • Xi ja Yi ovat riippumatomia ja identtisesti jakautuneita (eli iid.) eri i:n arvoilla eli havainnosta toiseen. Tämä tarkoittaa, että yhden havainnon saamat arvot eivät riipu toisista havainnoista ja että havainnot ovat edustava otos havaintoaineistosta, eli niillä on sama jakautuma. Satunnaisotanta onnistuessaan takaa tavallisesti riippumattoman ja identtisen jakauman. Kaikki koejärjestelyt eivät toetuta iid-oletusta: jos esimerkiksi tehdään sarja kasvien istutuskokeita eri kastelumäärillä, jossa i:s ruukku kastellaan aina samalla tavalla, Xi ei ole riippumaton. Se olisi riippumaton jos kokeesta toiseen eri ruukkujen saamat kastelumäärät päätettäisiin satunnaisesti. Aikasarjoissa on tavallista, että muuttujat eivät ole riippumattomia, esim. korkotaso kuukaudesta toiseen vaihtelee, mutta ei täysin satunnaisesti, vaan kuukausina joita edellä on ollut matalakorkoinen kuukausi on todennäköisesti myös matala korko.[1]
  • Suuria poikkeavia havaintoja ei ole. Merkittävät poikkeamat vääristävät PNS-menetelmää, koska neliösummat kasvavat poikkeaman koon neliönä, mikä kasvattaa eksponentiaalisesti poikkeamien merkitystä suhteessa niideen suuruuteen. Jos aineistossa esiintyy suuria poikkeamia, on syytä tarkastaa onko kyseessä selvästi mittaus- tai merkintävirhe. Monet regressioanalyysillä analysoitavat suureet sisältävät luonnollisen rajoitteen, esimerkiksi matkustajamäärät eivät voi alittaa 0:aa eivätkä ylittää kulkuneuvon fyysistä kapasiteettia.[1]
  • Useamman muuttujan regressioanalyysissä oletetaan, ja itseasiassa analyysin onnistuminen edellyttää, että muuttujien välillä ei ole täydellistä multikollineaarisuutta eli että yksi muuttujista olisi täydellisessä lineaarisessa riippuvuussuhteessa toiseen. Yleensä täydellinen multikollineaarisuus on merkki siitä että tavalla tai toisella jokin muuttuja on tullut edustetuksi kaksi kertaa regressioyhtälössä, esimerkiksi eri mittayksiköissä.[1]

Edellä mainittuja pidetään tavallisesti harhattoman lineaarisen regressioanalyysin vähimmäisehtoina. Kun lisäksi on voimassa, että virhetermit ovat homoskedastisia eli niiden varianssi X:n muuttuessa on vakio, pätee Gauss-Markov -teoreema. Sen mukaan pienimmän neliösumman estimaattori on oletuksien vallitessa tehokkain harhaton lineaarinen estimaattori eli BLUE (engl. best linear unbiased estimator). Toisin sanoen PNS ei ole vain eräs harhaton estimaattori, vaan paras. Vaihtoehtoisia menetelmiä ei tarvitse harkita sikäli kun Gauss-Markov-ehdot täyttyvät.[2]

Jos lisäksi virhetermit ovat normaalijakautuneita, voidaan estimaattorilla suorittaa tilastollista hypoteesin testausta esimerkiksi Studentin t-testillä. Normaaliusoletus voidaan usein perustella keskeisellä raja-arvolauseella kun virhetermiin vaikuttavat seikat ovat monilukuisia.[2]

Parametrien estimointi[muokkaa | muokkaa wikitekstiä]

Kirjoittamalla malli y_i = \alpha + \beta x_i + \varepsilon_i lineaarisena yhtälösysteeminä, voidaan malli esittää matriisimuodossa, jolloin X aineistomatriisi, Y vastevektori ja \delta parametrivektori. Matriisien i. rivi sisältää aineiston rivit x_i ja y_i Tällöin malli voidaan kirjoittaa:

 \begin{bmatrix} y_1\\ y_2\\ \vdots\\ y_n \end{bmatrix}= \begin{bmatrix} 1 & x_1\\ 1 & x_2\\ \vdots & \vdots\\ 1 & x_n \end{bmatrix} \begin{bmatrix} \alpha \\ \beta \end{bmatrix} + \begin{bmatrix} \varepsilon_1\\ \varepsilon_2\\ \vdots\\ \varepsilon_n \end{bmatrix} ,

joka on matriiseina:

Y = X \delta + \varepsilon \,

Nyt yhtälö voidaan kertoa vasemmalta transponenttimatriisilla X^\operatorname{T} \,:

X^\operatorname{T}Y = X^\operatorname{T}X \delta + X^\operatorname{T}\varepsilon \,

Olettaen, että matriisi (X^\operatorname{T}X)^{-1} on olemassa, voidaan yhtälö kertoa sillä vasemmalta puolelta:

(X^\operatorname{T}X)^{-1}X^\operatorname{T}Y = (X^\operatorname{T}X)^{-1}X^\operatorname{T}X \delta + (X^\operatorname{T}X)^{-1}X^\operatorname{T}\varepsilon = \delta + (X^\operatorname{T}X)^{-1}X^\operatorname{T}\varepsilon\,

Ratkaisemalla yhtälö deltan suhteen saadaan:

\delta = (X^\operatorname{T}X)^{-1}X^\operatorname{T}Y - (X^\operatorname{T}X)^{-1}X^\operatorname{T}\varepsilon\,

Estimaatti deltalle saadaan merkitsemällä residuaalitermi nollaksi:

\widehat{\delta}=(X^\operatorname{T}X)^{-1}X^\operatorname{T}Y\,

Aiheesta muualla[muokkaa | muokkaa wikitekstiä]

Lähteet[muokkaa | muokkaa wikitekstiä]

  1. a b c d Stock, J. & Watson, M.: Introduction to Econometrics. Pearson, Boston, 2007.
  2. a b Wooldridge, J.: Introductory Econometrics. South-Western, Scarborough, Kanada, 2009.