Intelligentsuse psühholoogia. René Mõttus
Читать онлайн книгу.väljendada korrelatsioonikordajaga maksimaalväärtusena. Seega ei kehti inimgrupi tasemel avalduv seos kindlasti kõigi inimeste puhul. Seda nägime juba eespool. Sellest tuleneb paratamatult ka vastupidine järeldus: kui üksiku inimese puhul mingi seos ei kehti, ei tähenda see kaugeltki, et selline seos ei võiks kehtida üldiselt. Niisugune asjaolu väärib eraldi rõhutamist, sest mõnikord naeruvääristatakse teadlaste avastatud seoseid just nii, et viidatakse üksikjuhtumitele, mille puhul see seos ei kehti. Tegelikult ei peegeldu seosetrend vältimatult igas üksikjuhtumis.
Korrelatsioon ja põhjuslikkus
Nähes kahe nähtuse koosesinemist, on lihtne hakata mõtlema, et nende vahel on mingi põhjuslik seos (cum hoc ergo propter hoc). Tihti võib tunduda ilmsena ka see, kumb nähtustest on põhjus ja kumb tagajärg. Tegelikult aga ei ole nähtuste koosesinemist ja – varieerumist kirjeldava korrelatsioonikordaja põhjal kuidagi võimalik teha põhjuslikke järeldusi. Näiteks võime märgata, et nutikamad inimesed on kõrgema haridustasemega ja selle põhjal teha järelduse, et koolis käimine muudab inimesed targemaks. Esmapilgul näib see tõesti väga mõistlik oletus. Lähemal vaatlemisel võib aga selguda, et välistada ei saa ka vastupidist võimalust. Võib-olla suudavad loomu poolest nutikamad inimesed lihtsalt koolis kauem vastu pidada. Arvestada tuleb veel kolmandagi võimaliku seletusega: ka väga tugeva korrelatsiooni olemasolu ei välista võimalust, et nähtuste vahel ei ole tegelikult mingit põhjuslikku seost. Näiteks võime olla üsna kindlad, et inimeste saapanumber on tugevas korrelatsioonis nende küünarvarre pikkusega. Niisugune seos ei tähenda aga kindlasti, et suurem saapanumber kasvatab inimestele pikemad käed või vastupidi, pikkade küünarvartega inimestel tuleb endale tahes-tahtmata lõpuks suured saapad muretseda. Tegelikult oleme lihtsalt jätnud tähelepanuta ühe teise muutuja, inimese keha üldise pikkuse, mis mõjutab nii küünarvarte kui jalalabade pikkust. Niisiis, kahe tunnuse korrelatsiooni võib põhjustada ka mingi kolmas, n-ö peidus olev muutuja. On täiesti arusaadav ja andestatav, et me oma igapäevastes hinnangutes kaldume tegema sedalaadi vigu, omistades nähtavatele seostele mingi põhjusliku tähenduse. Paraku kiputakse sama viga tegema mõnikord ka teaduslikes seletustes.
KORRELATSIOON GEOMEETRILISELT KUJUTATUNA
Korrelatsioonil on väga ilus geomeetriline – maamõõtjalik – interpretatsioon, mis aitab korrelatsiooni olemust selgemalt ette kujutada ja mis peamine, vältida vigu selle mõistmisel. Korrelatsiooni tõlgendamiseks on kasulik mõelda uuritavatest tunnustest kui vektoritest.
Kõik lugejad peaksid mäletama kooliõpiku ühte kõige lühemat definitsiooni, et vektor on suunatud sirglõik. Seega on vektor lõik, millel on suund ja pikkus. Kui me aga vaatame korraga kahte vektorit, siis muutub oluliseks ka nendevaheline nurk. Just see nurk ongi korrelatsiooni mõttes huvitav. Joonisel 3 on kujutatud vektorid erinevate omavaheliste nurkade (φ) korral. Kui kaks vektorit näitavad ühte suunda (nendevaheline nurk on väike või olematu), siis on lihtne mõelda, et need osutavad millelegi sarnasele (A). Kui kaks vektorit näitavad vastupidisesse suunda, siis on ilmne, et need viitatavad vastandlikele nähtustele (B). Kui vektorid aga ristuvad (nende vahel on täisnurk), siis näitavad need täiesti erinevaid ja üksteisest sõltumatuid asju (C).
JOONIS 3. Korrelatsioonid kui vektorid.
Tunnuste vektoritena kujutamine ei paku aga mitte üksnes seose visualiseerimise võimalust, vaid ka reaalse võimaluse korrelatsioonikordaja arvutamiseks. Nimelt on kahe vektori vaheline nurk ümber arvutatav nende sisuks olevate tunnuste korrelatsiooniks. Lihtsustatult öeldes on korrelatsioonikordaja võrdne nurga koosinusega.
Vaatleme kahte vektorit – a = (0, 1, 2, 3, 4) ja b = (0, 1, 2, 3, 4). Just kahte analoogset vektorit on kujutatud joonisel 3 vasakpoolses lahtris, ehkki ilma numbriteta. Pole keeruline märgata, et need on identsed muutujad, seega on mõistlik eeldada, et nende korrelatsioon on maksimaalne ehk 1. Vektoritevahelise nurga koosinuse arvutamiseks jagatakse vektorite skalaarkorrutis vektorite pikkuste korrutisega. Numbritega lahti kirjutatult tähendab see: koosinus (φ) = (0×0 + 1×1 + 2×2 + 3×3 + 4×4) / (02 + 12 + 22 + 32 + 42)½ × (02 + 12 + 22 + 32 + 42)½ = 1. Koosinusele 1 vastab nullkraadine nurk ehk just see, mis on joonise 3 vasakpoolses lahtris – kaks ühesuunalist vektorit. Kui me muudame ühe vektoritest vastassuunaliseks (korrutame läbi väärtusega –1, vt joonise 3 keskmist lahtrit), siis sama valemit kasutades saame korrelatsiooniks ootuspäraselt koosinus (φ) = –1. Kui ajame aga ühe vektoritest juhuslikult sassi, näiteks a = (1, 4, 0, 3, 2), siis peaksime saama absoluutväärtuselt oluliselt väikesema korrelatsiooni. Tõepoolest, eelnevat valemit kasutades saame sassiaetud vektori a korral vektorite a ja b vahelise nurga koosinuseks ehk tunnustevaheliseks korrelatsiooniks koosinus (φ) = 0,1. See koosinuse väärtus vastab 84˚sele nurgale, mis on üsna lähedal täisnurgale.
Lihtsustatud oli eelmises lõigus kirjutatu seepärast, et jättis mainimata ühe olulise eelduse: et vektoritevahelise nurga koosinus oleks võrdne nende aluseks olevate tunnuste korrelatsiooniga, peavad kahe vektori keskmised ja standardhälbed olema võrdeliselt seotud (kas päris võrdsed või erinedes mingi numbri võrra, mis on sama nii keskmistel kui standardhälvetel). Eelnevalt oli juttu sellest, et korrelatsiooni väärtus ei muutu, kui tunnuseid lineaarselt teisendada (nt korrutada läbi mingi konstandiga või liita mingi konstant). See tähendab, et kui me näiteks algse vektori a igale punktile liidame väärtuse 5 [a = (5, 6, 7, 8, 9)], siis korrelatsioon vektoriga b = (0, 1, 2, 3, 4) sellest ei muutu. Küll aga muutub vektoritevahelise nurga koosinus: eeltoodud valemit kasutades näeme, et koosinus (φ) = 0,91. See tähendab, et vektoritevaheline nurk on tundlik vektorite lineaarsete teisenduste suhtes. Seetõttu tuleks enne tunnustest moodustunud vektorite vahelise koosinuse arvutamist tunnused näiteks standardiseerida (viia kujule, kus nende keskmised ja standardhälbed on võrdsed). Muide, sisuliselt tehakse ju sedasama ka kovariatsioonist lähtuval viisil korrelatsioonikordajat arvutades (kovariatsioonikordajat hajuvuste korrutisega jagades). Mõnikord küll eelistatakse arvutada korrelatsioone standardiseerimata andmetelt, aga sellisel juhul pole tegu lineaarseid seoseid otsiva seosemudeliga.
Korrelatsiooni vektoritevahelise nurgana kujutamine on õpetlik veel ühes mõttes. Nimelt võimaldab see käepärasel moel hinnata, kui suured peavad kolme tunnuse korral olema kahe tunnuse korrelatsioonid selleks, et oleks võimalik automaatselt pidada nullist suuremaks ka kolmandat korrelatsiooni. Teisisõnu, see võimaldab hinnata, kui suured võivad olla vektorite a ja b ning vektorite b ja c korrelatsioonid selleks, et vektorite a ja c vaheline korrelatsioon ei oleks tingimata nullist suurem (joonis 4).
Korrelatsiooni mittetransitiivsusel on praktiline tähendus. Kujutume näiteks ette olukorda, et meil on kaks intelligentsustesti, SuperIQ ja MegaIQ, mille tulemuste korrelatsioon on 0,86. Sellisele korrelatsioonile vastab vektoritevaheline nurk umbes 32˚. See on igati korralik ja ootuspärane kahe sõltumatu võimekustesti korrelatsioon. Paljud ütleksid lausa, et need testid annavad intelligentsust mõõtes peaaegu identsed tulemused. Intelligentsustestide tüüpiline võimekus ennustada inimese toimetulekut tööl või koolis on korrelatsiooni keeles umbes 0,50 ning teadlased näitavad, et ka SuperIQ tulemus korreleerub koolihinnete keskmisega r = 0,50. Sellele vastab vektoritevaheline nurk umbes 59˚. Kuna SuperIQ ja MegaIQ tulemused olid väga tugevas korrelatsioonis, siis tahaksime kohe järeldada, et küllap ka MegaIQ suudaks ennustada samade laste koolihindeid. Paraku aga pole see oletus vältimatult tõene, sest MegaIQ korrelatsioon võib olla isegi nullilähedaselt negatiivne (32 + 59 = 91˚ nurga koosinus on –0,02). Niisiis, ühe testiga leitud seoseid pole tihti võimalik teise mõõtevahendiga leitud seostele üle kanda.
JOONIS 4. Korrelatsioonid r = 0 ja r = 0,71
Et vektorite a ja c korrelatsioon oleks 0, peab nende vahel olema täisnurk. Nii see joonisel 4 ongi. Poolitame vektorite a ja c vahelise nurga vektoriga b. Nii vektorite a ja b kui vektorite b ja c vaheline nurk on nüüd 45˚. On tähelepanuväärne, et sellisele nurgale vastava koosinuse väärtus