factori multicoliniaritate
Luați în considerare situația în care cerința nu este îndeplinită a doua condiție, și anume, rang inferior. Încălcarea acestei condiții este echivalentă cu faptul că printre coloanele matricei de observație are cel puțin un astfel încât este o combinație liniară a celorlalte. Consecința acestui fapt este imposibilitatea aplicării OLS pentru a obține estimări ale coeficienților de regresie.
Distinge între absolut și multicoliniaritate parțiale (reale). Prin multicolinearit absolută se referă la situația în care determinantul matricei sistemului de ecuații normale este zero, și, de fapt, nu există posibilitatea de a obține o soluție unică a acestui sistem. multicoliniaritate parțial implică faptul că determinantul matricei nu este exact egală cu 0, dar putin din ea este diferit. Matricea inversă în acest caz, există, totuși, elementele sale sunt în general denaturate procedura de calcul, deoarece ordinea micimea determinantului este egal cu ordinea de erori de calcul se acumulează.
Prezența multicolinearit poate fi înțeleasă de anumite caracteristici exterioare ale modelului construit. În special, acest lucru se aplică în cazurile în care anumite estimări ale coeficienților de regresie sunt greșite din punct de vedere al mărcilor teoriei economice sau valori absolute sunt excesiv de mari. În plus, cele mai multe estimări, sau chiar toate, nu sunt semnificative în modelul multivariat, în timp ce construcția a perechii de modele sugerează altfel - toți factorii sunt semnificative. Cu alte cuvinte, manifestarea efectelor multicoliniaritate face chiar un model adecvat nepotrivit pentru utilizarea practică.
Există mai multe abordări care elimină efectele multicolinearit. Să luăm în considerare pe scurt fiecare dintre ele.
Prima abordare se bazează pe excluderea din modelul unuia dintre factorii care se suprapun. De obicei, acest lucru se face după cum urmează. matrice calculată coeficienților de corelație perechilor sunt determinate și sunt strâns corelate între ele factori asupra elementelor sale. Din fiecare pereche de astfel de factori se îndepărtează unul a cărui corelație etanșeității cu variabila dependentă de mai jos. Această abordare este eficientă în sensul că permite, de regulă, eliminate efectele multicoliniaritate. Cu toate acestea, cercetatorii nu se poate aranja întotdeauna o astfel de abordare, ca o excepție de la modelul, unii factori nu pot atinge acest obiectiv - studiul indicelui relație cu acest set de factori.
A doua abordare este greu de menționat în literatura de specialitate. Acesta utilizează conceptul de pseudoinverse. În unele situații, când determinant este egal cu zero, utilizarea pseudo-procedură furnizează estimări ale coeficienților de regresie, care, în ciuda degenerării matricei de ecuații normale, singura soluție a acestui sistem. Unicitatea soluțiilor furnizate de faptul că procedura pseudo conduce la o soluție cu normă minimă, adică, printre toate soluțiile unui sistem degenerat de ecuații normale este ales cel care are cea mai mică sumă de pătrate. Aceasta este o abordare interesantă, dar este prost studiată.
A treia abordare utilizează componentele principale. Abilitatea de a utiliza componentul principal în scopul eliminării efectelor multicolinearit este explicată după cum urmează. Deoarece multicoliniaritate asociat cu un grad ridicat de corelare între variabile factor, există o dorință naturală de a înlocui factorii ortogonale originale sunt variabile care sunt combinații liniare ale originalului. Ca și în coeficienții acestor combinații liniare sunt componentele vectorilor proprii ale matricei de covarianță a variabilelor originale. Vectorii proprii sunt ortogonale, și, prin urmare, construirea modelului de regresie este simplificată.
Atunci când se utilizează componentele principale sunt două cazuri posibile. Prima se referă la multicoliniaritate absolută, iar al doilea - cu parțială. În cazul în care absolut multicoliniaritate, cel puțin o valoare proprie egală cu zero, și în mod automat numărul de componente principale este mai mic decât numărul de variabile originale. Regresia se bazează pe componentele principale, și apoi transformarea inversă înapoi la variabilele originale.
În cazul unui număr parțial component principal multicolinearit coincide cu numărul de variabile originale. În cazul în care, după construirea regresiei pe toate componentele principale ale transformării inverse înapoi la observațiile inițiale, toate efectele adverse ale multicoliniaritate salvate. Prin urmare, sensul acestei metode este faptul că regresie nu se bazează pe toate componentele principale, dar numai unele dintre ele, care caracterizează cea mai mare parte a variației datelor inițiale. Apoi a reveni la variabilele originale ar putea duce la un model de liber de distorsiunile generate de multicoliniaritate.
A patra abordare pune în aplicare ideea de a obține estimări părtinitoare au comparat cu OLS estimează la eroarea medie-pătrat. Cel mai adesea utilizate pentru prepararea unor astfel de estimări procedura de coamă-evaluare sau o procedură pentru construirea așa-numita regresie creasta. În această procedură, bazată pe ideea de a găsi rating de familie parametru folosind formula OLS corectat
unde (de obicei;).
Adăugarea elementelor diagonale ale matricei de ecuații normale ale unității matricei înmulțită cu parametrul. Se face obținut prin această formulă de evaluare a coeficienților de regresie, pe de o parte, de compensare, iar celălalt - eroarea standard a acestor evaluări sunt reduse, deoarece „rele“, cauzate de matrice se transformă în „bună“ cauzat. Realizarea acestei metode este ușor realizabilă, iar estimările obținute cu alegerea corespunzătoare a parametrului au fiabilitatea dorită.