Legyen adott egy m-dimenziós lineáris vektortér.
Vegyünk fel ebben a térben n független bázisvektort, ahol n<m. (Esetleg n<<m.)
A bázisvektorok se nem normáltak, se nem ortogonálisak.
És nem akarjuk lefedni a teljes teret. (Később majd elárulom, hogy ebből mi lesz. Mérési eredményekről van szó.)
A bázisvektorok jelölése legyen x.
Az i-edik bázisvektor
- programozó jelöléssel: x[i]
- kovariáns jelöléssel pedig: xi
Az i-edik bázisvektor j-edik komponense:
x[i,j] illetve jxi
A felső indexet előre írom, hogy a hatványkitevőtől egyértelműen meg lehessen különböztetni. (Saját találmány.)
A továbbiakban az i index mindig a bázisvektort jelöli, a j index pedig a vektor komponensét.
(Később még szükség lesz átmenetileg egy k indexre is, de gyorsan megszabadulok majd tőle.)
A bázisvektorokból komponálok egy tetszőleges vektort: y
Az y vektor komponensei: y[j] illetve jy
Elvileg:
jy = ia jxi
másként: y[j] = ∑ a[i] * x[i,j]
Csakhogy a mérési eredmények soha nem teljesen pontosak. Ez vonatkozik a kompozit vektorokra és a bázisvektorokra is. Továbbá az ismert bázisvektorokon kívül lehetnek ismeretlen bázisvektorok, de ezekre nem vagyunk kíváncsiak.
Tehát:
y[j] = ∑ a[i] * x[i,j] + z[j]
illetve
jy = ia jxi + jz
Vagyis vannak y mérési eredményeink és x etalonjaink. Keressük az arányossági tényezőket.
Regressziót fogok alkalmazni.
∑j ( jy - ∑i ia jxi )2 --> minimum
Vagyis ezt parciálisan differenciálni kell ai szerint, majd azt nullává tenni.
A teljes levezetést később majd leírom, ha valaki kíváncsi rá...
ia [ ∑j (jxi)2 + ∑j∑k jxi jxk ] = ∑j jy jxi
Figyelem: itt ia kiemelésénél felhasználtam azt, hogy ia és ka felcserélhető.
N = ∑j jy jxi
D = ∑j [ (jxi)2 + ∑k (jxi jxk) ]
ia = N/D
Hát ez lenne (szerintem) a többdimenziós regresszió formulája.