Törölt nick Creative Commons License 2020.02.24 0 0 11088

Legyen adott egy m-dimenziós lineáris vektortér.

Vegyünk fel ebben a térben n független bázisvektort, ahol n<m. (Esetleg n<<m.)

A bázisvektorok se nem normáltak, se nem ortogonálisak.

És nem akarjuk lefedni a teljes teret. (Később majd elárulom, hogy ebből mi lesz. Mérési eredményekről van szó.)

 

A bázisvektorok jelölése legyen x.

Az i-edik bázisvektor

- programozó jelöléssel: x[i]

- kovariáns jelöléssel pedig: xi

 

Az i-edik bázisvektor j-edik komponense:

x[i,j] illetve jxi

 

A felső indexet előre írom, hogy a hatványkitevőtől egyértelműen meg lehessen különböztetni. (Saját találmány.)

A továbbiakban az i index mindig a bázisvektort jelöli, a j index pedig a vektor komponensét.

(Később még szükség lesz átmenetileg egy k indexre is, de gyorsan megszabadulok majd tőle.)

 

A bázisvektorokból komponálok egy tetszőleges vektort: y

Az y vektor komponensei: y[j] illetve jy

 

Elvileg:

jy = ia jxi

másként: y[j] = ∑ a[i] * x[i,j]

 

Csakhogy a mérési eredmények soha nem teljesen pontosak. Ez vonatkozik a kompozit vektorokra és a bázisvektorokra is. Továbbá az ismert bázisvektorokon kívül lehetnek ismeretlen bázisvektorok, de ezekre nem vagyunk kíváncsiak.

Tehát:

 

y[j] = ∑ a[i] * x[i,j] + z[j]

illetve

jy = ia jxi + jz

 

Vagyis vannak y mérési eredményeink és x etalonjaink. Keressük az arányossági tényezőket.

Regressziót fogok alkalmazni.

 

j ( jy - ∑i ia jxi )2 --> minimum

Vagyis ezt parciálisan differenciálni kell ai szerint, majd azt nullává tenni.

 

A teljes levezetést később majd leírom, ha valaki kíváncsi rá...

 

ia [ ∑j (jxi)2 + ∑jk jxi jxk ] = ∑j jy jxi

Figyelem: itt ia kiemelésénél felhasználtam azt, hogy ia és ka felcserélhető.

 

N = ∑j jy jxi

D = ∑j [ (jxi)2 + ∑k (jxi jxk) ]

 

ia = N/D

 

Hát ez lenne (szerintem) a többdimenziós regresszió formulája.