Tradicinis mažiausių kvadratų metodas. Tiesinė regresija

Tradicinis mažiausių kvadratų metodas. Tiesinė regresija

Mažiausiai kvadratų metodas (MNC) leidžia įvertinti skirtingas vertes naudojant matavimų rinkinio rezultatus, kuriuose yra atsitiktinių klaidų.

MNK charakteristika.

Pagrindinė šio metodo idėja yra tai, kad kaip problemos sprendimo tikslumo kriterijus, svarstoma klaidų kvadratų suma, kurią jie siekia sumažinti minimumą. Naudojant šį metodą, galima taikyti skaitmeninį ir analitinį požiūrį.

Visų pirma, kaip skaitmeninis įgyvendinimas, mažiausių kvadratų metodas reiškia didesnį nežinomų matavimų skaičių kiek įmanoma atsitiktinis kintamasis. Be to, kuo daugiau skaičiavimų, tuo tikslesnis bus sprendimas. Šiuo skaičiavimo (šaltinių duomenų) rinkiniu yra gaunamas kitas tariamų sprendimų rinkinys, iš kurio pasirinkta geriausia. Jei yra daugybė sprendimų parameterizuoti, tada mažiausių kvadratų metodas sumažinamas iki optimalios parametrų vertės paieškos.

Kaip analitinis požiūris į MNA įgyvendinimą dėl šaltinių duomenų (matavimų) ir apskaičiuoto sprendimų rinkinio, kai (funkcinis), kuris gali būti išreikštas formulė gauta kaip tam tikra hipotezė, kuriam reikia patvirtinimo. Tokiu atveju mažiausių kvadratų metodas yra sumažintas iki minimumo rasti minimalų į šaltinių duomenų klaidų kvadratų rinkinį.

Atkreipkite dėmesį, kad ne pačios klaidos, būtent klaidų kvadratai. Kodėl? Faktas yra tai, kad dažnai matavimų nukrypimai nuo tiksli vertė Yra ir teigiamos ir neigiamos. Nustatant vidutinį paprastą sumavimą, ji gali sukelti neteisingą išvadą apie vertinimo kokybę, nes abipusis teigiamų ir neigiamų verčių sunaikinimas sumažins matavimų rinkinio mėginių ėmimo galią. Ir dėl to vertinimo tikslumas.

Norint nutikti ir apibendrinti nukrypimų kvadratus. Be to, lyginant išmatuoto vertės matmenį ir galutinį vertinimą, nuo klaidų kvadratų sumos

Kai kurios MNK programos

MNC yra plačiai naudojamas įvairiose srityse. Pavyzdžiui, tikimybės ir matematinės statistikos teorijoje, metodas naudojamas šiam atsitiktinio kintamojo charakteristikai nustatyti kaip vidutinį kvadratinį nuokrypį, kuris lemia atsitiktinių dispersijos verčių diapazono plotį.

Mažiausiai kvadratinio metodo Naudojamas apskaičiuoti parametrus, regresijos lygtį.

Vienas iš būdų studijuoti stochastinius ryšius tarp žymenų yra regresijos analizė.
Regresijos analizė yra regresijos lygties sudarymas vidutinė vertė Atsitiktinis kintamasis (ženklo rezultatas), jei žinoma kito (ar kitų) kintamųjų vertė (veiksniai). Ji apima šiuos veiksmus:

  1. ryšio formos pasirinkimas (analitinės regresijos lygties tipas);
  2. lygties parametrų įvertinimas;
  3. analitinės regresijos lygties kokybės vertinimas.
Dažniausiai linijinė forma naudojama apibūdinti ženklų statistinį ryšį. ĮSPĖJIMAS Linijinis ryšys yra dėl aiškaus ekonominio jos parametrų aiškinimo, kurį riboja kintamieji kintamieji ir daugeliu atvejų, netiesinės bendravimo formos skaičiavimams transformuojasi (logaritming arba keičiant kintamuosius) į linijinę formą.
Linijinės poros obligacijos atveju regresijos lygtis imsis formą: y i \u003d a + b · x i + u i. Šios A ir B lygties parametrai yra apskaičiuoti pagal statistinius stebėjimus X ir Y. Tokio vertinimo rezultatas yra lygtis :, kur - A ir B parametrų skaičiavimai, - gauto bruožo (kintamos) vertė, gauta regresijos lygtyje (apskaičiuota vertė).

Dažniausiai apskaičiuoti parametrus mažiausias kvadratų (MNC) metodas.
Mažiausiai kvadratų metodas suteikia geriausius (turtingus, efektyvius ir atrakintus) regresijos lygties parametrų įvertinimus. Bet tik tada, kai atliekamos tam tikros sąlygos, palyginti su atsitiktiniu laikotarpiu (U) ir nepriklausomu kintamuoju (X) (žr. MNC foną).

Linijinės poros lygties parametrų įvertinimo pagal mažiausiai kvadratų metodą Jį sudaro: gauti tokius parametrų skaičiavimus, kuriuose faktinių verčių nukrypimų suma - Y I Apskaičiuojamos vertės yra minimalios.
Formaliai. \\ T kriterijus MNK. Galite rašyti taip: .

Mažiausių kvadratų metodų klasifikavimas

  1. Mažiausiai kvadratinių metodo.
  2. Maksimalus teisingas metodas (už normalų klasikinį linijinį regresijos modelį, regresijos likučių normalumas yra atidėtas).
  3. Generalizuotas mažesnių OMNA kvadratų metodas naudojamas klaidų autokoreliacijos atveju ir heterosdasticijos atveju.
  4. Pakabinamų mažiausių kvadratų metodas (ypatingas OMNA atvejis su heter-visžia likučiais).

Mes iliustruojame esmę klasikinis mažiausias kvadratinis metodas grafiškai. Norėdami tai padaryti, mes statome taško tvarkaraštį pagal pastabas (x I, y i, i \u003d 1; n) stačiakampio koordinačių sistemoje (tokia taško diagrama vadinama koreliacijos lauku). Mes stengsimės pasirinkti tiesią liniją, kuri yra arčiausiai koreliacijos lauko taškų. Remiantis mažiausiais kvadratų metodu, linija yra pasirinkta taip, kad vertikalių atstumų tarp koreliacijos lauko taškų suma būtų minimali.

Šios užduoties matematinis įrašas: .
Y I ir x I \u003d 1 ... N yra žinomi mums, tai yra stebėjimo duomenys. Funkcijoje jie yra konstantos. Šios funkcijos kintamieji yra pageidaujami parametrų skaičiavimai. Norėdami rasti minimalų 2 kintamų funkcijų, būtina apskaičiuoti privačias šios funkcijos išvestines finansines priemones kiekvienam parametrams ir prilyginti jiems nulį, t.y. .
Dėl to gauname 2 įprastą sistemą linijinės lygtys. \\ T:
Sprendimas. \\ T Ši sistema, Raskite norimą parametrų įvertinimus:

Regresijos lygties parametrų skaičiavimo teisingumas gali būti išbandytas lyginant sumas (galbūt kai kurie neatitikimai dėl apvalinimo skaičiavimų).
Norėdami apskaičiuoti parametrų įvertinimus, galite pastatyti 1 lentelę.
Regresijos koeficientas ženklas rodo ryšio kryptį (jei b\u003e 0, linija yra tiesioginė, jei b<0, то связь обратная). Величина b показывает на сколько единиц изменится в среднем признак-результат -y при изменении признака-фактора - х на 1 единицу своего измерения.
Formaliai parametro a yra vidutinė y vertė su x lygi nuliui. Jei parašas neturi ir negali turėti nulinės vertės, tada pirmiau pateiktas parametro interpretavimas ir nėra prasmės.

Komunikacijos tarp žymenų sandarumo įvertinimas Jis atliekamas naudojant linijinį poros koreliacijos koeficientą - R X, Y. Jis gali būti apskaičiuojamas pagal formulę: . Be to, linijinės poravimo koreliacijos koeficientas gali būti nustatytas per regresijos koeficientą B: .
Leistinų poros koreliacijos linijinio koeficiento verčių plotas nuo -1 iki +1. Koreliacijos koeficiento ženklas rodo komunikacijos kryptį. Jei r x, y\u003e 0, tada ryšys yra tiesus; Jei r x, y<0, то связь обратная.
Jei šis koeficientas yra artimas vienam, ryšys tarp funkcijų gali būti aiškinama kaip gana artimi linijiniai. Jei jo modulis yra lygus vienamui ê r x, y ê \u003d 1, ryšys tarp ženklų yra funkcinis linijinis. Jei ženklai x ir y yra tiesiškai nepriklausomi, tada R X, Y yra arti 0.
Norėdami apskaičiuoti R X, Y taip pat galite naudoti 1 lentelę.

Siekiant įvertinti gautos regresijos lygtį, apskaičiuojamas teorinis nustatymo koeficientas - R2 YX:

,
kur D 2 yra y; paaiškinama regresijos lygtimi;
e 2 - likutinė (nepaaiškinama regresijos lygtis) dispersija y;
s 2 Y yra bendras (pilnas) dispersija Y.
Nustatymo koeficientas apibūdina efektyvaus ženklo Y variacijos (dispersijos) dalį, paaiškintą regresija (ir, atitinkamai, X faktorius), bendrame skirtume (dispersija) y. Nustatymo koeficientas R2 YX trunka reikšmes nuo 0 iki 1. Todėl 1-R2 YX vertė apibūdina dispersijos dalį, kurią sukelia kitų neįskaitomų veiksnių įtaka modelyje ir specifikacijos klaidų.
Su suporuotu linijiniu regresija R2 YX \u003d R2 YX.

Pavyzdys.

Eksperimentiniai duomenys apie kintamųjų verčių H. ir. \\ T W. LED į lentelę.

Dėl jų suderinimo buvo gauta funkcija

Naudojant. \\ T mažiausiai kvadratinio metodo, apytiksliai ši informacija linijinė priklausomybė y \u003d ax + b (Rasti parametrus bet ir. \\ T b.). Sužinokite, kuri iš dviejų linijų yra geresnė (mažiausio kvadratų metodo prasme) suderina eksperimentinius duomenis. Padaryti piešinį.

Mažiausio kvadratų metodo esmė (MNC).

Užduotis yra rasti koeficientus linijinė priklausomybė, kuriame dviejų kintamųjų funkcija bet ir. \\ T b. Užima mažiausią vertę. Tai yra su duomenimis bet ir. \\ T b. Eksperimentinių duomenų nukrypimų iš tiesioginės linijos nukrypimų suma bus mažiausia. Tai yra visa mažiausio kvadratų metodo esmė.

Taigi, pavyzdys sprendimas ateina iki rasti ekstremum funkcija dviejų kintamųjų.

Rodo koeficientų paieškos formulę.

Rengiama ir išspręsta dviejų lygčių su dviem nežinoma sistema. Mes randame privačių darinių kintamąjį bet ir. \\ T b., prilygina šias išvestines finansines priemones iki nulio.

Išspręskite gautą lygčių sistemą bet kuriuo būdu (pvz., dėl pakaitinio metodo arba) ir mes gauname formules ieškant koeficientų, naudojant mažiausio kvadratų metodą (MNC).

Su duomenimis Bet ir. \\ T B. funkcija Užima mažiausią vertę. Pateikiamas šio fakto įrodymas.

Tai yra visas metodas mažiausiai kvadratų. Parametro paieškos formulė a. Sudėtyje yra sumų, ir parametras n. - eksperimentinių duomenų skaičius. Šių sumų vertės rekomenduojama apskaičiuoti atskirai. Koeficientas b. Įsikūręs po skaičiavimo a..

Atėjo laikas prisiminti apie šaltinio pavyzdį.

Sprendimas.

Mūsų pavyzdyje N \u003d 5.. Užpildykite lentelę apskaičiuojant sumas, kurios yra įtrauktos į norimų koeficientų formulę.

Vertės ketvirtoje lentelės eilutėje gaunami dauginant antrosios eilutės vertes iki 3 eilutės verčių kiekvienam skaičiui I..

Vertės penktoje lentelės eilutėje gaunami kiekvienam skaičiui 2-osios eilutės reikšmės. I..

Paskutinės lentelės stulpelio vertės yra vertybių sumas.

Mes naudojame mažiausio kvadratų formules, kaip rasti koeficientus bet ir. \\ T b.. Mes pakeisdami atitinkamas vertes iš paskutinio lentelės stulpelio:

Taigi, y \u003d 0,165x + 2.184 - norima apytikslė tiesia linija.

Lieka išsiaiškinti, kuri linijų y \u003d 0,165x + 2.184 arba. \\ T Tai geriau suderinti pradinius duomenis, tai yra, tai apskaičiuojama mažiausių kvadratų metodas.

Mažiausių kvadratų metodo klaidos vertinimas.

Tam reikia apskaičiuoti šaltinių duomenų nukrypimų sumas iš šių linijų. ir. \\ T Mažesnė vertė atitinka liniją, kuri yra geresnė mažesnio kvadratinio metodo prasme, suderina šaltinių duomenis.

Nuo tada tiesiai y \u003d 0,165x + 2.184 Geriau atneša šaltinių duomenis.

Mažiausių kvadratų metodo grafinis iliustracija (MNC).

Ant diagramų viskas yra visiškai matoma. Raudona linija yra rasti tiesiai y \u003d 0,165x + 2.184, mėlyna linija yra Rožiniai taškai yra šaltinių duomenys.

Kas yra būtina visiems šiems derinimams?

Aš asmeniškai naudoju išspręsti išlyginimo duomenų, interpoliavimo ir ekstrapoliavimo problemų problemas (pirminiame pavyzdyje galėtų paprašyti rasti stebimą vertę y. dėl x \u003d 3. arba. \\ t x \u003d 6. Pagal MND metodą). Bet leiskite mums daugiau kalbėti apie tai vėliau kitoje svetainės dalyje.

Įrodymai.

Taip, kaip nustatyta bet ir. \\ T b. Funkcija ėmėsi mažiausios vertės, būtina, kad šiuo metu antrosios eilės diferencialo kvadratinės formos matrica Jis buvo teigiamai apibrėžtas. Parodyk.

Antrosios eilės skirtumas yra:

T.y

Todėl yra kvadratinė formos matrica

ir elementų vertės nepriklauso nuo Bet ir. \\ T B..

Mes parodome, kad matrica yra teigiamai apibrėžta. Norėdami tai padaryti, būtina, kad kampiniai nepilnamečiai būtų teigiami.

Kampinis nepilnametis iš pirmos eilės . Nelygybė yra griežta, nes taškai yra nesuderinami. Ateityje mes turėsime.

Antrosios eilės kampo nepilnametis

Mes tai įrodome matematinio indukcijos metodas.

Produkcija: Rasti vertybes Bet ir. \\ T B. atitinka mažiausią funkcijos vertę Todėl yra pageidaujami parametrai mažiausių kvadratų metodo.

Po derinimo gauname šios formos funkciją: G (x) \u003d x + 1 3 + 1.

Mes galime suderinti šiuos duomenis naudodami linijinę priklausomybę Y \u003d a x + b, apskaičiuoti atitinkamus parametrus. Norėdami tai padaryti, turėsime taikyti vadinamąjį mažiausiai kvadratinį metodą. Taip pat reikės padaryti brėžinį, kad patikrintumėte, kuri linija bus geriau suderinti eksperimentinius duomenis.

Kas yra MNC (mažiausio kvadratų metodas)

Svarbiausia, kad mes turime tai padaryti, yra rasti tokius linijinės priklausomybės koeficientus, kuriuose dviejų kintamųjų funkcijos F (A, B) \u003d σ i \u003d 1 n (Yi - (Axi + B)) 2 bus Būkite mažiausi. Kitaip tariant, tam tikromis A ir B vertybėmis, pateiktų duomenų nuokrypių kvadratų sumą iš gautos tiesioginės reikšmės turės minimalią vertę. Tai yra mažesnio kvadratinio metodo reikšmė. Viskas, ką turime padaryti, kad išspręstume pavyzdį yra rasti dviejų kintamųjų ekstremens funkciją.

Kaip išvesti formules apskaičiuojant koeficientus

Norint išvesti koeficientų skaičiavimo formulę, būtina sudaryti ir išspręsti lygčių sistemą su dviem kintamaisiais. Norėdami tai padaryti, mes apskaičiuojame privačius išraiškų darinius F (A, B) \u003d σ I \u003d 1 N (Y I - (a x I + b)) 2 A ir B ir prilyginti jiems 0.

Δ F (A, B) Δ A \u003d 0 Δ F (A, B) Δ B \u003d 0 ⇔ - 2 σ I \u003d 1 N (Yi - (AXI + B)) XI \u003d 0 - 2 σ I \u003d 1 N ( Yi - (Axi + b)) \u003d 0 ⇔ a σ i \u003d 1 nxi 2 + b σ i \u003d 1 nxi \u003d σ i \u003d 1 nxiyia σ i \u003d 1 nxi + σ i \u003d 1 nb \u003d σ i \u003d 1 NYI ⇔ a Σ i \u003d 1 nxi 2 + b σ i \u003d 1 nxi \u003d σ i \u003d 1 nxiyia σ i \u003d 1 nxi + nb \u003d σ i \u003d 1 nyi

Norėdami išspręsti lygčių sistemą, galite naudoti bet kokius metodus, pavyzdžiui, pakaitinį ar kraverio metodą. Kaip rezultatas, mes turime gauti formules, su kuria yra apskaičiuojami koeficientai pagal mažiausių kvadratų metodą.

n σ i \u003d 1 n x i y i - σ i \u003d 1 n x i σ i \u003d 1 n y i n σ i \u003d 1 n - σ i \u003d 1 n x i 2 b \u003d σ i \u003d 1 n y i - a σ i \u003d 1 n x i n n

Apskaičiuojame kintamos vertes, kuriose funkcija
F (A, B) \u003d σ I \u003d 1 N (Y I - (a x I + b)) 2 bus minimali vertė. Trečiojoje pastraipoje mes įrodome, kodėl būtent tas pats.

Tai yra mažesnio kvadratinio metodo naudojimas praktikoje. Jos formulė, kuri naudojama ieškant parametro a, apima σ i \u003d 1 n x i, σ i \u003d 1 n i, σ i \u003d 1 n x i i i, σ i \u003d 1 n x i 2 ir parametras
N - nurodoma eksperimentinių duomenų skaičius. Mes patarsime apskaičiuoti kiekvieną sumą atskirai. Koeficiento B vertė apskaičiuojama iškart po a.

Vėl pasukite į pradinį pavyzdį.

1 pavyzdys.

Čia mes yra penki. Kad būtų lengviau apskaičiuoti būtinas sumas, įtrauktas į koeficientų formules, užpildykite lentelę.

I \u003d 1. I \u003d 2. I \u003d 3. I \u003d 4. I \u003d 5. Σ i \u003d 1 5
X I. 0 1 2 4 5 12
Y I. 2 , 1 2 , 4 2 , 6 2 , 8 3 12 , 9
x i y i 0 2 , 4 5 , 2 11 , 2 15 33 , 8
X i 2. 0 1 4 16 25 46

Sprendimas Šis sprendimas

Ketvirtoji eilutė apima duomenis, gautus dauginant vertes nuo antrosios eilutės iki trečiųjų verčių kiekvienam individui i. Penktoje eilutėje pateikiami duomenys iš antrojo, pakeltų iki kvadrato. Paskutinis stulpelis apibendrina atskirų linijų vertes.

Mes naudojame mažiausiai kvadratų metodą apskaičiuojant reikalingus koeficientus ir b. Norėdami tai padaryti, mes pakeisime norimas reikšmes iš paskutinio stulpelio ir apskaičiuojame sumą:

n σ i \u003d 1 nxiyi - σ i \u003d 1 nxi σ i \u003d 1 nyin σ i \u003d 1 n - σ i \u003d 1 nxi 2 b \u003d σ i \u003d 1 NYI - a σ i \u003d 1 nxin ⇒ a \u003d 5 · 33 8 - 12 · 12, 9 5 · 46 - 12 2 B \u003d 12, 9 - A · 12 5 ⇒ a ≈ 0, 165 b ≈ 2, 184

Mums reikėjo, kad norimas apytikslė tiesiai atrodys kaip Y \u003d 0, 165 x + 2, 184. Dabar turime nustatyti, kuri linija bus geriau suderinti duomenis - g (x) \u003d x + 1 3 + 1 arba 0, 165 x + 2, 184. Mes įvertinsime mažiausio kvadratų metodą.

Norėdami apskaičiuoti klaidą, turime rasti duomenų nuokrypių kvadratų nuo tiesioginio σ 1 \u003d σ i \u003d 1 N (Yi - (AXI + BI)) 2 ir σ 2 \u003d σ i \u003d 1 n (yi - g (xi)) 2, minimali vertė atitiks tinkamesnę liniją.

σ 1 \u003d σ i \u003d 1 n (yi - (Axi + BI)) 2 \u003d \u003d σ i \u003d 1 5 (Yi - (0, 165 xi + 2, 184)) 2 ≈ 0, 019 σ 2 \u003d σ i \u003d 1 N (Yi - G (xi)) 2 \u003d \u003d σ i \u003d 1 5 (Yi - (xi + 1 3 + 1)) 2 ≈ 0, 096

Atsakymas: Nuo σ 1< σ 2 , то прямой, наилучшим образом аппроксимирующей исходные данные, будет
Y \u003d 0, 165 x + 2, 184.

Mažiausiai kvadratų metodas yra aiškiai parodyta grafikos iliustracijoje. Naudojant raudoną liniją, tiesiai g (x) \u003d x + 1 3 + 1, mėlyna - Y \u003d 0, 165 x + 2, 184 yra pažymėta. Pradinius duomenis nurodo rožiniai taškai.

Paaiškėkime, kas tiksliai reikalingas panašaus tipo derinimas.

Jie gali būti naudojami užduotys, reikalaujančios duomenų lyginimo, taip pat tiems, kuriuose duomenys turėtų būti interpoliuojami arba ekstrapoliuoti. Pavyzdžiui, problemos, išmontuotos aukščiau, būtų galima rasti stebimos vertės vertę Y esant x \u003d 3 arba X \u003d 6. Tokie pavyzdžiai mes skyrėme atskirą straipsnį.

MNK metodo įrodymas

Norint, kad funkcija būtų priimta minimali vertė su apskaičiuotu A ir B, būtina, kad šiuo metu F (A, B) formos diferencialo formos matrica yra matrica \u003d σ i \u003d 1 n ( Yi - (Axi + B)) 2 buvo teigiamai apibrėžti. Parodykime, kaip ji turėtų atrodyti.

2 pavyzdys.

Turime antrosios eilės diferencialą:

d2 f (a; b) \u003d Δ 2 f (a; b) Δ 2 d2 A + 2 Δ 2 f (a; b) Δ Δ bdadb + Δ 2 f (a; b) Δ b 2 d 2 B.

Sprendimas Šis sprendimas

Δ 2 f (a; b) Δ 2 \u003d Δ Δ f (a; b) Δ a Δ a \u003d \u003d Δ - 2 σ i \u003d 1 n (Yi - (AXI + B)) XI Δ a \u003d 2 σ i \u003d 1 n (xi) 2 Δ 2 f (a; b) Δ Δ b \u003d Δ Δ f (a; b) Δ a Δ b \u003d \u003d Δ - 2 σ i \u003d 1 n (yi - (AXI + B) xi Δ B \u003d 2 σ i \u003d 1 NXI Δ 2 f (a; b) Δ b 2 \u003d Δ Δ f (a; b) Δ b Δ b \u003d Δ - 2 σ I \u003d 1 n (yi - (AXI + (AXI + b) Δ b \u003d 2 σ i \u003d 1 n (1) \u003d 2 n

Kitaip tariant, jis gali būti parašytas kaip: D 2 f (a; b) \u003d 2 σ i \u003d 1 n (xi) 2 d2 a + 2 · 2 σ xii \u003d 1 nd ir db + (2 n) d 2 b.

Mes gavome kvadratinės formos matricą m \u003d 2 σ i \u003d 1 n (x i) 2 2 σ i \u003d 1 n x i 2 σ i \u003d 1 n x i 2 n.

Šiuo atveju atskirų elementų vertės nesiskiria priklausomai nuo A ir B. Ar ši matrica yra teigiamai apibrėžta? Jei norite atsakyti į šį klausimą, patikrinkite, ar jo kampiniai nepilnamečiai yra teigiami.

Apskaičiuokite pirmojo užsakymo kampą: 2 σ I \u003d 1 N (x i) 2\u003e 0. Nuo taškų aš nesutampa, nelygybė yra griežta. Turėsime tai omenyje tolesniems skaičiavimams.

Apskaičiuokite antrosios eilės kampinį nedidelį užsakymą:

d E T (m) \u003d 2 σ i \u003d 1 n (x i) 2 2 σ I \u003d 1 n x i 2 σ I \u003d 1 n x i 2 n \u003d 4 n σ i \u003d 1 n (x i) 2 - σ i \u003d 1 n x i 2

Po to mes kreipiamės į nelygybės N σ I \u003d 1 N (x i) 2 - σ I \u003d 1 N x I 2\u003e 0 naudojant matematinį indukciją.

  1. Patikrinkite, ar ši nelygybė galioja savavališkai n. Paimkite 2 ir apskaičiuokite:

2 σ i \u003d 1 2 (xi) 2 - σ i \u003d 1 2 x 22 \u003d 2 x 1 2 2222 - x 1 - 2 x 1 x 2 + x 2 2 \u003d x 1 + x 2 2\u003e 0

Mes turime ištikimą lygybę (jei X1 ir X 2 vertės nėra sutapo).

  1. Manome, kad ši nelygybė bus ištikima N, I.E. n σ i \u003d 1 n (x i) 2 - σ i \u003d 1 n x i 2\u003e 0 yra galiojantis.
  2. Dabar mes įrodome teisingumą n + 1, i.e. kuris (n + 1) σ i \u003d 1 n + 1 (xi) 2 - σ i \u003d 1 n + 1 xi 2\u003e 0, jei n σ i \u003d 1 n (xi) 2 yra σ i \u003d 1 nxi 2\u003e 0.

Apskaičiuoti:

(n + 1) σ i \u003d 1 n + 1 (xi) 2 - σ I \u003d 1 n + 1 xi 2 \u003d (n + 1) σ i \u003d 1 n (xi) 2 + xn + 1 2 - σ i \u003d 1 nxi + xn + 1 2 \u003d n σ i \u003d 1 n (xi) 2 + n · xn + 1 2 + σ I \u003d 1 n (xi) 2 + xn + 1 2 - - σ I \u003d 1 NXI 2 + 2 xn + 1 σ i \u003d 1 nxi + xn + 1 2 \u003d σ i \u003d 1 n (xi) 2 - σ I \u003d 1 nxi 2 + n · xn + 1 2 - xn + 1 σ i \u003d 1 nxi + σ i \u003d 1 N (xi) 2 \u003d \u003d σ i \u003d 1 n (xi) 2 - σ I \u003d 1 NXI 2 + xn + 1 2 - 2 xn + 1 x 1 + x 1 2 + + xn + 1 2 - 2 xn + 1 x 2 + x 2 2 +. . . + xn + 1 2 - 2 xn + 1 x 1 + xn 2 \u003d \u003d n σ i \u003d 1 n (xi) 2 - σ I \u003d 1 NXI 2 + + (xn + 1 - x 1) 2 + (xn + 1) - x 2) 2 +. . . + (x n - 1 - x n) 2\u003e 0

Sąvoka, sudaryta iš garbanotų skliausteliuose bus didesnis nei 0 (remiantis tuo, ką mes prisiimame 2 dalyje), o likę sąlygos bus didesnės nei 0, nes jie yra visi skaičiai kvadratų. Mes įrodėme nelygybę.

Atsakymas: A ir B atitiks mažiausią funkciją F (A, B) \u003d σ i \u003d 1 N (Yi - (Axi + B)) 2, tai reiškia, kad jie yra pageidaujami mažiausių kvadratų metodo parametrai ( Mnk).

Jei pastebėsite klaidą tekste, pasirinkite jį ir paspauskite Ctrl + Enter

Pasirinkę regresijos funkcijos tipą, t. Y. Priklausomybės modelio tipas nuo x (arba x iš y), pavyzdžiui, linijinis modelis Y X \u003d A + BX, būtina nustatyti konkrečias modelio koeficientų vertes.

Įvairiose vertybėse, A ir B, begalinis skaičius priklausomybės formos Yx \u003d A + BX gali būti pastatytas koordinačių plokštumoje yra begalinis skaičius tiesioginio, mes taip pat reikia tokios priklausomybės, atitinkančios pastebėtas vertes geriausiu būdu. Taigi užduotis sumažinama iki geriausių koeficientų pasirinkimo.

Linijinė funkcija A + BX Ieškome, remiantis tik kai kuriomis esamomis pastabomis. Jei norite rasti funkciją, geriausiai laikydamiesi stebimų verčių, mes naudojame mažiausių kvadratų metodą.

Nurodo: Y I - vertė, apskaičiuota pagal lygtį Y I \u003d A + BX I. Y yra išmatuota vertė, ε i \u003d y i -y I - skirtumas tarp matuojamos ir apskaičiuotos pagal lygčių reikšmes, ε i \u003d y i -a-bx i.

Mažiausiais kvadratų metodu, ε I, skirtumas tarp matuojamo y I ir vertes apskaičiuotas pagal lygčių vertės y buvau minimalus. Todėl mes randame koeficientus A ir B koeficientus, kad pastebėtų vertybių nukrypimų nuo verčių nuo tiesios regresijos linijos vertės yra mažiausias:

Išnagrinėti šią argumentų funkciją A ir naudojant darinius į ekstremen, galima įrodyti, kad funkcija užima minimalią vertę, jei koeficientai A ir B yra sistemos sprendimai:

(2)

Jei padalinsime abi vietų dalis N, tada mes gauname:

Atsižvelgiant į tai (3)

Gauti Nuo čia, pakeičiant vertę a pirmoje lygtyje, mes gauname:

Tuo pačiu metu B vadinama regresijos koeficientu; A yra vadinamas laisvas regresijos lygties narys ir apskaičiuoti pagal formulę:

Gauta tiesioginė yra teorinės regresijos linijos sąmata. Mes turime:

Taigi, Tai yra linijinės regresijos lygtis.

Regresija gali būti tiesi (B\u003e 0) ir atvirkščiai (B pavyzdys 1. matavimo rezultatai x ir y reikšmių pateikiami lentelėje:

x I. -2 0 1 2 4
y I. 0.5 1 1.5 2 3

Darant prielaidą, kad tarp X ir Y yra linijinė priklausomybė Y \u003d A + BX, kuris metodas mažiausiai kvadratų nustato koeficientus A ir b.

Sprendimas. Čia n \u003d 5
x i \u003d -2 + 0 + 1 + 2 + 4 \u003d 5;
x i 2 \u003d 4 + 0 + 1 + 4 + 16 \u003d 25
x i y i \u003d -2 0,5 + 0 1 + 1 1,5 + 2 2 + 4 3 \u003d 16,5
y I \u003d 0,5 + 1 + 1,5 + 2 + 3 \u003d 8

ir įprastinė sistema (2) turi formą

Šios sistemos sprendimas, mes gauname: B \u003d 0,425, A \u003d 1,175. Todėl Y \u003d 1,175 + 0,425x.

2 pavyzdys. Yra 10 ekonominių rodiklių (x) ir (Y) stebėjimų pavyzdys.

x I. 180 172 173 169 175 170 179 170 167 174
y I. 186 180 176 171 182 166 182 172 169 177

Reikia rasti selektyvaus regresijos lygtį X. Sukurkite selektyvų regresijos liniją Y iki X.

Sprendimas. 1. Rengsime duomenis apie X I ir Y vertes. Gavome naują lentelę:

x I. 167 169 170 170 172 173 174 175 179 180
y I. 169 171 166 172 180 176 177 182 182 186

Siekiant supaprastinti skaičiavimus, mes padarysime apskaičiuotą lentelę į kurią atneš reikalingas skaitines vertes.

x I. y I. x i 2. x i y i
167 169 27889 28223
169 171 28561 28899
170 166 28900 28220
170 172 28900 29240
172 180 29584 30960
173 176 29929 30448
174 177 30276 30798
175 182 30625 31850
179 182 32041 32578
180 186 32400 33480
Σx i \u003d 1729 Σy i \u003d 1761 Σx i 2 299105 Σx i y i \u003d 304696
x \u003d 172.9. y \u003d 176.1 x i 2 \u003d 29910.5 xy \u003d 30469.6.

Pagal formulę (4) apskaičiuoti regresijos koeficientą

ir pagal formulę (5)

Taigi regresinė selektyvi lygtis turi formą y \u003d -59,34 + 1,3804x.
Paraiška dėl taško koordinatės plokštumos (x i; y i) ir atkreipkite dėmesį į tiesioginę regresiją.


4 pav.

4 paveiksle parodyta, kaip stebimos vertės yra palyginti su regresijos linija. Dėl numeriškumo nuokrypių y i iš Y I I, kur aš pastebiu, ir y aš lemiau pagal vertės regresiją, bus lentelė:

x I. y I. Y I. Y i -y i
167 169 168.055 -0.945
169 171 170.778 -0.222
170 166 172.140 6.140
170 172 172.140 0.140
172 180 174.863 -5.137
173 176 176.225 0.225
174 177 177.587 0.587
175 182 178.949 -3.051
179 182 184.395 2.395
180 186 185.757 -0.243

Y i vertės yra apskaičiuojamos pagal regresijos lygtį.

Pastebimas kai kurių stebimų verčių nuokrypis iš regresijos linijos paaiškinamas nedideliu skaičiumi stebėjimų. Atsižvelgiant į linijinės priklausomybės laipsnį Y iš X, atsižvelgiama į stebėjimų skaičių. Priklausomybės stiprumą lemia koreliacijos koeficientas.

Peržiūrų

Išsaugoti į klasiokus Išsaugoti Vkontakte