Vähimruutude meetodi arvutamine. Kus kasutatakse vähimruutude meetodit?

meetod vähimruudud

Vähima ruudu meetod ( OLS, OLS, tavalised vähimruudud) - üks regressioonanalüüsi põhimeetodeid regressioonimudelite tundmatute parameetrite hindamiseks näidisandmete abil. Meetod põhineb regressioonijääkide ruutude summa minimeerimisel.

Tuleb märkida, et vähimruutude meetodit ennast võib nimetada meetodiks ülesande lahendamiseks mis tahes valdkonnas, kui lahendus peitub või vastab mõnele nõutavate muutujate mõne funktsiooni ruutude summa minimeerimise kriteeriumile. Seetõttu saab vähimruutude meetodit kasutada ka antud funktsiooni ligikaudseks esitamiseks (lähendamiseks) teiste (lihtsamate) funktsioonidega, leides suuruste komplekti, mis rahuldavad võrrandeid või piiranguid, mille arv ületab nende suuruste arvu. , jne.

MNC olemus

Olgu antud (seletatud) muutuja vahelise tõenäosusliku (regressiooni) seose (parameetriline) mudel y ja paljud tegurid (selgitavad muutujad) x

kus on tundmatute mudeliparameetrite vektor

- juhuslik mudeliviga.

Olgu ka nende muutujate väärtuste näidisvaatlused. Laskma olema vaatlusnumber (). Siis on vaatluse muutujate väärtused. Siis kl antud väärtused parameetrite b abil saate arvutada selgitatud muutuja y teoreetilised (mudel) väärtused:

Jääkide suurus sõltub parameetrite b väärtustest.

Vähimruutude meetodi (tavaline, klassikaline) olemus on leida parameetrid b, mille jääkide ruutude summa (ingl. Ruudude jääksumma) on minimaalne:

Üldjuhul saab selle probleemi lahendada numbrilise optimeerimise (minimeerimise) meetoditega. Sel juhul räägivad nad sellest mittelineaarsed vähimruudud(NLS või NLLS – inglise keel) Mittelineaarsed vähimruudud). Paljudel juhtudel on võimalik saada analüütiline lahendus. Minimeerimisülesande lahendamiseks on vaja leida funktsiooni statsionaarsed punktid, diferentseerides seda tundmatute parameetrite b suhtes, võrdsustades tuletised nulliga ja lahendades saadud võrrandisüsteemi:

Kui mudeli juhuslikud vead on tavaliselt jaotatud, neil on sama dispersioon ja need ei ole korrelatsioonis, on OLS-i parameetrite hinnangud samad, mis maksimaalse tõenäosuse hinnangud (MLM).

OLS lineaarse mudeli puhul

Olgu regressioonisõltuvus lineaarne:

Lase y on selgitatud muutuja vaatluste veeruvektor ja tegurivaatluste maatriks (maatriksi read on antud vaatluse faktoriväärtuste vektorid, veerud on antud teguri väärtuste vektorid kõigis vaatlustes). Lineaarse mudeli maatriksesitus on järgmine:

Siis on seletatava muutuja hinnangute vektor ja regressioonijääkide vektor võrdsed

Vastavalt sellele on regressioonijääkide ruutude summa võrdne

Diferentseerides selle funktsiooni parameetrite vektori suhtes ja võrdsustades tuletised nulliga, saame võrrandisüsteemi (maatriksi kujul):

.

Selle võrrandisüsteemi lahendus annab üldine valem OLS-i hinnangud lineaarse mudeli jaoks:

Analüütilistel eesmärkidel on kasulik selle valemi viimane esitus. Kui regressioonimudelis andmed tsentreeritud, siis selles esituses on esimene maatriks tegurite valimi kovariatsioonimaatriksi tähendus ja teine ​​on sõltuva muutujaga tegurite kovariatsioonide vektor. Kui lisaks andmed on ka normaliseeritud MSE-le (st lõpuks standardiseeritud), siis esimene maatriks omab tegurite valimi korrelatsioonimaatriksi tähendust, teine ​​vektor - sõltuva muutujaga tegurite valimikorrelatsioonide vektor.

Mudelite OLS-i hinnangute oluline omadus konstantiga- konstrueeritud regressiooni joon läbib näidisandmete raskuskeskme, see tähendab, et võrdsus on täidetud:

Eriti äärmisel juhul, kui ainsaks regressoriks on konstant, leiame, et ainsa parameetri (konstandi enda) OLS-hinnang on võrdne seletatava muutuja keskmise väärtusega. See tähendab, et aritmeetiline keskmine, mis on tuntud oma heade omaduste poolest suurte arvude seaduste järgi, on ka vähimruutude hinnang – see täidab sellest kõrvalekaldumise miinimumruutsumma kriteeriumi.

Näide: lihtsaim (paaripõhine) regressioon

Leiliruumi puhul lineaarne regressioon arvutusvalemid on lihtsustatud (saate teha ilma maatriksalgebrata):

OLS-i hinnangute omadused

Esiteks märgime, et lineaarsete mudelite puhul on OLS-i hinnangud lineaarsed hinnangud, nagu ülaltoodud valemist. Erapooletute OLS-i hinnangute jaoks on see vajalik ja piisav kõige olulisem tingimus regressioonanalüüs: teguritest sõltudes peab juhusliku vea matemaatiline ootus olema võrdne nulliga. Eelkõige on see tingimus täidetud, kui

  1. oodatud väärtus juhuslikud vead võrdub nulliga ja
  2. tegurid ja juhuslikud vead on sõltumatud juhuslikud muutujad.

Teine tingimus - tegurite eksogeensuse tingimus - on fundamentaalne. Kui see omadus ei ole täidetud, võime eeldada, et peaaegu kõik hinnangud on äärmiselt ebarahuldavad: need pole isegi järjepidevad (st isegi väga suur hulk andmeid ei võimalda meil sel juhul kvaliteetseid hinnanguid saada ). Klassikalisel juhul tehakse tugevam eeldus tegurite determinismi kohta, mitte juhuslikule veale, mis tähendab automaatselt, et eksogeensuse tingimus on täidetud. Üldjuhul piisab hinnangute järjepidevuse tagamiseks eksogeensuse tingimuse täitmisest koos maatriksi konvergentsiga mõnele mitteainsuse maatriksile, kui valimi suurus suureneb lõpmatuseni.

Selleks, et (tavaliste) vähimruutude hinnangud oleksid lisaks järjekindlale ja erapooletule ka efektiivsed (parimad lineaarsete erapooletute hinnangute klassis), on vaja teostada täiendavad omadused juhuslik viga:

Neid eeldusi saab formuleerida juhusliku veavektori kovariatsioonimaatriksi jaoks

Neid tingimusi rahuldavat lineaarset mudelit nimetatakse klassikaline. Klassikalise lineaarse regressiooni OLS-i hinnangud on erapooletud, järjepidevad ja kõige tõhusamad hinnangud kõigi lineaarsete erapooletute hinnangute klassis (ingliskeelses kirjanduses kasutatakse mõnikord lühendit SININE (Parim lineaarne aluseta hindaja) - parim lineaarne erapooletu hinnang; vene kirjanduses tsiteeritakse sagedamini Gaussi-Markovi teoreemi). Nagu on lihtne näidata, on koefitsientide hinnangute vektori kovariatsioonimaatriks võrdne:

Üldine OLS

Vähimruutude meetod võimaldab üldistamist. Selle asemel, et minimeerida jääkide ruutude summat, saame minimeerida mõne positiivse kindla ruutvorm jääkvektorist , kus on mingi sümmeetriline positiivne kindla kaalu maatriks. Tavaline vähimruutude kasutamine on selle lähenemisviisi erijuhtum, kus kaalumaatriks on võrdeline identiteedimaatriksiga. Nagu on teada sümmeetriliste maatriksite (või operaatorite) teooriast, toimub selliste maatriksite puhul lagunemine. Järelikult saab määratud funktsionaalset kujutada järgmiselt, st seda funktsionaalset saab esitada mõne teisendatud “jääkide” ruutude summana. Seega saame eristada vähimruutude meetodite klassi – LS meetodid (Least Squares).

On tõestatud (Aitkeni teoreem), et üldistatud lineaarse regressioonimudeli puhul (milles juhuslike vigade kovariatsioonimaatriksile piiranguid ei seata) on kõige tõhusamad (lineaarsete erapooletute hinnangute klassis) nn hinnangud. generalised Least Squares (GLS – Generalized Least Squares)- LS-meetod kaalumaatriksiga, mis on võrdne juhuslike vigade pöördkovariatsioonimaatriksiga: .

Võib näidata, et lineaarse mudeli parameetrite GLS-hinnangute valemil on vorm

Nende hinnangute kovariatsioonimaatriks on seega võrdne

Tegelikult seisneb OLS-i olemus algandmete teatud (lineaarses) teisenduses (P) ja tavalise OLS-i rakendamises teisendatud andmetele. Selle teisenduse eesmärk on, et teisendatud andmete juhuslikud vead rahuldaksid juba klassikalisi eeldusi.

Kaalutud OLS

Diagonaalse kaalumaatriksi (ja seega juhuslike vigade kovariatsioonimaatriksi) korral on meil nn kaalutud vähimruutud (WLS). Sel juhul on mudeli jääkide kaalutud ruutude summa minimeeritud, see tähendab, et iga vaatlus saab "kaalu", mis on pöördvõrdeline selle vaatluse juhusliku vea dispersiooniga: . Tegelikult teisendatakse andmeid vaatluste kaalumise teel (jagades eeldatavaga võrdelise summaga standardhälve juhuslikud vead) ja kaalutud andmetele rakendatakse tavalist OLS-i.

Mõned MNC kasutamise erijuhud praktikas

Lineaarse sõltuvuse lähendamine

Vaatleme juhtumit, kui teatud skalaarsuuruse sõltuvuse uurimise tulemusena teatud skalaarsuurusest (Selleks võib olla näiteks pinge sõltuvus voolutugevusest: , kus on konstantne väärtus, takistus juht), viidi läbi nende suuruste mõõtmised, mille tulemusena saadi väärtused ja neile vastavad väärtused. Mõõtmisandmed tuleb fikseerida tabelis.

Tabel. Mõõtmistulemused.

Mõõtmine nr.
1
2
3
4
5
6

Küsimus on selles, millise koefitsiendi väärtuse saab valida nii, et parim viis kirjelda sõltuvust? Vähimruutude meetodi kohaselt peaks see väärtus olema selline, et väärtuste väärtustest kõrvalekallete ruudu summa

oli minimaalne

Ruuthälvete summal on üks ekstreemum – miinimum, mis võimaldab seda valemit kasutada. Leiame sellest valemist koefitsiendi väärtuse. Selleks teisendame selle vasaku külje järgmiselt:

Viimane valem võimaldab meil leida koefitsiendi väärtuse, mis on ülesandes nõutav.

Lugu

Enne XIX algus V. teadlastel polnud teatud reeglid lahendada võrrandisüsteemi, milles tundmatute arv on võrrandite arvust väiksem; Kuni selle ajani kasutati privaatseid tehnikaid, mis sõltusid võrrandite tüübist ja kalkulaatorite teravmeelsusest ning seetõttu tekkisid erinevad kalkulaatorid, mis põhinesid samadel vaatlusandmetel. erinevaid järeldusi. Gauss (1795) vastutas meetodi esmakordse rakendamise eest ning Legendre (1805) avastas ja avaldas selle iseseisvalt kaasaegne nimi(fr. Méthode des moindres quarrés ) . Laplace seostas meetodi tõenäosusteooriaga ja Ameerika matemaatik Adrain (1808) käsitles selle tõenäosusteoreetilisi rakendusi. Meetod oli laialt levinud ja seda täiustasid Encke, Besseli, Hanseni jt edasised uuringud.

OLS-i alternatiivsed kasutusvõimalused

Vähimruutude meetodi ideed saab kasutada ka muudel juhtudel, mis pole sellega otseselt seotud regressioonianalüüs. Fakt on see, et ruutude summa on üks levinumaid vektorite lähedusmõõte (Eukleidiline meetrika lõplike mõõtmetega ruumides).

Üks rakendus on lineaarvõrrandisüsteemide "lahendus", milles võrrandite arv rohkem numbrit muutujad

kus maatriks ei ole ruudukujuline, vaid ristkülikukujuline.

Sellisel võrrandisüsteemil üldjuhul lahendus puudub (kui auaste on tegelikult suurem muutujate arvust). Seetõttu saab seda süsteemi "lahendada" ainult sellise vektori valimisel, et minimeerida "kaugust" vektorite ja . Selleks saate rakendada süsteemi võrrandite vasaku ja parema külje erinevuste ruutude summa minimeerimise kriteeriumi, st. Lihtne on näidata, et selle minimeerimisülesande lahendamine viib järgmise võrrandisüsteemi lahendamiseni

Näide.

Eksperimentaalsed andmed muutujate väärtuste kohta X Ja juures on toodud tabelis.

Nende joondamise tulemusena saadakse funktsioon

Kasutades vähima ruudu meetod, lähendage neid andmeid lineaarse sõltuvusega y=kirves+b(leidke parameetrid A Ja b). Uurige, kumb kahest reast paremini (vähimruutude meetodi mõttes) joondab katseandmeid. Tee joonistus.

Vähimruutude meetodi (LSM) olemus.

Ülesandeks on leida lineaarsed sõltuvuskoefitsiendid, mille juures kahe muutuja funktsioon A Ja b võtab väikseima väärtuse. See tähendab, et antud A Ja b katseandmete ruuduhälbete summa leitud sirgest on väikseim. See on kogu vähimruutude meetodi mõte.

Seega taandub näite lahendamine kahe muutuja funktsiooni ekstreemumi leidmisele.

Valemite tuletamine koefitsientide leidmiseks.

Koostatakse ja lahendatakse kahest võrrandist koosnev süsteem kahe tundmatuga. Funktsiooni osatuletiste leidmine muutujate järgi A Ja b, võrdsustame need tuletised nulliga.

Lahendame saadud võrrandisüsteemi mis tahes meetodiga (näiteks asendusmeetodil või Crameri meetod) ja saada valemid koefitsientide leidmiseks vähimruutude meetodi (LSM) abil.

Antud A Ja b funktsiooni võtab väikseima väärtuse. Selle fakti tõestus on esitatud allpool lehe lõpus olevas tekstis.

See on kogu vähimruutude meetod. Valem parameetri leidmiseks a sisaldab summasid ,, ja parameetrit n- katseandmete hulk. Soovitame nende summade väärtused eraldi välja arvutada. Koefitsient b leitud pärast arvutamist a.

On aeg meenutada algset näidet.

Lahendus.

Meie näites n = 5. Nõutavate koefitsientide valemites sisalduvate summade arvutamise mugavuse huvides täidame tabeli.

Tabeli neljanda rea ​​väärtused saadakse, korrutades iga numbri 2. rea väärtused 3. rea väärtustega i.

Tabeli viienda rea ​​väärtused saadakse iga numbri 2. rea väärtuste ruudustamisel i.

Tabeli viimases veerus olevad väärtused on ridade väärtuste summad.

Koefitsientide leidmiseks kasutame vähimruutude meetodi valemeid A Ja b. Asendame neisse vastavad väärtused tabeli viimasest veerust:

Seega y = 0,165x+2,184- soovitud ligikaudne sirgjoon.

Jääb välja selgitada, milline ridadest y = 0,165x+2,184 või lähendab paremini algandmeid, st teeb hinnangu vähimruutude meetodil.

Vähimruutude meetodi vea hindamine.

Selleks peate arvutama nendest ridadest saadud algandmete ruuduhälbete summa Ja , vastab väiksem väärtus joonele, mis lähendab paremini algandmeid vähimruutude meetodi tähenduses.

Alates , siis otse y = 0,165x+2,184 lähendab paremini algandmeid.

Vähimruutude (LS) meetodi graafiline illustratsioon.

Graafikutelt on kõik selgelt näha. Punane joon on leitud sirgjoon y = 0,165x+2,184, sinine joon on , roosad täpid on algandmed.

Praktikas kasutatakse mitmesuguste protsesside - eriti majanduslike, füüsiliste, tehniliste, sotsiaalsete - modelleerimisel laialdaselt üht või teist meetodit funktsioonide ligikaudsete väärtuste arvutamiseks nende teadaolevatest väärtustest teatud kindlates punktides.

Seda tüüpi funktsioonide lähendamise probleem tekib sageli:

    ligikaudsete valemite koostamisel uuritava protsessi iseloomulike suuruste väärtuste arvutamiseks, kasutades katse tulemusena saadud tabeliandmeid;

    numbrilises integreerimises, eristamises, lahendamises diferentsiaalvõrrandid jne.;

    vajadusel arvutage funktsioonide väärtused vaadeldava intervalli vahepunktides;

    protsessi iseloomulike suuruste väärtuste määramisel väljaspool vaadeldavat intervalli, eriti prognoosimisel.

Kui teatud tabeliga määratud protsessi modelleerimiseks konstrueerime funktsiooni, mis seda protsessi ligikaudselt kirjeldab vähimruutude meetodil, nimetatakse seda lähendavaks funktsiooniks (regressiooniks) ja lähendavate funktsioonide enda konstrueerimise ülesannet. ligikaudne probleem.

Selles artiklis käsitletakse MS Exceli paketi võimalusi seda tüüpi probleemide lahendamiseks, lisaks pakutakse meetodeid ja tehnikaid tabelite jaoks regressioonide koostamiseks (loomiseks). määratud funktsioonid(mis on regressioonanalüüsi aluseks).

Excelil on regressioonide koostamiseks kaks võimalust.

    Valitud regressioonide (trendijoonte) lisamine uuritava protsessi karakteristiku andmetabeli alusel koostatud diagrammile (saadaval ainult siis, kui diagramm on konstrueeritud);

    Exceli töölehe sisseehitatud statistiliste funktsioonide kasutamine, mis võimaldab teil saada regressioone (trendijooni) otse lähteandmete tabelist.

Trendijoonte lisamine diagrammile

Protsessi kirjeldava andmetabeli jaoks, mis on kujutatud diagrammina, on Excelil tõhus regressioonianalüüsi tööriist, mis võimaldab teil:

    ehitada vähimruutude meetodi alusel ja lisada diagrammile viis tüüpi regressioone, mis modelleerivad uuritavat protsessi erineva täpsusega;

    lisada diagrammile konstrueeritud regressioonivõrrand;

    määrata valitud regressiooni vastavuse aste diagrammil kuvatavatele andmetele.

Andmepõhine Exceli diagrammid võimaldab teil saada lineaarseid, polünoomilisi, logaritmilisi, võimsuse, eksponentsiaalseid regressioonitüüpe, mis on määratud võrrandiga:

y = y(x)

kus x on sõltumatu muutuja, mis võtab sageli naturaalarvude jada (1; 2; 3; ...) väärtused ja loob näiteks uuritava protsessi aja loenduse (karakteristikud).

1 . Lineaarne regressioon on hea selliste karakteristikute modelleerimiseks, mille väärtused suurenevad või vähenevad konstantse kiirusega. See on uuritava protsessi jaoks kõige lihtsam mudel. See on ehitatud vastavalt võrrandile:

y = mx + b

kus m on lineaarse regressiooni tõusu puutuja x-teljega; b - lineaarse regressiooni ja ordinaattelje lõikepunkti koordinaat.

2 . Polünoomiline trendijoon on kasulik selliste omaduste kirjeldamiseks, millel on mitu erinevat äärmust (maksimumid ja miinimumid). Polünoomi astme valiku määrab uuritava tunnuse ekstreemide arv. Seega saab teise astme polünoom hästi kirjeldada protsessi, millel on ainult üks maksimum või miinimum; kolmanda astme polünoom - mitte rohkem kui kaks äärmust; neljanda astme polünoom - mitte rohkem kui kolm ekstreemi jne.

Sel juhul koostatakse trendijoon vastavalt võrrandile:

y = c0 + c1x + c2x2 + c3x3 + c4x4 + c5x5 + c6x6

kus koefitsiendid c0, c1, c2,...c6 on konstandid, mille väärtused määratakse ehituse käigus.

3 . Logaritmilist trendijoont kasutatakse edukalt karakteristikute modelleerimisel, mille väärtused muutuvad alguses kiiresti ja seejärel järk-järgult stabiliseeruvad.

y = c ln(x) + b

4 . Võimuseaduse trendijoon annab häid tulemusi, kui uuritava suhte väärtusi iseloomustab pidev kasvutempo muutus. Sellise sõltuvuse näiteks on auto ühtlaselt kiirendatud liikumise graafik. Kui andmed sisaldavad nulli või negatiivsed väärtused, ei saa te kasutada jõutrendi joont.

Ehitatud vastavalt võrrandile:

y = c xb

kus koefitsiendid b, c on konstandid.

5 . Eksponentsiaalset trendijoont tuleks kasutada siis, kui andmete muutumise kiirus pidevalt kasvab. Null- või negatiivseid väärtusi sisaldavate andmete puhul ei ole seda tüüpi lähendus samuti kohaldatav.

Ehitatud vastavalt võrrandile:

y = c ebx

kus koefitsiendid b, c on konstandid.

Trendijoone valimisel arvutab Excel automaatselt välja R2 väärtuse, mis iseloomustab lähenduse usaldusväärsust: mida lähemal on R2 väärtus ühtsusele, seda usaldusväärsemalt läheneb trendijoon uuritavale protsessile. Vajadusel saab R2 väärtuse alati diagrammil kuvada.

Määratakse valemiga:

Andmeseeriale trendijoone lisamiseks tehke järgmist.

    aktiveerige diagramm andmete seeria põhjal, st klõpsake diagrammialal. Diagrammi element ilmub peamenüüsse;

    pärast sellel üksusel klõpsamist ilmub ekraanile menüü, kus peaksite valima käsu Lisa trendijoon.

Samu toiminguid saab hõlpsasti teostada, kui liigutada hiirekursorit ühele andmeseeriale vastava graafiku kohale ja teha paremklõps; Ilmuvas kontekstimenüüs valige käsk Lisa trendijoon. Ekraanile ilmub dialoogiboks Trendline, kus on avatud vahekaart Tüüp (joonis 1).

Pärast seda vajate:

Valige vahekaardil Tüüp soovitud trendijoone tüüp (vaikimisi on valitud Lineaarne tüüp). Polünoomi tüübi jaoks määrake väljal Degree valitud polünoomi aste.

1 . Väljal Built on seeria on loetletud kõik kõnealuse diagrammi andmesarjad. Konkreetsele andmeseeriale trendijoone lisamiseks valige väljal Built on seeria selle nimi.

Vajadusel saate vahekaardile Parameetrid minnes (joonis 2) määrata trendijoonele järgmised parameetrid:

    muutke väljal Lähendava (silutud) kõvera nimi trendijoone nime.

    määrata väljale Prognoos prognoosi perioodide arv (edasi või tagasi);

    kuvage diagrammialal trendijoone võrrand, mille jaoks peaksite lubama märkeruudu näitamise võrrandit diagrammil;

    kuva skeemialal ligikaudse usaldusväärsuse väärtus R2, mille puhul tuleks lubada märkeruut Aseta lähenduse usaldusväärsuse väärtus diagrammile (R^2);

    määrake trendijoone lõikepunkt Y-teljega, mille jaoks peaksite märkima kõvera ristumiskoha Y-teljega punktis;

    Dialoogiboksi sulgemiseks klõpsake nuppu OK.

Juba joonistatud trendijoone redigeerimise alustamiseks on kolm võimalust:

    kasuta menüüst Vorming käsku Valitud trendijoon, olles eelnevalt valinud trendijoone;

    vali kontekstimenüüst käsk Vorminda trendijoont, mis avatakse trendijoonel paremklõpsuga;

    topeltklõps trendijoonel.

Ekraanile ilmub dialoogiboks Trend Line Format (joonis 3), mis sisaldab kolme vahekaarti: Vaade, Tüüp, Parameetrid ning kahe viimase sisu kattub täielikult samalaadsete vahekaartidega Trend Line dialoogiboksis (joonis 1). -2). Vahekaardil Vaade saate määrata joone tüübi, värvi ja paksuse.

Juba joonistatud trendijoone kustutamiseks valige kustutatav trendijoon ja vajutage klahvi Kustuta.

Vaadeldava regressioonanalüüsi tööriista eelised on järgmised:

    trendijoone konstrueerimise suhteline lihtsus diagrammidel ilma selle jaoks andmetabelit loomata;

    üsna lai nimekiri pakutud trendijoonte tüüpidest ja see loend sisaldab kõige sagedamini kasutatavaid regressioonitüüpe;

    võime ennustada uuritava protsessi käitumist mis tahes suvalisel tasemel (sees terve mõistus) sammude arv edasi ja tagasi;

    trendijoone võrrandi analüütilise vormi saamise oskus;

    vajaduse korral võimalus saada hinnang lähenduse usaldusväärsuse kohta.

Puuduste hulka kuuluvad järgmised:

    trendijoone konstrueerimine toimub ainult siis, kui on olemas andmeseeriale üles ehitatud diagramm;

    uuritava karakteristiku andmeseeriate genereerimise protsess selle jaoks saadud trendijoone võrrandite põhjal on mõnevõrra segane: nõutavaid regressioonivõrrandeid uuendatakse iga algse andmerea väärtuste muutusega, kuid ainult diagrammi ala piires. , samas kui vana joonvõrrandi trendi alusel moodustatud andmeread jäävad muutumatuks;

    PivotChart-liigenddiagrammi aruannetes ei säilita diagrammi või sellega seotud PivotTable-liigendtabeli aruande vaate muutmine olemasolevaid trendijooni, mis tähendab, et enne trendijoonte joonistamist või muul viisil PivotChart-liigenddiagrammi aruande vormindamist peaksite veenduma, et aruande paigutus vastab nõutavatele nõuetele.

Trendijooni saab kasutada andmeseeriate täiendamiseks diagrammidel, nagu graafik, histogramm, lamedad standardeerimata aladiagrammid, tulpdiagrammid, hajuvusdiagrammid, mulldiagrammid ja aktsiadiagrammid.

3D-, normaliseeritud, radari-, sektor- ja sõõrdiagrammides ei saa andmeseeriatele lisada trendijooni.

Exceli sisseehitatud funktsioonide kasutamine

Excelis on ka regressioonianalüüsi tööriist trendijoonte joonistamiseks väljaspool diagrammi ala. Sel eesmärgil saate kasutada mitmeid statistilisi töölehe funktsioone, kuid kõik need võimaldavad teil koostada ainult lineaarseid või eksponentsiaalseid regressioone.

Excelil on lineaarse regressiooni koostamiseks mitu funktsiooni, eelkõige:

    TREND;

  • KALVAD ja LÕIKAD.

Lisaks mitmed funktsioonid eksponentsiaalse trendijoone koostamiseks, eriti:

    LGRFPRIBL.

Tuleb märkida, et TREND ja GROWTH funktsioonide abil regressioonide koostamise tehnikad on peaaegu samad. Sama võib öelda ka funktsioonipaari LINEST ja LGRFPRIBL kohta. Nende nelja funktsiooni jaoks kasutab väärtustabeli loomine Exceli funktsioone, näiteks massiivi valemeid, mis segab regressioonide koostamise protsessi mõnevõrra. Pange tähele ka seda, et lineaarse regressiooni konstrueerimine on meie arvates kõige lihtsam teostada funktsioonide SLOPE ja INTERCEPT abil, kus esimene neist määrab lineaarse regressiooni kalde ja teine ​​määrab lõigu, mille katkestab regressioon y-l. -telg.

Regressioonanalüüsi sisseehitatud funktsioonide tööriista eelised on järgmised:

    üsna lihtne ja ühtne protsess uuritava tunnuse andmeseeriate genereerimiseks kõigi sisseehitatud statistiliste funktsioonide jaoks, mis määratlevad trendijooned;

    standardmetoodika trendijoonte koostamiseks genereeritud andmeseeriate põhjal;

    võime ennustada uuritava protsessi käitumist vajaliku arvu sammudega edasi või tagasi.

Puudusteks on asjaolu, et Excelis puuduvad sisseehitatud funktsioonid muud tüüpi (välja arvatud lineaarsed ja eksponentsiaalsed) trendijoonte loomiseks. See asjaolu ei võimalda sageli valida uuritava protsessi kohta piisavalt täpset mudelit, samuti saada tegelikkusele lähedasi prognoose. Lisaks ei ole funktsioonide TREND ja GROWTH kasutamisel teada trendijoonte võrrandid.

Tuleb märkida, et autorid ei soovinud regressioonanalüüsi kulgu mingilgi määral täielikult esitada. Selle põhiülesanne on konkreetsete näidete abil näidata Exceli paketi võimalusi lähendusülesannete lahendamisel; demonstreerida, millised tõhusad tööriistad on Excelil regressioonide koostamiseks ja prognoosimiseks; illustreerige, kuidas selliseid probleeme saab suhteliselt lihtsalt lahendada isegi kasutaja, kellel pole laialdasi teadmisi regressioonanalüüsist.

Näited konkreetsete probleemide lahendamisest

Vaatame konkreetsete probleemide lahendamist loetletud Exceli tööriistade abil.

Probleem 1

Tabeliga autotranspordiettevõtte kasumi kohta aastatel 1995-2002. peate tegema järgmist:

    Koostage diagramm.

    Lisage diagrammile lineaarsed ja polünoomilised (ruut- ja kuup-) trendijooned.

    Trendijoone võrrandite abil hankige tabeliandmed ettevõtte kasumi kohta iga trendijoone kohta aastatel 1995–2004.

    Tehke ettevõtte 2003. ja 2004. aasta kasumiprognoos.

Probleemi lahendus

    Sisestage Exceli töölehe lahtrite vahemikku A4:C11 joonisel fig. 4.

    Olles valinud lahtrite vahemiku B4:C11, koostame diagrammi.

    Aktiveerime koostatud diagrammi ja vastavalt ülalkirjeldatud meetodile, peale trendijoone tüübi valimist Trend Line dialoogiaknas (vt joon. 1), lisame diagrammile vaheldumisi lineaarsed, ruut- ja kuuptrendijooned. Samas dialoogiboksis avage vahekaart Parameetrid (vt joonis 2), väljale Name of the lähendava (silutud) kõvera nimi sisestage lisatava trendi nimi ja väljale Forecast forward for: periods määrake väärtus 2, kuna plaanis on teha kasumiprognoos kaheks aastaks ette. Regressioonivõrrandi ja lähenduse usaldusväärsuse väärtuse R2 kuvamiseks diagrammialal lubage võrrandi kuvamine ekraanil märkeruudud ja asetage diagrammile lähenduse usaldusväärsusväärtus (R^2). Parema visuaalse tajumise huvides muudame konstrueeritud trendijoonte tüüpi, värvi ja paksust, mille jaoks kasutame dialoogiboksi Trend Line Format vahekaarti Vaade (vt joonis 3). Saadud diagramm koos lisatud trendijoontega on näidatud joonisel fig. 5.

    Tabeliandmete saamiseks ettevõtete kasumite kohta iga trendijoone kohta aastatel 1995–2004. Kasutame joonisel fig. 5. Selleks sisestage vahemiku D3:F3 lahtritesse tekstiinfo valitud trendijoone tüübi kohta: Lineaarne trend, Ruuttrend, Kuubitrend. Järgmisena sisestage lahtrisse D4 lineaarse regressiooni valem ja kopeerige see valem täitemarkeri abil suhteliste viidetega lahtrivahemikule D5:D13. Tuleb märkida, et igas lahtris, millel on lineaarse regressioonivalem lahtrite vahemikust D4:D13, on argumendiks vastav lahter vahemikust A4:A13. Samamoodi täitke ruutregressiooni jaoks lahtrite vahemik E4:E13 ja kuupregressiooni jaoks lahtrite vahemik F4:F13. Seega on koostatud ettevõtte 2003. ja 2004. aasta kasumiprognoos. kasutades kolme suundumust. Saadud väärtuste tabel on näidatud joonisel fig. 6.

Probleem 2

    Koostage diagramm.

    Lisage diagrammile logaritmilised, võimsus- ja eksponentsiaalsed trendijooned.

    Tuletage saadud trendijoonte võrrandid ja nende kõigi jaoks lähenduse R2 usaldusväärsusväärtused.

    Kasutage trendijoone võrrandeid, hankige tabeliandmed ettevõtte kasumi kohta iga trendijoone kohta aastatel 1995–2002.

    Tehke nende trendijoonte abil ettevõtte 2003. ja 2004. aasta kasumiprognoos.

Probleemi lahendus

Järgides ülesande 1 lahendamisel antud metoodikat, saame diagrammi, millele on lisatud logaritmi-, võimsus- ja eksponentsiaalsed trendijooned (joonis 7). Järgmisena täidame saadud trendijoone võrrandite abil ettevõtte kasumi väärtuste tabeli, mis sisaldab 2003. ja 2004. aasta prognoositud väärtusi. (joonis 8).

Joonisel fig. 5 ja fig. on näha, et logaritmilise trendiga mudel vastab lähenduse usaldusväärsuse madalaimale väärtusele

R2 = 0,8659

R2 suurimad väärtused vastavad polünoomilise trendiga mudelitele: ruut (R2 = 0,9263) ja kuup (R2 = 0,933).

Probleem 3

Ülesandes 1 toodud autotranspordiettevõtte 1995-2002 kasumi andmete tabeliga peate tegema järgmised sammud.

    Hankige lineaarsete ja eksponentsiaalsete trendijoonte andmeseeriad, kasutades funktsioone TREND ja GROW.

    Tehke TREND ja GROWTH funktsioonide abil ettevõtte 2003. ja 2004. aasta kasumiprognoos.

    Koostage algandmete ja saadud andmeseeriate diagramm.

Probleemi lahendus

Kasutame ülesande 1 töölehte (vt joonis 4). Alustame funktsiooniga TREND:

    valige lahtrite vahemik D4:D11, mis tuleks täita funktsiooni TREND väärtustega, mis vastavad ettevõtte kasumi teadaolevatele andmetele;

    Kutsuge menüüst Lisa käsk Funktsioon. Valige kuvatavas dialoogiboksis Funktsiooniviisard jaotisest Statistika funktsioon TREND ja seejärel klõpsake nuppu OK. Sama toimingu saab teha, klõpsates standardsel tööriistaribal nuppu (Sisesta funktsioon).

    Ilmuvas dialoogiboksis Funktsiooni argumendid sisestage väljale Known_values_y lahtrite vahemik C4:C11; väljal Known_values_x - lahtrite vahemik B4:B11;

    Sisestatud valemi massiivivalemiks muutmiseks kasutage klahvikombinatsiooni + + .

Valemiribale sisestatud valem näeb välja selline: =(TREND(C4:C11,B4:B11)).

Selle tulemusena täidetakse lahtrite vahemik D4:D11 funktsiooni TREND vastavate väärtustega (joonis 9).

Teha ettevõtte 2003. ja 2004. aasta kasumiprognoos. vajalik:

    valige lahtrite vahemik D12:D13, kuhu sisestatakse funktsiooni TREND ennustatud väärtused.

    kutsuge välja funktsioon TREND ja ilmuvas dialoogiboksis Funktsiooni argumendid sisestage väljale Known_values_y - lahtrite vahemik C4:C11; väljal Known_values_x - lahtrite vahemik B4:B11; ja väljal New_values_x - lahtrite vahemik B12:B13.

    muutke see valem massiivivalemiks, kasutades klahvikombinatsiooni Ctrl + Shift + Enter.

    Sisestatud valem näeb välja selline: =(TREND(C4:C11;B4:B11;B12:B13)) ja lahtrite vahemik D12:D13 täidetakse funktsiooni TREND prognoositud väärtustega (vt joonis 1). 9).

Andmeread täidetakse sarnaselt funktsiooniga GROWTH, mida kasutatakse mittelineaarsete sõltuvuste analüüsimisel ja mis töötab täpselt samamoodi nagu selle lineaarne vaste TREND.

Joonis 10 näitab tabelit valemi kuvamise režiimis.

Algandmete ja saadud andmeseeriate jaoks on joonisel fig. üksteist.

Probleem 4

Mootorveoettevõtte dispetšerteenistuse teenusetaotluste vastuvõtmise andmete tabeliga jooksva kuu 1. kuni 11. kuupäevani peate tegema järgmised toimingud.

    Hankige andmeseeriad lineaarse regressiooni jaoks: funktsioonide SLOPE ja INTERCEPT abil; kasutades funktsiooni LINEST.

    Hankige eksponentsiaalse regressiooni jaoks andmete seeria, kasutades funktsiooni LGRFPRIBL.

    Kasutades ülaltoodud funktsioone, koosta prognoos taotluste laekumise kohta dispetšerteenistusse jooksva kuu 12.-14.

    Looge algse ja vastuvõetud andmeseeria diagramm.

Probleemi lahendus

Pange tähele, et erinevalt funktsioonidest TREND ja GROWTH ei ole ükski ülaltoodud funktsioonidest (SLOPE, INTERCEPT, LINEST, LGRFPRIB) regressioon. Need funktsioonid mängivad ainult toetavat rolli, määrates kindlaks vajalikud regressiooniparameetrid.

Funktsioonide SLOPE, INTERCEPT, LINEST, LGRFPRIB abil koostatud lineaarsete ja eksponentsiaalsete regressioonide puhul on nende võrrandite välimus alati teada, erinevalt funktsioonidele TREND ja GROWTH vastavatest lineaarsetest ja eksponentsiaalsetest regressioonidest.

1 . Koostame lineaarse regressiooni võrrandiga:

y = mx+b

kasutades funktsioone SLOPE ja INTERCEPT, kusjuures regressioonikalde m määrab SLOPE funktsioon ja vaba liige b funktsiooni INTERCEPT abil.

Selleks viime läbi järgmised toimingud:

    sisestage algne tabel lahtrivahemikku A4:B14;

    parameetri m väärtus määratakse lahtris C19. Valige kategooriast Statistiline funktsioon Kaldus; sisestage lahtrite vahemik B4:B14 väljale teadaolevad_väärtused_y ja lahtrite vahemik A4:A14 väljale teadaolevad_väärtused_x. Valem sisestatakse lahtrisse C19: =SLOPE(B4:B14,A4:A14);

    Sarnast tehnikat kasutades määratakse parameetri b väärtus lahtris D19. Ja selle sisu näeb välja selline: =SEGMENT(B4:B14,A4:A14). Seega salvestatakse lineaarse regressiooni koostamiseks vajalike parameetrite m ja b väärtused vastavalt lahtritesse C19, D19;

    Järgmisena sisestage lahtrisse C4 lineaarse regressiooni valem kujul: =$C*A4+$D. Selles valemis kirjutatakse lahtrid C19 ja D19 absoluutsete viidetega (lahtri aadress ei tohiks võimaliku kopeerimise käigus muutuda). Absoluutse viitemärgi $ saab sisestada kas klaviatuurilt või kasutades klahvi F4, pärast kursori asetamist lahtri aadressile. Täitepideme abil kopeerige see valem lahtrite vahemikku C4:C17. Saame vajalikud andmeread (joon. 12). Kuna päringute arv on täisarv, peaksite akna Lahtrivorming vahekaardil Number määrama arvuvorminguks komakohtade arvuga 0.

2 . Nüüd koostame võrrandiga antud lineaarse regressiooni:

y = mx+b

kasutades funktsiooni LINEST.

Selle jaoks:

    Sisestage funktsioon LINEST massiivivalemina lahtrivahemikus C20:D20: =(LINEST(B4:B14,A4:A14)). Selle tulemusena saame parameetri m väärtuse lahtris C20 ja parameetri b väärtuse lahtris D20;

    sisesta lahtrisse D4 valem: =$C*A4+$D;

    kopeerige see valem täitemarkeri abil lahtrivahemikku D4:D17 ja hankige soovitud andmeseeria.

3 . Koostame eksponentsiaalse regressiooni võrrandiga:

LGRFPRIBL funktsiooni kasutades teostatakse seda sarnaselt:

    Lahtrivahemikus C21:D21 sisestame massiivivalemina funktsiooni LGRFPRIBL: =( LGRFPRIBL (B4:B14,A4:A14)). Sel juhul määratakse parameetri m väärtus lahtris C21 ja parameetri b väärtus lahtris D21;

    valem sisestatakse lahtrisse E4: =$D*$C^A4;

    täitemarkerit kasutades kopeeritakse see valem lahtrite vahemikku E4:E17, kus paiknevad eksponentsiaalse regressiooni andmeread (vt joonis 12).

Joonisel fig. Joonisel 13 on näha tabel, kus on näha funktsioonid, mida me nõutud lahtrivahemikega kasutame, ja ka valemid.

Suurusjärk R 2 helistas määramiskoefitsient.

Regressioonisõltuvuse konstrueerimise ülesanne on leida mudeli (1) koefitsientide m vektor, mille juures koefitsient R saab maksimaalse väärtuse.

R-i olulisuse hindamiseks kasutatakse Fisheri F-testi, mis arvutatakse valemiga

Kus n- valimi suurus (katsete arv);

k on mudeli koefitsientide arv.

Kui F ületab mõne andmete kriitilise väärtuse n Ja k ja aktsepteeritud usaldustõenäosus, siis loetakse R väärtus oluliseks. F kriitiliste väärtuste tabelid on toodud matemaatilise statistika teatmeteostes.

Seega määrab R olulisuse mitte ainult selle väärtus, vaid ka katsete arvu ja mudeli koefitsientide (parameetrite) arvu suhe. Tõepoolest, n=2 korrelatsioonisuhe lihtsa lineaarse mudeli korral on võrdne 1-ga (ühe sirge saab alati tõmmata läbi 2 punkti tasapinnal). Kui aga katseandmed on juhuslikud muutujad, tuleks sellist R väärtust usaldada väga ettevaatlikult. Tavaliselt püüavad nad märkimisväärse R ja usaldusväärse regressiooni saamiseks tagada, et katsete arv ületaks oluliselt mudeli koefitsientide arvu (n> k).

Lineaarse regressioonimudeli koostamiseks vajate:

1) koostage katseandmeid sisaldav n rea ja m veeru loend (väljundväärtust sisaldav veerg Y peab olema loendis esimene või viimane); Näiteks võtame eelmise ülesande andmed, lisades veeru nimega "Perioodi nr", nummerdage perioodi numbrid vahemikus 1 kuni 12. (need on väärtused X)

2) mine menüüsse Data/Data Analysis/Regression

Kui menüüst "Tööriistad" on puudu "Andmete analüüs", siis tuleks minna samas menüüs punkti "Lisandmoodulid" ja märkida linnuke "Analüüsipakett".

3) määrake dialoogiboksis "Regression":

· sisestusintervall Y;

· sisestusintervall X;

· väljundintervall - intervalli ülemine vasak lahter, kuhu arvutustulemused paigutatakse (soovitav on paigutada need uuele töölehel);

4) klõpsake "Ok" ja analüüsige tulemusi.

  • Õpetus

Sissejuhatus

Olen matemaatik ja programmeerija. Suurim hüpe, mille ma oma karjääri jooksul tegin, oli see, kui õppisin ütlema: "Ma ei saa millestki aru!" Nüüd ma ei häbene öelda teaduse valgustajale, et ta peab mulle loengut, et ma ei saa aru, mida tema, valgusti, mulle räägib. Ja see on väga raske. Jah, oma teadmatuse tunnistamine on raske ja piinlik. Kellele meeldib tunnistada, et ta ei tea millegi põhitõdesid? Oma ametist tulenevalt pean kohal käima suured hulgad ettekanded ja loengud, kus, tunnistan, tahan enamikul juhtudel magada, sest ma ei saa millestki aru. Aga ma ei saa aru, sest teaduse praeguse olukorra suur probleem seisneb matemaatikas. See eeldab, et kõik kuulajad tunnevad absoluutselt kõiki matemaatika valdkondi (mis on absurdne). Tunnistada, et te ei tea, mis on tuletis (mis see on, räägime sellest veidi hiljem), on häbiväärne.

Aga ma olen õppinud ütlema, et ma ei tea, mis on korrutamine. Jah, ma ei tea, mis on alamgebra üle Lie algebra. Jah, ma ei tea, miks neid elus vaja on ruutvõrrandid. Muide, kui olete kindel, et teate, siis on meil millestki rääkida! Matemaatika on trikkide jada. Matemaatikud püüavad avalikkust segadusse ajada ja hirmutada; kus pole segadust, pole ka mainet ega autoriteeti. Jah, prestiižne on rääkida võimalikult abstraktses keeles, mis on täielik jama.

Kas sa tead, mis on tuletis? Tõenäoliselt räägite mulle erinevuse suhte piirist. Peterburi Riikliku Ülikooli matemaatika ja mehaanika esimesel kursusel rääkis mulle Viktor Petrovitš Khavin kindlaks määratud tuletis kui funktsiooni Taylori seeria esimese liikme koefitsient punktis (see oli eraldi võimlemine Taylori seeria määramiseks ilma tuletisi). Naersin selle määratluse üle kaua, kuni lõpuks sain aru, millega tegu. Tuletis pole midagi muud kui lihtne mõõt selle kohta, kui sarnane on eristatav funktsioon funktsiooniga y=x, y=x^2, y=x^3.

Nüüd on mul au pidada loenguid üliõpilastele, kes kardan matemaatika. Kui kardad matemaatikat, siis oleme samal teel. Niipea, kui proovite mõnda teksti lugeda ja teile tundub, et see on liiga keeruline, teadke, et see on halvasti kirjutatud. Ma väidan, et pole ühtegi matemaatika valdkonda, mida ei saaks arutada "näpuga" ilma täpsust kaotamata.

Lähituleviku ülesanne: andsin oma õpilastele ülesandeks mõista, mis on lineaarne ruutregulaator. Ärge olge häbelik, kulutage kolm minutit oma elust ja järgige linki. Kui te millestki aru ei saa, siis oleme samal teel. Ka mina (professionaalne matemaatik-programmeerija) ei saanud millestki aru. Ja ma kinnitan teile, et saate selle "näpuga" välja mõelda. Peal Sel hetkel Ma ei tea, mis see on, aga ma kinnitan teile, et saame selle välja mõelda.

Niisiis, esimene loeng, mida ma oma õpilastele pean pärast seda, kui nad õudusega minu juurde jooksevad ja ütlevad, et lineaar-ruutregulaator on kohutav asi, mida te kunagi oma elus ei valda. vähimruutude meetodid. Kas saate otsustada lineaarvõrrandid? Kui sa seda teksti loed, siis suure tõenäosusega mitte.

Seega, kui on antud kaks punkti (x0, y0), (x1, y1), näiteks (1,1) ja (3,2), on ülesandeks leida neid kahte punkti läbiva sirge võrrand:

illustratsioon

Sellel real peaks olema järgmine võrrand:

Siin on alfa ja beeta meile tundmatud, kuid selle joone kaks punkti on teada:

Selle võrrandi saame kirjutada maatriksi kujul:

Siin tuleks teha lüüriline kõrvalepõik: mis on maatriks? Maatriks pole midagi muud kui kahemõõtmeline massiiv. See on andmete salvestamise viis, millele ei tohiks lisada täiendavaid tähendusi. See, kuidas teatud maatriksit täpselt tõlgendada, sõltub meist endist. Perioodiliselt tõlgendan seda lineaarse kaardistusena, perioodiliselt ruutvormina ja mõnikord lihtsalt vektorite kogumina. Seda kõike selgitatakse kontekstis.

Asendame betoonmaatriksid nende sümboolse esitusega:

Siis (alfa, beeta) saab hõlpsasti leida:

Täpsemalt meie varasemate andmete kohta:

Mis annab punkte (1,1) ja (3,2) läbiva sirge järgmise võrrandi:

Olgu, siin on kõik selge. Leiame läbiva sirge võrrandi kolm punktid: (x0,y0), (x1,y1) ja (x2,y2):

Oi-oi-oi, aga kahe tundmatu jaoks on meil kolm võrrandit! Tavaline matemaatik ütleb, et lahendust pole. Mida programmeerija ütleb? Ja kõigepealt kirjutab ta eelmise võrrandisüsteemi ümber järgmisel kujul:

Meie puhul vektorid i,j,b on kolmemõõtmelised, mistõttu (üldjuhul) sellele süsteemile lahendust ei ole. Iga vektor (alfa\*i + beeta\*j) asub vektorite (i, j) poolt katval tasapinnal. Kui b ei kuulu sellele tasapinnale, siis pole lahendust (võrrandis ei saa võrdsust saavutada). Mida teha? Otsime kompromissi. Tähistagem e (alfa, beeta) täpselt, kui kaugele me pole võrdsust saavutanud:

Ja me püüame seda viga minimeerida:

Miks ruut?

Me ei otsi lihtsalt normi miinimumi, vaid normi ruudu miinimumi. Miks? Miinimumpunkt ise langeb kokku ja ruut annab sujuva funktsiooni (argumentide ruutfunktsioon (alfa, beeta)), samas kui lihtsalt pikkus annab koonusekujulise funktsiooni, mis ei ole miinimumpunktis eristatav. Brr. Ruut on mugavam.

Ilmselt on viga minimeeritud, kui vektor e vektorite poolt hõlmatud tasapinnaga risti i Ja j.

Illustratsioon

Teisisõnu: otsime sirgjoont, mille kõigi punktide ja selle sirge kauguste ruudu pikkuste summa on minimaalne:

VÄRSKENDUS: Mul on siin probleem, kaugust sirgest tuleks mõõta vertikaalselt, mitte ortogonaalprojektsiooniga. Sellel kommentaatoril on õigus.

Illustratsioon

Täiesti erinevate sõnadega (hoolsalt, halvasti vormistatud, kuid see peaks olema selge): võtame kõik võimalikud jooned kõigi punktipaaride vahel ja otsime kõigi vahelt keskmist joont:

Illustratsioon

Veel üks selgitus sõrmede kohta: kinnitame vedru kõigi andmepunktide (siin on kolm) ja otsitava sirge ja sirge vahele tasakaaluseisund seal on täpselt see, mida otsime.

Minimaalne ruutvorm

Niisiis, arvestades seda vektorit b ja maatriksi veeruvektoritega hõlmatud tasapind A(antud juhul (x0,x1,x2) ja (1,1,1)), otsime vektorit e minimaalse ruudu pikkusega. Ilmselgelt on miinimum saavutatav ainult vektori puhul e, risti maatriksi veeruvektoritega kaetud tasapinnaga A:

Teisisõnu otsime vektorit x=(alfa, beeta), et:

Lubage mul teile meelde tuletada, et see vektor x=(alfa, beeta) on minimaalne ruutfunktsioon||e(alfa, beeta)||^2:

Siinkohal oleks kasulik meeles pidada, et maatriksit saab tõlgendada ka ruutvormina, näiteks identiteedimaatriksit ((1,0),(0,1)) saab tõlgendada funktsioonina x^2 + y^ 2:

ruutvorm

Kogu see võimlemine on tuntud lineaarse regressiooni nime all.

Laplace'i võrrand Dirichlet' piirtingimusega

Nüüd kõige lihtsam tegelik ülesanne: on olemas teatud kolmnurkne pind, seda on vaja siluda. Näiteks laadime minu näo mudeli:

Algne kohustus on saadaval. Väliste sõltuvuste minimeerimiseks võtsin oma tarkvara renderdaja koodi, juba Habré peal. Lahenduste jaoks lineaarne süsteem Kasutan OpenNL-i, see on suurepärane lahendaja, mida on aga väga raske paigaldada: pead kopeerima kaks faili (.h+.c) oma projektiga kausta. Kogu silumine toimub järgmise koodiga:

For (int d=0; d<3; d++) { nlNewContext(); nlSolverParameteri(NL_NB_VARIABLES, verts.size()); nlSolverParameteri(NL_LEAST_SQUARES, NL_TRUE); nlBegin(NL_SYSTEM); nlBegin(NL_MATRIX); for (int i=0; i<(int)verts.size(); i++) { nlBegin(NL_ROW); nlCoefficient(i, 1); nlRightHandSide(verts[i][d]); nlEnd(NL_ROW); } for (unsigned int i=0; i&face = näod[i]; jaoks (int j=0; j<3; j++) { nlBegin(NL_ROW); nlCoefficient(face[ j ], 1); nlCoefficient(face[(j+1)%3], -1); nlEnd(NL_ROW); } } nlEnd(NL_MATRIX); nlEnd(NL_SYSTEM); nlSolve(); for (int i=0; i<(int)verts.size(); i++) { verts[i][d] = nlGetVariable(i); } }

X, Y ja Z koordinaadid on eraldatavad, silun eraldi. See tähendab, et lahendan kolm lineaarvõrrandisüsteemi, millest igaühel on minu mudeli tippude arvuga võrdne muutujate arv. Maatriksi A esimesel n real on ainult üks 1 rea kohta ja vektori b esimesel n real on mudeli algsed koordinaadid. See tähendab, et seon tipu uue asukoha ja tipu vana asendi vahele vedru - uued ei tohiks vanadest liiga kaugele liikuda.

Kõigil järgnevatel maatriksi A ridadel (faces.size()*3 = kõigi võrgusilma kolmnurkade servade arv) on üks esinemine 1 ja üks esinemine -1, kusjuures vektoril b on nullkomponente. See tähendab, et panen meie kolmnurkse võrgu igale servale vedru: kõik servad püüavad saada sama tipu algus- ja lõpp-punktiga.

Veel kord: kõik tipud on muutujad ja nad ei saa oma algsest asukohast kaugele liikuda, kuid samal ajal püüavad nad muutuda üksteisega sarnaseks.

Siin on tulemus:

Kõik oleks hästi, mudel on tõesti silutud, kuid see on oma esialgsest servast eemaldunud. Muudame veidi koodi:

For (int i=0; i<(int)verts.size(); i++) { float scale = border[i] ? 1000: 1; nlBegin(NL_ROW); nlCoefficient(i, scale); nlRightHandSide(scale*verts[i][d]); nlEnd(NL_ROW); }

Meie maatriksis A serval olevate tippude jaoks ei lisa ma rida kategooriast v_i = verts[i][d], vaid 1000*v_i = 1000*verts[i][d]. Mida see muudab? Ja see muudab meie vea ruutlikku vormi. Nüüd maksab üks kõrvalekalle ülemisest servast mitte ühe ühiku, nagu varem, vaid 1000*1000 ühikut. See tähendab, et äärmiste tippude külge riputasime tugevama vedru, lahendus eelistab teisi tugevamalt venitada. Siin on tulemus:

Kahekordistame tippude vahelist vedru tugevust:
nlKoefitsient(nägu[ j ], 2); nlKoefitsient(nägu[(j+1)%3], -2);

On loogiline, et pind on muutunud siledamaks:

Ja nüüd isegi sada korda tugevam:

Mis see on? Kujutage ette, et oleme kastnud traatrõnga seebivette. Selle tulemusena püüab saadud seebikile olla võimalikult väike kumerus, puudutades piiri - meie traatrõngast. Täpselt selle saimegi, kui kinnitasime piirde ja palusime seest sileda pinna. Õnnitleme, lahendasime just Laplace'i võrrandi Dirichlet' piirtingimustega. Kõlab lahedalt? Kuid tegelikult peate lihtsalt lahendama ühe lineaarvõrrandisüsteemi.

Poissoni võrrand

Meenutagem veel üht lahedat nime.

Oletame, et mul on selline pilt:

Tundub kõigile hea, aga mulle see tool ei meeldi.

Ma lõikan pildi pooleks:



Ja ma valin oma kätega tooli:

Seejärel tõmban kõik, mis maskis on valge, pildi vasakusse serva ja samal ajal kogu pildi ulatuses ütlen, et kahe naaberpiksli vahe peaks olema võrdne kahe parema naaberpiksli vahega. pilt:

For (int i=0; i

Siin on tulemus:

Kood ja pildid olemas

Sellel on palju rakendusi, kuna see võimaldab antud funktsiooni ligikaudset esitust teiste lihtsamate funktsioonidega. LSM võib olla väga kasulik vaatluste töötlemisel ja seda kasutatakse aktiivselt mõnede suuruste hindamiseks teiste juhuslikke vigu sisaldavate mõõtmistulemuste põhjal. Sellest artiklist saate teada, kuidas Excelis vähimruutude arvutusi rakendada.

Probleemi avaldus konkreetse näite abil

Oletame, et on kaks indikaatorit X ja Y. Veelgi enam, Y sõltub X-st. Kuna OLS huvitab meid regressioonanalüüsi seisukohast (Excelis on selle meetodid rakendatud sisseehitatud funktsioonide abil), tuleks kohe asuda kaaluma konkreetne probleem.

Seega olgu X toidupoe kaubanduspind ruutmeetrites ja Y aastakäive miljonites rublades.

On vaja teha prognoos, milline on käive (Y), kui kauplusel on see või teine ​​kaubanduspind. Ilmselgelt funktsioon Y = f (X) suureneb, kuna hüpermarket müüb rohkem kaupa kui müügilett.

Paar sõna ennustuseks kasutatud algandmete õigsusest

Oletame, et meil on n poe andmete põhjal koostatud tabel.

Matemaatilise statistika järgi on tulemused enam-vähem õiged, kui uurida vähemalt 5-6 objekti andmeid. Lisaks ei saa kasutada anomaalseid tulemusi. Eelkõige võib elitaarse väikese butiigi käive olla mitu korda suurem kui "masmarketi" klassi suurte jaemüügipunktide käive.

Meetodi olemus

Tabeli andmeid saab kujutada Descartes'i tasapinnal punktide M 1 (x 1, y 1), ... M n (x n, y n) kujul. Nüüd taandatakse ülesande lahendus lähendava funktsiooni y = f (x) valikule, mille graafik läbib võimalikult lähedalt punktidele M 1, M 2, .. M n.

Muidugi võite kasutada kõrge astme polünoomi, kuid seda valikut pole mitte ainult raske rakendada, vaid ka lihtsalt vale, kuna see ei kajasta peamist suundumust, mida tuleb tuvastada. Kõige mõistlikum lahendus on otsida sirget y = ax + b, mis kõige paremini lähendab katseandmeid ehk täpsemalt koefitsiente a ja b.

Täpsuse hindamine

Mis tahes lähendamise korral on selle täpsuse hindamine eriti oluline. Tähistame e i-ga punkti x i funktsionaalsete ja eksperimentaalsete väärtuste erinevust (hälvet), st e i = y i - f (x i).

Ilmselt võite lähenduse täpsuse hindamiseks kasutada hälvete summat, st kui valite sirge X-i sõltuvuse ligikaudseks esituseks Y-st, peaksite eelistama seda, mille väärtus on väikseim. summa e i kõigis vaadeldavates punktides. Kuid kõik pole nii lihtne, kuna koos positiivsete kõrvalekalletega on ka negatiivseid.

Probleemi saab lahendada hälbemoodulite või nende ruutude abil. Viimane meetod on kõige laialdasemalt kasutatav. Seda kasutatakse paljudes valdkondades, sealhulgas regressioonanalüüsis (rakendatud Excelis kahe sisseehitatud funktsiooni abil) ja see on juba ammu oma tõhusust tõestanud.

Vähima ruudu meetod

Nagu teate, on Excelil sisseehitatud funktsioon AutoSum, mis võimaldab teil arvutada kõigi valitud vahemikus asuvate väärtuste väärtused. Seega ei takista miski meil avaldise väärtust (e 1 2 + e 2 2 + e 3 2 + ... e n 2) arvutamast.

Matemaatilises tähistuses näeb see välja järgmine:

Kuna algselt otsustati ligikaudselt sirgjoont kasutada, on meil:

Seega taandub ülesanne leida sirgjoon, mis kõige paremini kirjeldab suuruste X ja Y spetsiifilist sõltuvust, kahe muutuja funktsiooni miinimumi arvutamisele:

Selleks peate võrdsustama uute muutujate a ja b osatuletised nulliga ning lahendama primitiivse süsteemi, mis koosneb kahest võrrandist kahe tundmatu kujuga:

Pärast mõningaid lihtsaid teisendusi, sealhulgas 2-ga jagamist ja summadega manipuleerimist, saame:

Seda lahendades, kasutades näiteks Crameri meetodit, saame teatud koefitsientidega a * ja b * statsionaarse punkti. See on miinimum, s.t et ennustada, milline on kaupluse käive teatud piirkonnas, sobib sirge y = a * x + b *, mis on vaadeldava näite regressioonimudel. Loomulikult ei võimalda see teil täpset tulemust leida, kuid aitab teil saada aimu, kas konkreetse ala poekrediidiga ostmine tasub end ära.

Kuidas rakendada Excelis vähimruutusid

Excelis on funktsioon väärtuste arvutamiseks vähimruutude abil. Sellel on järgmine vorm: "TREND" (teadaolevad Y väärtused; teadaolevad X väärtused; uued X väärtused; konstant). Rakendame oma tabelisse OLS-i arvutamise valemit Excelis.

Selleks sisestage lahtrisse, kus peaks kuvama Exceli vähimruutude meetodil tehtud arvutuse tulemust, märk “=” ja valige funktsioon “TREND”. Avanevas aknas täitke vastavad väljad, tõstes esile:

  • Y teadaolevate väärtuste vahemik (antud juhul kaubakäibe andmed);
  • vahemik x 1 , …x n , st kaubanduspinna suurus;
  • x-i teadaolevad ja tundmatud väärtused, mille jaoks peate välja selgitama käibe suuruse (teavet nende asukoha kohta töölehel vt allpool).

Lisaks sisaldab valem loogilist muutujat “Const”. Kui sisestate vastavale väljale 1, tähendab see, et peaksite tegema arvutused, eeldades, et b = 0.

Kui teil on vaja teada saada rohkem kui ühe x väärtuse prognoos, siis pärast valemi sisestamist ärge vajutage sisestusklahvi, vaid peate klaviatuuril tippima kombinatsiooni "Shift" + "Control" + "Enter".

Mõned funktsioonid

Regressioonanalüüs on kättesaadav isegi mannekeenidele. Exceli valemit tundmatute muutujate massiivi väärtuse ennustamiseks – TREND – saavad kasutada isegi need, kes pole vähimruutudest kuulnudki. Piisab vaid mõne selle töö funktsiooni tundmisest. Eriti:

  • Kui korraldate muutuja y teadaolevate väärtuste vahemiku ühte ritta või veergu, siis tajub programm iga rida (veerg) teadaolevate väärtustega x eraldi muutujana.
  • Kui TREND aknas ei ole määratud vahemikku, mille x-iga on teada, siis Excelis funktsiooni kasutamisel käsitleb programm seda täisarvudest koosneva massiivina, mille arv vastab vahemikule antud väärtustega. muutuja y.
  • Ennustatud väärtuste massiivi väljastamiseks tuleb trendi arvutamise avaldis sisestada massiivivalemina.
  • Kui x uusi väärtusi pole määratud, loeb funktsioon TREND need võrdseks teadaolevatega. Kui neid ei täpsustata, võetakse argumendiks massiiv 1; 2; 3; 4;…, mis on proportsionaalne juba määratud parameetritega y vahemikuga.
  • Uusi x väärtusi sisaldav vahemik peab sisaldama sama või enamat rida või veergu kui antud y väärtusi sisaldavas vahemikus. Teisisõnu, see peab olema proportsionaalne sõltumatute muutujatega.
  • Teadaolevate x väärtustega massiiv võib sisaldada mitut muutujat. Kui aga räägime ainult ühest, siis on nõutav, et antud väärtustega x ja y vahemikud oleksid proportsionaalsed. Mitme muutuja puhul on vajalik, et antud y väärtustega vahemik mahuks ühte veergu või ühte ritta.

funktsioon PRODICTION

Rakendatakse mitme funktsiooni abil. Üks neist kannab nime “ENNUSTUS”. See sarnaneb TRENDiga, st annab vähimruutude meetodil tehtud arvutuste tulemuse. Kuid ainult ühe X puhul, mille Y väärtus on teadmata.

Nüüd teate Excelis mannekeenide valemeid, mis võimaldavad ennustada konkreetse indikaatori tulevast väärtust vastavalt lineaarsele trendile.

Vähima ruudu meetod kasutatakse regressioonivõrrandi parameetrite hindamiseks.
Ridade arv (lähteandmed)

Üks tunnustevaheliste stohhastiliste seoste uurimise meetodeid on regressioonanalüüs.
Regressioonanalüüs on regressioonivõrrandi tuletamine, mille abil leitakse juhusliku suuruse (tulemuse atribuudi) keskmine väärtus, kui on teada mõne teise (või mõne muu) muutuja (faktor-atribuudi) väärtus. See sisaldab järgmisi samme.

  1. seose vormi valik (analüütilise regressioonivõrrandi tüüp);
  2. võrrandi parameetrite hindamine;
  3. analüütilise regressioonivõrrandi kvaliteedi hindamine.
Kõige sagedamini kasutatakse tunnuste statistilise seose kirjeldamiseks lineaarset vormi. Lineaarsetele seostele keskendumine on seletatav selle parameetrite selge majandusliku tõlgendamisega, muutujate piiratud varieerumisega ja asjaoluga, et enamasti teisendatakse mittelineaarsed seoste vormid (logaritmi või muutujate asendamise teel) arvutuste tegemiseks lineaarseks vormiks. .
Lineaarse paaripõhise seose korral on regressioonivõrrand järgmine: y i =a+b·x i +u i . Selle võrrandi parameetrid a ja b on hinnatud statistiliste vaatlusandmete x ja y põhjal. Sellise hindamise tulemuseks on võrrand: , kus , on parameetrite a ja b hinnangud, on regressioonivõrrandist saadud atribuudi (muutuja) väärtus (arvutuslik väärtus).

Kõige sagedamini kasutatakse parameetrite hindamiseks vähimruutude meetod (LSM).
Vähimruutude meetod annab regressioonivõrrandi parameetrite parimad (järjekindlad, tõhusad ja erapooletud) hinnangud. Kuid ainult juhul, kui teatud eeldused juhusliku liikme (u) ja sõltumatu muutuja (x) kohta on täidetud (vt OLS-i eeldusi).

Lineaarpaarvõrrandi parameetrite hindamise probleem vähimruutude meetodil on järgmine: selliste parameetrite hinnangute saamiseks , mille korral saadud karakteristiku tegelike väärtuste y i ruudu hälvete summa arvutatud väärtustest on minimaalne.
Formaalselt OLS test võib kirjutada nii: .

Vähimruutude meetodite klassifikatsioon

  1. Vähima ruudu meetod.
  2. Maksimaalse tõenäosuse meetod (tavalise klassikalise lineaarse regressioonimudeli puhul eeldatakse regressioonijääkide normaalsust).
  3. Üldistatud vähimruutude OLS meetodit kasutatakse vigade autokorrelatsiooni ja heteroskedastilisuse korral.
  4. Kaalutud vähimruutude meetod (OLS-i erijuhtum heteroskedastiliste jääkidega).

Illustreerime mõtet klassikaline vähimruutude meetod graafiliselt. Selleks koostame vaatlusandmete (x i, y i, i=1;n) põhjal ristkülikukujulises koordinaatsüsteemis (sellist hajuvusgraafikut nimetatakse korrelatsiooniväljaks) hajuvusdiagrammi. Proovime valida sirge, mis on korrelatsioonivälja punktidele kõige lähemal. Vähimruutude meetodi järgi valitakse joon nii, et korrelatsioonivälja punktide ja selle sirge vertikaalsete kauguste ruutude summa on minimaalne.

Selle ülesande matemaatiline tähistus: .
Väärtused y i ja x i =1...n on meile teada, need on vaatlusandmed. Funktsioonis S esindavad nad konstante. Selle funktsiooni muutujad on parameetrite nõutavad hinnangud - , . Kahe muutuja funktsiooni miinimumi leidmiseks on vaja iga parameetri jaoks arvutada selle funktsiooni osatuletised ja võrdsustada need nulliga, s.o. .
Selle tulemusel saame kahe normaalse lineaarvõrrandi süsteemi:
Selle süsteemi lahendamisel leiame vajalikud parameetrite hinnangud:

Regressioonivõrrandi parameetrite arvutamise õigsust saab kontrollida summade võrdlemisel (võib esineda mõningast lahknevust arvutuste ümardamise tõttu).
Parameetrite hinnangute arvutamiseks saate koostada tabeli 1.
Regressioonikordaja b märk näitab seose suunda (kui b >0 on seos otsene, kui b<0, то связь обратная). Величина b показывает на сколько единиц изменится в среднем признак-результат -y при изменении признака-фактора - х на 1 единицу своего измерения.
Formaalselt on parameetri a väärtus y keskmine väärtus, mille x võrdub nulliga. Kui atribuut-teguril ei ole ega saa olla nullväärtust, siis pole parameetri a ülaltoodud tõlgendusel mõtet.

Tunnustevahelise seose läheduse hindamine teostatud kasutades lineaarse paari korrelatsioonikordajat - r x,y. Seda saab arvutada järgmise valemi abil: . Lisaks saab lineaarse paari korrelatsioonikordaja määrata regressioonikordaja b abil: .
Lineaarse paari korrelatsioonikordaja vastuvõetavate väärtuste vahemik on –1 kuni +1. Korrelatsioonikordaja märk näitab seose suunda. Kui r x, y >0, siis on ühendus otsene; kui r x, y<0, то связь обратная.
Kui see koefitsient on suurusjärgus ühtsuse lähedane, siis võib tunnuste vahelist seost tõlgendada üsna tiheda lineaarsena. Kui selle moodul on võrdne ühega ê r x , y ê =1, siis on tunnuste vaheline seos funktsionaalne lineaarne. Kui tunnused x ja y on lineaarselt sõltumatud, siis r x,y on nullilähedane.
R x,y arvutamiseks võite kasutada ka tabelit 1.

Tabel 1

N tähelepanekuidx iy ix i ∙y i
1 x 1y 1x 1 a 1
2 x 2y 2x 2 a 2
...
nx ny nx n y n
Veeru summa∑x∑a∑xy
Keskmine väärtus
Saadud regressioonivõrrandi kvaliteedi hindamiseks arvutage teoreetiline määramiskordaja - R 2 yx:

,
kus d 2 on y dispersioon, mis on seletatav regressioonivõrrandiga;
e 2 - y jääk (regressioonivõrrandiga seletamatu) dispersioon;
s 2 y - y kogu (kogu) dispersioon.
Determinatsioonikoefitsient iseloomustab regressiooniga (ja järelikult ka teguri x) seletatava resultatiivse atribuudi y variatsiooni (dispersiooni) osakaalu koguvariatsioonis (dispersioonis) y. Määramiskoefitsient R 2 yx võtab väärtused vahemikus 0 kuni 1. Vastavalt sellele iseloomustab väärtus 1-R 2 yx dispersiooni y osakaalu, mis on põhjustatud muude mudelis arvestamata tegurite mõjust ja spetsifikatsioonivigadest.
Paaritud lineaarse regressiooniga R 2 yx =r 2 yx.