Pregled postojećih metoda prepoznavanja obrazaca. Prepoznavanje uzoraka

Slanje vašeg dobrog rada u bazu znanja je jednostavno. Koristite obrazac ispod

dobar posao na stranicu">

Studenti, postdiplomci, mladi naučnici koji koriste bazu znanja u svom studiranju i radu biće vam veoma zahvalni.

Objavljeno na http://www.allbest.ru/

Ministarstvo obrazovanja i nauke Ruske Federacije

Novosibirsk državni univerzitet Ekonomija i menadžment "NINH"

Fakultet informacionih tehnologija

Katedra za primijenjene informacione tehnologije

u disciplini Fuzzy logika i neuronske mreže

Prepoznavanje uzoraka

Smjer: Poslovna informatika (elektronsko poslovanje)

Puno ime studenta: Mazur Ekaterina Vitalievna

Provjerila: Pavlova Anna Illarionovna

Novosibirsk 2016

  • Uvod
  • 1. Koncept priznanja
    • 1.1 Istorija razvoja
    • 1.2 Klasifikacija metoda prepoznavanja obrazaca
  • 2. Metode prepoznavanja uzoraka
  • 3. Opće karakteristike zadaci prepoznavanja obrazaca i njihovi tipovi
  • 4. Problemi i izgledi za razvoj prepoznavanja obrazaca
    • 4.1 Primjena prepoznavanja obrazaca u praksi
  • Zaključak

Uvod

Dosta dugo se problem prepoznavanja obrazaca razmatrao samo s biološke točke gledišta. U ovom slučaju uočene su samo kvalitativne karakteristike koje nisu omogućile opisivanje mehanizma funkcionisanja.

Koncept koji je uveo N. Wiener početkom 20. vijeka kibernetika(nauka o opštim zakonima procesa upravljanja i prenosa informacija u mašinama, živim organizmima i društvu), omogućila je uvođenje kvantitativnih metoda u pitanja prepoznavanja. Odnosno, zamisliti ovaj proces (u suštini - prirodni fenomen) korištenjem matematičkih metoda.

Teorija prepoznavanja obrazaca jedna je od glavnih grana kibernetike, kako u teorijskom tako iu primijenjenom smislu. Dakle, automatizacija nekih procesa uključuje stvaranje uređaja sposobnih da odgovore na promjene karakteristika spoljašnje okruženje neke pozitivne reakcije.

Osnova za rješavanje problema ovog nivoa su rezultati klasična teorija statistička rješenja. U okviru tog okvira izgrađeni su algoritmi za određivanje klase u koju se prepoznati objekat može klasifikovati.

Svrha ovog rada je upoznati se s konceptima teorije prepoznavanja obrazaca: otkriti glavne definicije, proučiti povijest njegovog nastanka i istaknuti glavne metode i principe teorije.

Relevantnost teme leži u činjenici da je trenutno prepoznavanje obrazaca jedno od vodećih područja kibernetike. Stoga posljednjih godina sve više koristi: pojednostavljuje interakciju čovjeka s računarom i stvara preduslove za korištenje različitih sistema. umjetna inteligencija.

aplikacija za prepoznavanje slika

1. Koncept prepoznavanja

Problem prepoznavanja je dugo vremena privlačio pažnju samo naučnika u ovoj oblasti. primijenjena matematika. Kao rezultat toga, radovi R. Fišera, nastali u 20s, dovela je do formiranja diskriminantne analize – jedne od grana teorije i prakse prepoznavanja obrazaca. IN 40s A. N. Kolmogorov i A. Ya Khinčin postavili su za cilj razdvajanje mješavine dvije distribucije. I unutra 50-60s godine dvadesetog veka na osnovu velika količina radova, pojavila se teorija statističkih odluka. U okviru kibernetike počeo je da se javlja novi pravac, povezan sa razvojem teorijskih osnova i praktičnom implementacijom mehanizama, kao i sistema dizajniranih za prepoznavanje objekata i procesa. Nova disciplina se zove "Prepoznavanje uzoraka".

Prepoznavanje uzoraka(objekti) je zadatak identifikacije objekta po njegovoj slici (optičko prepoznavanje), audio zapisu (akustično prepoznavanje) ili drugim karakteristikama. Slika je klasifikacijsko grupiranje koje vam omogućava da kombinirate grupu objekata prema određenim karakteristikama. Slike imaju karakteristična karakteristika, što se očituje u činjenici da upoznavanje sa konačnim brojem pojava iz jednog skupa omogućava prepoznavanje velikog broja njegovih predstavnika. U klasičnoj formulaciji problema prepoznavanja, skup je podijeljen na dijelove.

Jedna od osnovnih definicija je i pojam mnoštvo. U računaru, skup je skup neponavljajućih elemenata istog tipa. “Neponovljiv” znači da element u skupu ili postoji ili ne. Univerzalni skup sadrži sve moguće elemente;

Zove se tehnika dodjeljivanja elementa nekoj slici odlučujuće pravilo. Drugi važan koncept je metrika- određuje udaljenost između elemenata skupa. Što je ova udaljenost manja, to su objekti (simboli, zvuci itd.) sličniji koje prepoznajemo. Standardno, elementi su specificirani kao skup brojeva, a metrika je specificirana kao neka vrsta funkcije. Efikasnost programa zavisi od izbora prikaza slike i implementacije metrike: isti algoritam za prepoznavanje sa različitim metrikama će praviti greške sa različitim frekvencijama.

Trening obično se naziva proces razvoja u određenom sistemu jedne ili druge reakcije na faktore spoljašnjih sličnih signala kroz njihov ponovljeni uticaj na sistem. Samoučenje razlikuje se od obuke po tome što se ovdje dodatne informacije o reakciji ne daju sistemu.

Primjeri zadataka prepoznavanja obrazaca su:

Prepoznavanje pisama;

Prepoznavanje barkodova;

Prepoznavanje registarskih tablica;

Prepoznavanje lica i drugih biometrijskih podataka;

Prepoznavanje govora itd.

1.1 Priča razvoj

Sredinom 50-ih R. Penrose je doveo u pitanje model neuronske mreže mozga, ukazujući na značajnu ulogu kvantnih mehaničkih efekata u njegovom funkcionisanju. Na osnovu toga, F. Rosenblatt je razvio model učenja prepoznavanja vizuelne slike, nazvan perceptron.

Crtanje1 - Perceptron kolo

Nadalje, izmišljene su različite generalizacije perceptrona, a funkcija neurona je bila komplikovana: neuroni ne samo da su mogli množiti ulazne brojeve i upoređivati ​​rezultat s vrijednostima praga, već i primjenjivati ​​više složene funkcije. Slika 2 prikazuje jednu takvu komplikaciju:

Rice. 2 Dijagram neuronske mreže.

Osim toga, topologija neuronske mreže mogla bi biti još složenija. Na primjer, ovako:

Slika 3 - Dijagram Rosenblattove neuronske mreže.

Neuronske mreže, kao složeni objekt za matematička analiza, kada se pravilno koristi, omogućilo je pronalaženje vrlo jednostavni zakoni podaci. Ali ova prednost je i izvor potencijalnih grešaka. Teškoće analize, u opštem slučaju, objašnjavaju se samo složenom strukturom, ali kao posledica toga, praktično neiscrpnim mogućnostima za generalizaciju širokog spektra obrazaca.

1.2 Klasifikacijametodeprepoznavanjeslike

Kao što smo već napomenuli, prepoznavanje obrazaca se odnosi na zadatak uspostavljanja relacija ekvivalencije između određenih slika-modela objekata u stvarnom ili idealnom svijetu.

Ovi odnosi određuju pripadnost prepoznatih objekata bilo kojoj klasi, koja se smatra nezavisnim jedinicama.

Prilikom konstruisanja algoritama za prepoznavanje, ove klase može odrediti istraživač koji koristi svoje ideje ili koristi dodatne informacije o sličnosti ili različitosti objekata u kontekstu datog zadatka. U ovom slučaju govorimo o „prepoznavanju sa nastavnikom“. U drugom, tj. Kada automatizovani sistem reši problem klasifikacije bez uključivanja dodatnih informacija, oni govore o "nenadziranom prepoznavanju".

U radovima V.A. Duke daje akademski pregled metoda prepoznavanja i koristi dva glavna načina predstavljanja znanja:

Intenzivna (u obliku dijagrama veza između atributa);

Ekstenzivno korištenjem konkretnih činjenica (objekata, primjera).

Intenzivna reprezentacija obuhvata obrasce koji objašnjavaju strukturu podataka. U odnosu na dijagnostičke probleme, takva fiksacija se sastoji u određivanju operacija na karakteristikama objekata koje dovode do željenog rezultata. Intenzivne reprezentacije se implementiraju kroz operacije nad vrijednostima i ne uključuju operacije na određenim objektima.

Zauzvrat, ekstenzionalne reprezentacije znanja povezane su sa opisom i fiksiranjem specifičnih objekata iz predmetne oblasti i implementiraju se u operacije čiji su elementi objekti kao nezavisni sistemi.

Dakle, osnova za klasifikaciju metoda prepoznavanja koju je predložio V.A. Duke, postavljeni su temeljni zakoni koji su u osnovi ljudskog načina spoznaje u principu. Ovo ovu podjelu na klase stavlja u poseban položaj u odnosu na druge manje poznate klasifikacije, koje na ovoj pozadini izgledaju umjetno i nepotpuno.

2. Metodeprepoznavanje uzoraka

Metoda grube sile. U ovoj metodi se vrši poređenje sa određenom bazom podataka, gdje je za svaki od objekata različite opcije modifikacije prikaza. Na primjer, za optičko prepoznavanje uzoraka, možete koristiti metodu nabrajanja pod različitim uglovima ili skalama, pomacima, deformacijama itd. Za slova možete nabrojati font ili njegova svojstva. U slučaju prepoznavanja zvučnih obrazaca, vrši se poređenje s nekim poznatim obrascima (riječ koju govore mnogi ljudi). Zatim se vrši detaljnija analiza karakteristika slike. U slučaju optičkog prepoznavanja, to može biti određivanje geometrijskih karakteristika. U tom slučaju, uzorak zvuka se podvrgava analizi frekvencije i amplitude.

Sljedeća metoda - upotreba veštačkih neuronske mreže (INS). To zahtijeva bilo koje ogromna količina primjeri zadatka prepoznavanja, ili posebna struktura neuronske mreže koja uzima u obzir specifičnosti datog zadatka. Ali, ipak, ova metoda je vrlo učinkovita i produktivna.

Metode zasnovane na procjenama gustine distribucije vrijednosti karakteristika. Pozajmljeno iz klasične teorije statističkih odluka, u kojoj se predmeti proučavanja smatraju implementacijama višedimenzionalnog slučajna varijabla, distribuiran u prostoru karakteristika prema nekom zakonu. Oni su zasnovani na Bayesovoj šemi donošenja odluka koja se poziva na početne vjerovatnoće objekata koji pripadaju određenoj klasi i uslovne gustine distribucije karakteristika.

Grupa metoda zasnovanih na procjeni gustoće distribucije vrijednosti karakteristika direktno je povezana sa metodama diskriminantne analize. Bayesov pristup donošenju odluka jedna je od najrazvijenijih parametarskih metoda u modernoj statistici, za koju se pretpostavlja da je poznat analitički izraz zakona distribucije (normalni zakon) i samo mali broj parametara (vektori srednjih vrijednosti i matrice kovarijanse). ) potrebno je procijeniti. Smatra se da su glavne poteškoće u korištenju ove metode potreba za pamćenjem cijelog uzorka za obuku da bi se izračunale procjene gustoće i visoka osjetljivost na uzorak za obuku.

Metode zasnovane na pretpostavkama o klasi funkcija odlučivanja. U ovoj grupi se smatra poznate vrste precizira se odlučujuća funkcija i funkcionalnost njenog kvaliteta. Na osnovu ove funkcionalnosti, optimalna aproksimacija funkciji odlučivanja je pronađena korištenjem sekvence obuke. Funkcija kvaliteta pravila odluke obično je povezana s greškom. Glavna prednost metode je jasnoća matematičke formulacije problema prepoznavanja. Mogućnost izvlačenja novog znanja o prirodi objekta, posebno znanja o mehanizmima interakcije atributa, ovdje je u osnovi ograničena datom strukturom. interakcije, fiksirane u odabranom obliku funkcija odlučivanja.

Metoda poređenja sa prototipom. Ovo je najlakši metod ekstenzivnog prepoznavanja u praksi. Koristi se kada su prepoznate klase prikazane kao kompaktne geometrijske klase. Zatim se kao tačka prototipa bira centar geometrijskog grupiranja (ili objekat najbliži centru).

Da bi se klasifikovao nedefinisani objekat, pronađe se njemu najbliži prototip i objekat pripada istoj klasi kao i on. Očigledno, u ovoj metodi se ne formiraju uopštene slike. Različite vrste udaljenosti mogu se koristiti kao mjera.

k metoda najbližih susjeda. Metoda se sastoji u tome da se prilikom klasifikacije nepoznatog objekta pronađe zadati broj (k) geometrijski najbližih karakteristika u prostoru drugih najbližih susjeda sa već poznatim članstvom u bilo kojoj klasi. Odluka o klasifikaciji nepoznatog objekta donosi se analizom informacija o njegovim najbližim susjedima. Potreba za smanjenjem broja objekata u uzorku za obuku (dijagnostički presedani) je nedostatak ove metode, jer se time smanjuje reprezentativnost uzorka za obuku.

Na osnovu činjenice da se različiti algoritmi za prepoznavanje ponašaju različito na istom uzorku, postavlja se pitanje sintetičkog pravila odlučivanja koje bi koristilo prednosti svih algoritama. U tu svrhu postoji sintetička metoda ili grupe pravila odlučivanja koja kombinuju najpozitivnije aspekte svake metode.

Da zaključimo pregled metoda prepoznavanja, izložimo suštinu navedenog u pivot table, dodajući i neke druge metode koje se koriste u praksi.

Tabela 1. Tabela klasifikacije metoda prepoznavanja, poređenje područja njihove primjene i ograničenja

Klasifikacija metoda prepoznavanja

Područje primjene

Ograničenja (nedostaci)

Intenzivne metode prepoznavanja

Metode zasnovane na procjenama gustine

Problemi sa poznatom distribucijom (normalna), potreba za prikupljanjem velike statistike

Potreba za nabrajanjem cijelog uzorka obuke prilikom prepoznavanja, visoka osjetljivost na nereprezentativnost uzorka obuke i artefakata

Metode zasnovane na pretpostavkama

Klase moraju biti dobro razdvojive

Tip funkcije odlučivanja mora biti poznat unaprijed. Nemogućnost uzimanja u obzir novih saznanja o korelacijama između osobina

Boolean Methods

Mali problemi

Prilikom odabira pravila logičnog odlučivanja neophodna je iscrpna pretraga. Visok intenzitet rada

Lingvističke metode

Zadatak određivanja gramatike iz određenog skupa iskaza (opisa objekata) teško je formalizirati. Neriješeni teorijski problemi

Ekstenzivne metode prepoznavanja

Metoda poređenja sa prototipom

Problemi male dimenzije prostora karakteristika

Velika zavisnost rezultata klasifikacije od metrike. Nepoznata optimalna metrika

k metoda najbližih susjeda

Velika zavisnost rezultata klasifikacije od metrike. Potreba za potpunim nabrajanjem uzorka obuke prilikom priznavanja. Računarski napor

Algoritmi za izračunavanje procjena (ABO)

Problemi male dimenzije u pogledu broja klasa i karakteristika

Ovisnost rezultata klasifikacije o metrici. Potreba za potpunim nabrajanjem uzorka obuke prilikom priznavanja. Visoka tehnička složenost metode

Kolektivi pravila odlučivanja (DRC) su sintetički metod.

Problemi male dimenzije u pogledu broja klasa i karakteristika

Veoma visoka tehnička složenost metode, neriješen broj teorijskih problema, kako u određivanju područja nadležnosti privatnih metoda tako i u samim privatnim metodama

3. Opće karakteristike problema prepoznavanja obrazaca i njihovi tipovi

Opšta struktura sistema prepoznavanja i njegove faze prikazane su na slici 4:

Slika 4 - Struktura sistema prepoznavanja

Zadaci prepoznavanja imaju sljedeće karakteristične faze:

Pretvaranje izvornih podataka u prikladan oblik za prepoznavanje;

Prepoznavanje (ukazuje da objekt pripada određenoj klasi).

U ovim problemima možete uvesti koncept sličnosti objekata i formulisati skup pravila na osnovu kojih je objekat uključen u jednu ili različite klase.

Također možete raditi sa skupom primjera čija je klasifikacija poznata i koji se u obliku datih opisa mogu deklarirati algoritmu prepoznavanja za prilagođavanje zadatku tokom procesa učenja.

Poteškoće u rješavanju problema prepoznavanja povezane su s nemogućnošću primjene klasičnih matematičkih metoda bez korekcija (često informacije za tačan matematički model nisu dostupne)

Razlikuju se sljedeće vrste zadataka prepoznavanja:

Zadatak prepoznavanja je da se prikazani objekat prema njegovom opisu dodijeli jednom od datih razreda (učenje pod nadzorom);

Zadatak automatske klasifikacije je da podeli skup u sistem disjunktnih klasa (taksonomija, analiza klastera, samoučenje);

Zadatak odabira informativnog skupa atributa tokom prepoznavanja;

Zadatak dovođenja izvornih podataka u pogodan oblik;

Dinamičko prepoznavanje i klasifikacija;

Problem predviđanja – to jest, odluka se mora odnositi na određenu tačku u budućnosti.

Postoje dva najteža problema u postojećim sistemima prepoznavanja:

Problem “1001 klasa” - dodavanje 1 klase na 1000 postojećih uzrokuje poteškoće u ponovnoj obuci sistema i provjeri prije primljenih podataka;

Problem “korelacije između rječnika i izvora” najizraženiji je u prepoznavanju govora. Trenutni sistemi mogu prepoznati ili veliki broj riječi od male grupe pojedinaca ili mali broj riječi iz velike grupe pojedinaca. Takođe je teško prepoznati veliki broj lica sa šminkom ili grimasama.

Neuronske mreže ne rješavaju ove probleme direktno, ali se zbog svoje prirode mnogo lakše prilagođavaju promjenama u ulaznim sekvencama.

4. Problemi i izgledirazvojprepoznavanje uzoraka

4.1 Primjena prepoznavanja obrazaca u praksi

Općenito, problem prepoznavanja obrazaca sastoji se od dva dijela: obuke i prepoznavanja. Učenje se izvodi prikazivanjem nezavisnih objekata i njihovim dodjeljivanjem jednom ili drugom razredu. Kao rezultat obuke, sistem prepoznavanja treba da stekne sposobnost da odgovori istim reakcijama na sve objekte jedne slike i različitim na sve druge. Važno je da se tokom procesa učenja naznače samo sami objekti i njihova pripadnost slici. Obuku prati proces prepoznavanja koji karakteriše radnje već obučenog sistema. Problem je automatizacija ovih procedura.

Prije nego što počnete s analizom bilo kojeg objekta, morate dobiti određene, uređene, tačne informacije o njemu. Takve informacije su skup svojstava objekata, njihov prikaz na različitim perceptivnim organima sistema prepoznavanja.

Ali svaki predmet posmatranja može različito uticati, u zavisnosti od uslova percepcije. Osim toga, objekti iste slike mogu se jako razlikovati jedan od drugog.

Svako preslikavanje objekta na perceptivne organe sistema prepoznavanja, bez obzira na njegov položaj u odnosu na te organe, obično se naziva slikom objekta, a skupovi takvih slika, ujedinjeni nekim opšta svojstva, predstavljaju slike. Ako se uspješno odabere početni opis (prostor obilježja), zadatak prepoznavanja može se pokazati prilično lakim, a obrnuto, neuspješan izbor može dovesti do vrlo složene dalje obrade informacija ili do izostanka rješenja.

Prepoznavanje objekata, signala, situacija, pojava najčešći je zadatak koji čovjek treba da riješi svake sekunde. Za to se koriste ogromni resursi mozga, što se procjenjuje takvim pokazateljem kao što je broj neurona jednak 10 10.

Također, priznanje se stalno susreće u tehnologiji. Računanja u mrežama formalnih neurona na mnogo su načina slična obradi informacija u mozgu. U posljednjoj deceniji, neurokompjuterstvo je steklo izuzetnu popularnost i postalo je inženjerska disciplina povezana s proizvodnjom komercijalnih proizvoda. U toku je veliki obim posla na stvaranju elementarne baze za neurokompjuterstvo.

Njihova glavna karakteristika je sposobnost rješavanja neformaliziranih problema za koje, iz ovog ili onog razloga, nisu predloženi algoritmi rješenja. Neuroračunari nude relativno jednostavnu tehnologiju za izvođenje algoritama kroz učenje. To je njihova glavna prednost. Stoga se pokazalo da je neurokompjuterstvo relevantno upravo sada - u vrijeme procvata multimedije, kada globalni razvoj zahtijeva razvoj novih tehnologija usko povezanih s prepoznavanjem slika.

Jedan od glavnih problema u razvoju i primjeni umjetne inteligencije ostaje problem prepoznavanja zvučnih i vizualnih slika. Sve ostale tehnologije su već spremne da nađu svoju primenu u medicini, biologiji i sigurnosnim sistemima. U medicini, prepoznavanje uzoraka pomaže liječnicima da postave preciznije dijagnoze u tvornicama, koristi se za predviđanje nedostataka u serijama robe. Biometrijski sistemi lične identifikacije su takođe zasnovani na rezultatima prepoznavanja kao njihovoj algoritamskoj jezgri. Dalji razvoj i dizajn kompjutera sposobnih za direktniju komunikaciju s ljudima na jezicima prirodnim za ljude i kroz govor ne može se riješiti bez prepoznavanja. Ovdje se postavlja pitanje razvoja robotike i vještačkih upravljačkih sistema koji sadrže sisteme prepoznavanja kao vitalne podsisteme.

Zaključak

Kao rezultat rada napravljen je kratak pregled glavnih definicija pojmova takve grane kibernetike kao što je prepoznavanje obrazaca, istaknute su metode prepoznavanja i formulirani zadaci.

Naravno, postoji mnogo pravaca za razvoj ove nauke. Osim toga, kako je navedeno u jednom od poglavlja, priznanje je jedno od ključnih područja razvoja u ovom trenutku. dakle, softver u narednim decenijama može postati još privlačniji korisniku i konkurentniji na modernom tržištu ako dobije komercijalni format i počne se širiti među velikim brojem potrošača.

Dalja istraživanja mogu biti usmjerena na sljedeće aspekte: dubinsku analizu glavnih metoda obrade i razvoj novih kombinovanih ili modificiranih metoda za prepoznavanje. Na osnovu sprovedenog istraživanja biće moguće razviti funkcionalni sistem prepoznavanja, uz pomoć kojeg je moguće testirati efikasnost odabranih metoda prepoznavanja.

Reference

1. David Formais, Jean Pons Kompjuterski vid. Moderan pristup, 2004

2. Aizerman M.A., Braverman E.M., Rozonoer L.I. Metoda potencijalnih funkcija u teoriji mašinskog učenja. - M.: Nauka, 2004.

3. Žuravlev Yu.I. O algebarskom pristupu rješavanju problema prepoznavanja ili klasifikacije // Problemi kibernetike. M.: Nauka, 2005. - Br. 33.

4. Mazurov V.D. Komiteti sistema nejednakosti i problem prepoznavanja // Kibernetika, 2004, br.

5. Potapov A.S. Prepoznavanje obrazaca i mašinska percepcija. - Sankt Peterburg: Politehnika, 2007.

6. Minsky M., Papert S. Perceptrons. - M.: Mir, 2007.

7. Rastrigin L. A., Erenshtein R. Kh. M. Energoizdat, 2006.

8. Rudakov K.V. O algebarskoj teoriji univerzalnih i lokalnih ograničenja za probleme klasifikacije // Prepoznavanje, klasifikacija, prognoza. Matematičke metode i njihovu primjenu. Vol. 1. - M.: Nauka, 2007.

9. Fu K. Strukturne metode u prepoznavanju obrazaca. - M.: Mir, 2005.

Objavljeno na Allbest.ru

...

Slični dokumenti

    Osnovni koncepti teorije prepoznavanja obrazaca i njen značaj. Essence matematička teorija prepoznavanje uzoraka. Glavni zadaci koji se javljaju pri razvoju sistema za prepoznavanje slika. Klasifikacija sistema za prepoznavanje obrazaca u realnom vremenu.

    kurs, dodato 15.01.2014

    Pojam i karakteristike konstruisanja algoritama za prepoznavanje obrazaca. Različiti pristupi tipologiji metoda prepoznavanja. Proučavanje osnovnih načina predstavljanja znanja. Karakteristike intenzionalnih i ekstenzionalnih metoda, ocjena njihovog kvaliteta.

    prezentacija, dodano 01.06.2014

    Teorijske osnove prepoznavanja obrazaca. Funkcionalni dijagram sistema prepoznavanja. Primjena Bayesovih metoda u rješavanju problema prepoznavanja obrazaca. Bayesova segmentacija slike. TAN model za rješavanje problema klasifikacije slika.

    rad, dodato 13.10.2017

    Pregled problema koji nastaju u razvoju sistema za prepoznavanje obrazaca. Klasifikatori slika koji se mogu obučiti. Perceptron algoritam i njegove modifikacije. Kreiranje programa dizajniranog za klasifikaciju slika korištenjem metode najmanje srednje kvadratne greške.

    kurs, dodan 05.04.2015

    Metode prepoznavanja uzoraka (klasifikatori): Bayesova, linearna, metoda potencijalne funkcije. Izrada programa za prepoznavanje osobe sa njegovih fotografija. Primjeri rada klasifikatora, eksperimentalni rezultati o tačnosti metoda.

    kurs, dodan 15.08.2011

    Kreiranje softverskog alata koji vrši vizuelno prepoznavanje slike na osnovu veštačkih neuronskih mreža. Metode koje se koriste za prepoznavanje obrazaca. Selfridge's Pandemonium. Rosenblatt Perceptron. Pravilo za formiranje lančanog koda.

    rad, dodato 06.04.2014

    Prepoznavanje uzoraka je zadatak identifikacije objekta ili određivanja njegovih svojstava iz njegove slike ili audio zapisa. Istorija teorijskih i tehničkih promjena u ovoj oblasti. Metode i principi koji se koriste u kompjuterskoj tehnologiji za prepoznavanje.

    sažetak, dodan 04.10.2010

    Koncept sistema za prepoznavanje obrazaca. Klasifikacija sistema prepoznavanja. Razvoj sistema za prepoznavanje oblika mikro objekata. Algoritam za kreiranje sistema za prepoznavanje mikro-objekata na kristalogramu, karakteristike njegove implementacije u softverskom okruženju.

    kurs, dodato 21.06.2014

    Odabir tipa i strukture neuronske mreže. Izbor metode prepoznavanja, blok dijagram Hopfield mreže. Obuka sistema za prepoznavanje uzoraka. Karakteristike rada sa programom, njegove prednosti i mane. Opis korisničkog interfejsa i ekranskih formi.

    kurs, dodan 14.11.2013

    Pojava tehničkih sistema automatskog prepoznavanja. Čovjek kao element ili karika kompleksa automatski sistemi. Mogućnosti uređaja za automatsko prepoznavanje. Faze stvaranja sistema za prepoznavanje uzoraka. Procesi mjerenja i kodiranja.

I znakove. Takvi problemi se dosta često rješavaju, na primjer, kada se prelazi ili prolazi ulicom prateći semafore. Prepoznavanje boje upaljenog semafora i poznavanje pravila saobraćaja omogućava vam da donesete pravu odluku o tome da li možete ili ne možete preći ulicu u ovom trenutku.

U procesu biološke evolucije mnoge su životinje rješavale probleme uz pomoć svog vidnog i slušnog aparata. prepoznavanje uzoraka dovoljno dobro. Stvaranje vještačkih sistema prepoznavanje uzoraka ostaje složen teorijski i tehnički problem. Potreba za takvim prepoznavanjem javlja se u raznim oblastima – od vojnih poslova i sigurnosnih sistema do digitalizacije svih vrsta analognih signala.

Tradicionalno, zadaci prepoznavanja obrazaca su uključeni u niz zadataka umjetne inteligencije.

Smjerovi u prepoznavanju obrazaca

Mogu se razlikovati dva glavna pravca:

  • Proučavanje sposobnosti prepoznavanja koje živa bića posjeduju, objašnjavanje i modeliranje;
  • Razvoj teorije i metoda za konstruisanje uređaja namenjenih rešavanju pojedinačnih problema u primenjenim primenama.

Formalna izjava o problemu

Prepoznavanje uzoraka je dodjela izvornih podataka određenoj klasi identifikacijom značajnih karakteristika koje karakteriziraju ove podatke iz ukupne mase nevažnih podataka.

Prilikom postavljanja problema prepoznavanja pokušavaju koristiti matematički jezik, nastojeći, za razliku od teorije umjetnih neuronskih mreža, gdje je osnova dobivanje rezultata eksperimentom, eksperiment zamijeniti logičkim zaključivanjem i matematičkim dokazom.

Jednobojne slike se najčešće razmatraju u problemima prepoznavanja uzoraka, što omogućava razmatranje slike kao funkcije na ravni. Ako uzmemo u obzir tačku skupu na ravni T, gdje je funkcija x(x,y) izražava svoje karakteristike u svakoj tački slike - svjetlinu, transparentnost, optičku gustinu, onda je takva funkcija formalno snimanje slike.

Skup svih mogućih funkcija x(x,y) u avionu T- postoji model skupa svih slika X. Predstavljamo koncept sličnosti između slika možete postaviti zadatak prepoznavanja. Specifična vrsta takve izjave u velikoj meri zavisi od narednih faza priznavanja u skladu sa ovim ili drugim pristupom.

Metode prepoznavanja uzoraka

Za optičko prepoznavanje uzoraka možete koristiti metodu pretraživanja kroz prikaz objekta pod različitim uglovima, skalama, pomacima itd. Za slova morate sortirati font, svojstva fonta itd.

Drugi pristup je pronalaženje obrisa objekta i ispitivanje njegovih svojstava (povezanost, prisustvo uglova, itd.)

Drugi pristup je korištenje umjetnih neuronskih mreža. Ova metoda zahtijeva ili veliki broj primjera zadatka prepoznavanja (sa tačnim odgovorima), ili posebnu strukturu neuronske mreže koja uzima u obzir specifičnosti ovog zadatka.

Perceptron kao metoda prepoznavanja obrazaca

F. Rosenblatt, uvodeći pojam modela mozga, čiji je zadatak da pokaže kako u nekom fizičkom sistemu, čija su struktura i funkcionalna svojstva poznata, mogu nastati psihološki fenomeni - opisao je najjednostavniji eksperimente diskriminacije. Ovi eksperimenti se u potpunosti odnose na metode prepoznavanja obrazaca, ali se razlikuju po tome što algoritam rješenja nije deterministički.

Najjednostavniji eksperiment iz kojeg se mogu dobiti psihološki značajne informacije o određenom sistemu svodi se na to da se modelu predoče dva različita stimulusa i da se na njih traži da odgovori na različite načine. Svrha takvog eksperimenta može biti proučavanje mogućnosti njihove spontane diskriminacije od strane sistema u odsustvu intervencije od strane eksperimentatora, ili, obrnuto, proučavanje prisilne diskriminacije, u kojoj eksperimentator nastoji da osposobi sistem da izvrši potrebnu klasifikaciju.

U eksperimentu sa treningom perceptrona obično se prikazuje određeni niz slika, koji uključuje predstavnike svake od klasa koje treba razlikovati. Prema nekom pravilu modifikacije memorije, tačan izbor odgovora je pojačan. Zatim se perceptronu predstavlja kontrolni stimulus i određuje se vjerovatnoća dobijanja ispravnog odgovora za stimuluse date klase. Ovisno o tome da li se odabrani kontrolni stimulus poklapa ili ne poklapa s jednom od slika koje su korištene u sekvenci treninga, dobijaju se različiti rezultati:

  • 1. Ako se kontrolni stimulus ne poklapa ni sa jednim stimulusom treninga, tada je eksperiment povezan ne samo sa čista diskriminacija, ali uključuje i elemente generalizacije.
  • 2. Ako kontrolni stimulus pobuđuje određeni skup senzornih elemenata potpuno drugačiji od onih elemenata koji su se aktivirali pod utjecajem prethodno prikazanih stimulusa iste klase, tada je eksperiment studija čista generalizacija .

Perceptroni nemaju kapacitet za čistu generalizaciju, ali sasvim zadovoljavajuće funkcionišu u eksperimentima diskriminacije, posebno ako se kontrolni stimulans dovoljno poklapa sa jednom od slika s kojima je perceptron već akumulirao određeno iskustvo.

Primjeri problema prepoznavanja obrazaca

  • Prepoznavanje pisma.
  • Prepoznavanje barkodova.
  • Prepoznavanje registarskih tablica.
  • Prepoznavanje lica.
  • Prepoznavanje govora.
  • Prepoznavanje slike.
  • Prepoznavanje lokalnih područja zemljine kore u kojima se nalaze nalazišta minerala.

Programi za prepoznavanje uzoraka

Vidi također

Bilješke

Linkovi

  • Yuri Lifshits. Kurs “Savremeni problemi teorijske informatike” - predavanja o statističkim metodama prepoznavanja obrazaca, prepoznavanja lica, klasifikacije teksta
  • Journal of Pattern Recognition Research

Književnost

  • David A. Forsythe, Jean Pons Kompjuterski vid. Moderan pristup = Computer Vision: A Modern Approach. - M.: "Williams", 2004. - P. 928. - ISBN 0-13-085198-1
  • George Stockman, Linda Shapiro Kompjuterski vid = Kompjuterski vid. - M.: Binom. Laboratorij znanja, 2006. - Str. 752. - ISBN 5947743841
  • A.L.Gorelik, V.A.Skripkin, Metode prepoznavanja, M.: postdiplomske škole, 1989.
  • Sh.-K. Cheng, Principi projektovanja vizuelnih informacionih sistema, M.: Mir, 1994.

Wikimedia Foundation.

2010. - u tehnologiji, naučni i tehnički pravac povezan sa razvojem metoda i izgradnjom sistema (uključujući kompjuterski zasnovane) za utvrđivanje pripadnosti određenog objekta (objekta, procesa, pojave, situacije, signala) jednom od naprednih ... ...

Veliki enciklopedijski rječnik Jedna od novih regija kibernetika. Sadržaj teorije R. o. je ekstrapolacija svojstava objekata (slika) koji pripadaju nekoliko klasa na objekte koji su im u nekom smislu bliski. Obično, kada se obučava automat R. o. dostupno ... ...

Geološka enciklopedija engleski prepoznavanje, imidž; njemački Gestalt alterkennung. Grana matematičke kibernetike koja razvija principe i metode za klasifikaciju i identifikaciju objekata opisanih konačnim skupom karakteristika koje ih karakteriziraju. Antinazi. Enciklopedija......

Prepoznavanje uzoraka Enciklopedija sociologije - metoda proučavanja složenih objekata pomoću računara; sastoji se u odabiru karakteristika i razvoju algoritama i programa koji omogućavaju računarima da automatski klasifikuju objekte na osnovu ovih karakteristika. Na primjer, određivanje koje ... ...

Ekonomsko-matematički rječnik - (tehnički), naučni i tehnički pravac vezan za razvoj metoda i konstrukciju sistema (uključujući i one zasnovane na kompjuteru) za utvrđivanje pripadnosti određenog objekta (objekta, procesa, pojave, situacije, signala) jednom od naprednih ... ...

Encyclopedic Dictionary PREPOZNAVANJE OBRAZA - dio matematičke kibernetike koji razvija metode klasifikacije, kao i identifikaciju objekata, pojava, procesa, signala, situacija svih onih objekata koji se mogu opisati konačnim skupom određenih znakova ili svojstava,... ...

Ruska sociološka enciklopedija prepoznavanje uzoraka

- 160 prepoznavanje obrazaca: Identifikacija oblika reprezentacija i konfiguracija koristeći automatska sredstva

Suština zadatka prepoznavanja je da se utvrdi da li predmeti koji se proučavaju imaju fiksni konačan skup karakteristika koji im omogućava da se klasifikuju u određenu klasu.

Ciljevi nauke o prepoznavanju obrazaca su:

Zamjena ljudskog eksperta ili složenog ekspertnog sistema jednostavnijim sistemom (automatizacija ljudskih aktivnosti ili pojednostavljenje složenih sistema);

Konstrukcija sistema učenja koji mogu donositi odluke bez specificiranja jasnih pravila, odnosno sistema koji sami mogu sintetizirati pravila odlučivanja na osnovu određenog konačnog broja primjera ispravnih odluka „demonstriranih“ sistemu.

Zadaci prepoznavanja može se okarakterisati na sledeći način.

1. Ovo su informacioni zadaci koji se sastoje od dvije glavne faze: svođenje izvornih podataka na oblik pogodan za prepoznavanje i samo prepoznavanje.

2. U ovim zadacima možete uvesti koncept analogije i sličnosti objekata i formulisati koncept blizine objekata kao osnovu za uključivanje objekta u određenu klasu.

3. U ovim zadacima možete raditi sa skupom primjera čija je klasifikacija poznata i koji se u obliku formaliziranih opisa mogu predstaviti algoritmu za prepoznavanje kako bi se prilagodio zadatku tokom procesa učenja.

4. Za ove probleme je teško izgraditi formalne teorije i primijeniti klasične matematičke metode.

5. U ovim problemima moguće su „loše“ informacije.

Vrste zadataka prepoznavanja:

Dodjeljivanje prikazanog objekta jednom od časova (obuka sa nastavnikom);

Automatska klasifikacija – particionisanje skupa objekata (situacija) prema njihovom opisu u sistem klasa koje se ne preklapaju;

Odabir skupa informacijskih karakteristika tokom dekompozicije;

Dovođenje izvornih podataka u oblik pogodan za prepoznavanje;

Dinamičko prepoznavanje i dinamička klasifikacija;

Problemi sa predviđanjem.

Osnovne definicije

Slika– ovo je strukturirani opis objekta ili fenomena, predstavljen vektorom karakteristika, čiji svaki element predstavlja numeričku vrijednost jedne od karakteristika koje karakteriziraju ovaj objekt. Drugim riječima: slika je svaki objekt za koji se može izmjeriti skup određenih numeričkih karakteristika. Primjer slike: slovo, slika, kardiogram itd.

Numerički znak(ili samo znak). je formula ili drugi opis metode za uparivanje objekta sa određenom numeričkom karakteristikom, koja radi u okviru određenog zadatka prepoznavanja obrazaca. Za svaki objekat može se definisati nekoliko različitih karakteristika, odnosno nekoliko numeričkih karakteristika.

Feature space.N-dimenzionalni prostor definiran za dati zadatak prepoznavanja, gdje je N fiksni broj izmjerenih karakteristika za bilo koji objekt. Vektor iz prostora karakteristika koji odgovara objektu zadatka prepoznavanja je N-dimenzionalni vektor sa komponentama (x1, x2, ..., xN), koje su vrijednosti karakteristika ovog objekta.

OBJEKT->Nfeatures->M-dimenzionalni vektor karakteristika

Klasa- neformalizirana (u pravilu) ideja o mogućnosti dodjele proizvoljnog objekta iz skupa objekata zadatka prepoznavanja određenoj grupi objekata. Za objekte iste klase pretpostavlja se prisustvo “sličnosti”. Za zadatak prepoznavanja obrazaca može se definirati proizvoljan broj klasa veći od 1. Broj klasa je označen brojem S.

Općenito, problem prepoznavanja obrazaca sastoji se od dva dijela: prepoznavanja i obuke.

Prepoznavanje uzoraka se sastoji od klasifikacije određene grupe objekata na osnovu određenih zahtjeva. Objekti koji pripadaju istoj klasi slika imaju zajednička svojstva. Zahtjevi koji definiraju klasifikaciju mogu se razlikovati, jer različite situacije zahtijevaju različite vrste klasifikacija.

Na primjer, prilikom prepoznavanja engleskih slova formira se 26 klasa slika. Međutim, da bi se razlikovala engleska slova od kineskih znakova tokom prepoznavanja, potrebne su samo dvije klase slika.

Najjednostavniji pristup prepoznavanju obrazaca je podudaranje uzoraka. U ovom slučaju, određeni skup slika, po jedna iz svake klase slika, pohranjuje se u memoriju uređaja. Ulazna (prepoznata) slika (nepoznate klase) se poredi sa standardom svake klase. Klasifikacija se zasniva na unaprijed odabranom kriteriju podudaranja ili kriteriju sličnosti. Drugim riječima, ako ulazna slika bolje odgovara standardu i-te klase uzorka od bilo kojeg drugog standarda, tada se ulazna slika klasificira kao da pripada i-toj klasi uzorka.

Nedostatak ovog pristupa, odnosno poređenja sa standardom, je to što je u nekim slučajevima teško odabrati odgovarajući standard iz svake klase slika i uspostaviti potreban kriterij podudaranja.

Napredniji pristup je da se klasifikacija zasniva na određenom skupu odabranih mjerenja na ulaznim slikama. Pretpostavlja se da su ove odabrane mjere, nazvane „obilježja“, nepromjenjive ili neosjetljive na uobičajene varijacije i distorzije i da imaju malu redundantnost.

Poseban slučaj drugog pristupa „mjerenja karakteristika“, u kojem se standardi pohranjuju u obliku izmjerenih karakteristika, a u klasifikatoru se koristi poseban kriterij klasifikacije (poređenje).

Karakteristike definiraju programeri i moraju biti nepromjenjive u odnosu na orijentaciju, veličinu i varijacije oblika objekata.

U ovom članku pokušao sam da istaknem neke od fundamentalnih rezultata teorije mašinskog učenja na način koji čini koncepte jasnim čitaocima sa određenim znanjem o problemima klasifikacije i regresije. Ideja da napišem ovakav članak postajala mi je sve jasnija sa svakom knjigom koju sam pročitao, u kojoj su ideje učenja mašina da prepoznaju izrečene kao iz sredine i bilo je potpuno nejasno šta su autori ovog ili na koji se metod oslanjao prilikom razvoja. S druge strane, postoji veliki broj knjiga posvećenih osnovnim konceptima u mašinskom učenju, ali prezentacija materijala u njima može izgledati previše složena za prvo čitanje.

Motivacija

Hajde da razmotrimo ovaj problem. Imamo jabuke dvije klase - ukusne i neukusne, 1 i 0. Jabuke imaju karakteristike - boju i veličinu. Boja će se kontinuirano mijenjati od 0 do 1, tj. 0 - potpuno zelena jabuka, 1 - potpuno crvena. Veličina se može promijeniti na isti način, 0 - mala jabuka, 1 - velika. Željeli bismo razviti algoritam koji bi primao boju i veličinu kao ulaz, a izlazio klasu jabuke - bila ona ukusna ili ne. Veoma je poželjno da što je manji broj grešaka, to bolje. Istovremeno, imamo konačnu listu koja sadrži istorijske podatke o boji, veličini i klasi jabuka. Kako bismo mogli riješiti takav problem?

Logičan pristup

Kada rješavamo naš problem, prva metoda koja bi mogla pasti na pamet mogla bi biti ova: hajde da ručno kreiramo pravila poput if-else i, ovisno o vrijednostima boje i veličine, dodijelit ćemo određenu klasu jabuci. One. imamo preduslove - boju i veličinu, a tu je i posledica - ukus jabuke. Sasvim je razumno kada ima malo znakova i možete okom procijeniti pragove radi poređenja. Ali može se desiti da nije moguće doći do jasnih uslova, a iz podataka se ne vidi koje pragove treba uzeti, a broj znakova se može povećati u budućnosti. Šta ako u našoj listi sa istorijskim podacima nađemo dve jabuke iste boje i veličine, ali jedna je označena kao ukusna, a druga nije? Dakle, naša prva metoda nije tako fleksibilna i skalabilna koliko bismo željeli.

Oznake

Hajde da uvedemo sljedeću notaciju. Označit ćemo jabuku kao . Zauzvrat, svaki se sastoji od dva broja - boje i veličine. Ovu činjenicu ćemo označiti parom brojeva: . Klasu svake -te jabuke označavamo sa . Lista sa istorijskim podacima biće označena slovom , dužina ove liste je . Treći element ove liste je vrijednost atributa jabuke i njene klase. One. . Nazvaćemo ga i uzorkom. Koristimo velika slova da označimo varijable koje mogu poprimiti vrijednosti određenog atributa i klase. Hajde da predstavimo novi koncept - pravilo odlučivanja je funkcija koja uzima boju i veličinu kao ulaz i vraća oznaku klase kao izlaz:

Vjerovatni pristup

Razvijajući ideju logičke metode s premisama i posljedicama, postavimo sebi pitanje - kolika je vjerovatnoća da će jabuka koja ne pripada našem uzorku biti ukusna s obzirom na izmjerene vrijednosti boje i veličine ? U notaciji teorije vjerovatnoće, ovo pitanje se može napisati na sljedeći način:

Ovaj izraz se može tumačiti kao premisa, kao posljedica, ali prijelaz od premise do posljedice će se pokoravati vjerojatnostnim zakonima, a ne logičkim. One. Umjesto tabele istinitosti sa Booleovim vrijednostima 0 i 1 za klasu, postojaće vrijednosti vjerovatnoće koje se kreću od 0 do 1. Primijenite Bayesovu formulu i dobijete sljedeći izraz:

Pogledajmo desnu stranu ovog izraza detaljnije. Multiplikator se naziva prethodna vjerovatnoća i označava vjerovatnoću pronalaženja ukusne jabuke među svim mogućim jabukama. Postoji a priori vjerovatnoća da ćete naići na neukusnu jabuku. Ova vjerovatnoća može odražavati naše lično znanje o tome koliko su ukusne i neukusne jabuke raspoređene u prirodi. Na primjer, iz našeg dosadašnjeg iskustva znamo da je 80% svih jabuka ukusno. Ili možemo procijeniti ovu vrijednost jednostavnim izračunavanjem udjela ukusnih jabuka na našoj listi sa historijskim podacima S. Sljedeći faktor pokazuje koliko je vjerovatno da će se dobiti određena vrijednost boje i veličine za jabuku klase 1. Ovaj izraz se također naziva funkcija vjerovatnoće i može izgledati ovako: neka specifična distribucija, na primjer, normalna. Imenilac koristimo kao normalizujuću konstantu tako da željena verovatnoća varira od 0 do 1. Naš krajnji cilj nije da tražimo verovatnoće, već da tražimo odlučujuće pravilo koje bi nam odmah dalo klasu. Konačni oblik pravila odlučivanja ovisi o tome koje su nam vrijednosti i parametri poznati. Na primjer, možemo znati samo vrijednosti prethodne vjerovatnoće, a preostale vrijednosti se ne mogu procijeniti. Tada će odlučujuće pravilo biti ovo - svim jabukama dodijelite vrijednost klase za koju je apriorna vjerovatnoća najveća. One. ako znamo da je 80% jabuka u prirodi ukusno, onda svakoj jabuci dajemo klasu 1. Tada će naša greška biti 20%. Ako možemo procijeniti i vrijednosti funkcije vjerovatnoće $p(X=x_m | Y=1)$, tada možemo pronaći vrijednost željene vjerovatnoće koristeći Bayesovu formulu, kako je gore napisano. Odlučujuće pravilo ovdje će biti sljedeće: stavite oznaku za klasu za koju je vjerovatnoća maksimalna:

Nazovimo ovo pravilo Bayesovim klasifikatorom. Pošto imamo posla sa verovatnoćama, čak ni velika vrednost verovatnoće ne garantuje da jabuka ne pripada klasi 0. Procenimo verovatnoću greške na jabuci na sledeći način: ako je pravilo odlučivanja vratilo vrednost klase jednaku 1 , tada će vjerovatnoća greške biti i obrnuto:

Zanima nas vjerovatnoća greške klasifikatora ne samo u ovom konkretnom primjeru, već općenito za sve moguće jabuke:

Ovaj izraz je očekivana vrijednost greške. Dakle, rješavajući prvobitni problem, došli smo do Bayesovog klasifikatora, ali koji su njegovi nedostaci? Glavni problem je procijeniti uslovnu vjerovatnoću iz podataka. U našem slučaju, mi predstavljamo objekat sa parom brojeva - bojom i veličinom, ali u složenijim problemima dimenzija karakteristika može biti višestruko veća i broj zapažanja sa naše liste sa istorijskim podacima možda neće biti dovoljan za procenu vjerovatnoća višedimenzionalne slučajne varijable. Zatim ćemo pokušati generalizirati naš koncept greške klasifikatora, a također ćemo vidjeti da li je moguće odabrati bilo koji drugi klasifikator za rješavanje problema.

Gubici greške klasifikatora

Pretpostavimo da već imamo neko pravilo odlučivanja. Tada može napraviti dvije vrste grešaka - prva je dodijeliti objekt klasi 0, čija je prava klasa 1, i obrnuto, dodijeliti objekt klasi 1, čija je stvarna klasa 0. U nekim problemima je važno da napravi razliku između ovih slučajeva. Na primjer, više patimo kada se jabuka označena kao ukusna pokaže neukusnom i obrnuto. Formaliziramo stepen naše nelagode zbog razočaranih očekivanja u konceptu Općenito, imamo funkciju gubitka koja vraća broj za svaku grešku klasifikatora. Neka bude prava oznaka klase. Funkcija gubitka tada vraća vrijednost gubitka za stvarnu oznaku klase i vrijednost našeg pravila odlučivanja. Primjer korištenja ove funkcije - uzimamo iz jabuke sa poznatom klasom, prosljeđujemo jabuku kao ulaz u naše pravilo odlučivanja, dobivamo procjenu klase iz pravila odlučivanja, ako se vrijednosti poklapaju, onda pretpostavljamo da klasifikator nije pogriješio i da nema gubitaka, ako se vrijednosti ne poklapaju, onda će iznos gubitka naša funkcija reći

Uslovni i Bayesov rizik

Sada kada imamo funkciju gubitka i znamo koliko gubimo zbog pogrešne klasifikacije objekata, bilo bi lijepo razumjeti koliko gubimo u prosjeku na mnogim objektima. Ako znamo vrijednost - vjerovatnoća da će jabuka biti ukusna, s obzirom na izmjerene vrijednosti boje i veličine, kao i stvarnu vrijednost klase (na primjer, uzmite jabuku iz uzorka S, pogledajte na početak članka), tada možemo uvesti pojam uslovnog rizika. Uslovni rizik je prosječna vrijednost gubitaka u objektu za odlučujuće pravilo:

U našem slučaju binarne klasifikacije kada se ispostavi:

Gore smo opisali pravilo odlučivanja, koje dodjeljuje objekt klasi koja ima najveću vrijednost vjerovatnoće. Ovo pravilo daje minimum naših prosječnih gubitaka (Bayesian rizik), stoga je Bayesov klasifikator optimalan sa stanovišta funkcionalnog rizika. uveli smo. To znači da Bayesov klasifikator ima najmanju moguću grešku u klasifikaciji.

Neke tipične funkcije gubitka

Jedna od najčešćih funkcija gubitka je simetrična funkcija, kada su gubici od prve i druge vrste grešaka ekvivalentni. Na primjer, funkcija gubitka 1-0 (gubitak nula-jedan) definirana je na sljedeći način:

Tada će uslovni rizik za a(x) = 1 jednostavno biti vrijednost vjerovatnoće dobivanja klase 0 na objektu:

Slično za a(x) = 0:

Funkcija gubitka 1-0 uzima vrijednost 1 ako klasifikator napravi grešku na objektu i 0 ako ne. Sada se uvjerimo da vrijednost greške nije jednaka 1, već drugoj funkciji Q, ovisno o pravilu odluke i oznaci prave klase:

Tada se uslovni rizik može napisati na sljedeći način:

Napomene o notaciji

Prethodni tekst napisan je prema notaciji koju su u knjizi usvojili Duda i Hart. IN originalna knjiga V.N. Vapnik je razmatrao sledeći proces: priroda bira objekat prema distribuciji $p(x)$, a zatim mu dodeljuje oznaku klase prema uslovnoj raspodeli $p(y|x)$. Tada se rizik (očekivanje gubitaka) definira kao

Gdje je funkcija s kojom pokušavamo aproksimirati nepoznatu ovisnost, to je funkcija gubitka za stvarnu vrijednost i vrijednost naše funkcije. Ova notacija je jasnija kako bi se uveo sljedeći koncept - empirijski rizik.

Empirijski rizik

U ovoj fazi smo već otkrili da logička metoda nije prikladna za nas, jer nije dovoljno fleksibilna i ne možemo koristiti Bayesov klasifikator kada postoji mnogo karakteristika, ali postoji ograničen broj podataka za obuku i mi ne može vratiti vjerovatnoću. Također znamo da Bayesov klasifikator ima najmanju moguću grešku u klasifikaciji. Pošto ne možemo koristiti Bayesov klasifikator, upotrijebimo nešto jednostavnije. Hajde da popravimo neku parametarsku porodicu funkcija H i izaberemo klasifikator iz ove porodice.

Primjer: neka je skup svih funkcija obrasca

Sve funkcije ovog skupa će se razlikovati jedna od druge samo po koeficijentima. Kada smo odabrali takvu porodicu, pretpostavili smo da u koordinatama veličine boje između tačaka klase 1 i tačaka klase 0 možemo povući pravu liniju sa koeficijentima u takvoj. način da se tačke sa različitim klasama nalaze duž različitih strana prave linije. Poznato je da je za liniju ovog tipa vektor koeficijenta normalan na pravu. Sada radimo ovo - uzimamo našu jabuku, mjerimo njenu boju i veličinu i iscrtavamo tačku sa dobijenim koordinatama na grafikonu u osi veličine boje. Zatim mjerimo ugao između ove tačke i vektora $w$. Primjećujemo da naša tačka može ležati na jednoj ili drugoj strani prave. Tada će ugao između i tačke biti ili oštar ili tup, i tačkasti proizvod bilo pozitivno ili negativno. Ovo dovodi do odlučujućeg pravila:

Nakon što smo fiksirali klasu funkcija $H$, postavlja se pitanje - kako iz nje izabrati funkciju sa traženim koeficijentima? Odgovor je - izaberimo funkciju koja minimizira naš Bayesov rizik $R()$. Opet, problem je u tome što da biste izračunali Bayesove vrijednosti rizika, morate znati distribuciju $p(x,y)$, ali nam ona nije data i nije je uvijek moguće vratiti. Druga ideja je da se rizik minimizira ne na sve moguće objekte, već samo na uzorak. One. minimiziraj funkciju:

Ova funkcija se naziva empirijski rizik. Sljedeće pitanje je zašto smo odlučili da minimiziranjem empirijskog rizika minimiziramo i Bayesov rizik? Podsjećam da je naš praktični zadatak da napravimo što manje grešaka u klasifikaciji. Što je manje grešaka, manji je Bayesov rizik. Opravdanje za konvergenciju empirijskog rizika sa Bayesovim rizikom sa povećanjem obima podataka dobili su 70-ih godina dva naučnika - V. N. Vapnik i A. Ya.

Garancije konvergencije. Najjednostavniji slučaj

Dakle, došli smo do zaključka da Bayesov klasifikator daje najmanju moguću grešku, ali ga u većini slučajeva ne možemo trenirati, a ne možemo ni izračunati grešku (rizik). Međutim, možemo izračunati aproksimaciju Bayesovom riziku, koji se naziva empirijski rizik, i znajući empirijski rizik, odabrati aproksimirajuću funkciju koja bi minimizirala empirijski rizik. Pogledajmo najjednostavniju situaciju u kojoj minimiziranje empirijskog rizika proizvodi klasifikator koji također minimizira Bayesov rizik. Za najjednostavniji slučaj, moraćemo da napravimo pretpostavku koja se retko može zadovoljiti u praksi, ali koja se kasnije može ublažiti. Popravimo konačnu klasu funkcija iz koje ćemo izabrati naš klasifikator i pretpostaviti da je prava funkcija koju priroda koristi da klasifikuje naše jabuke u ukuse u ovom konačnom skupu hipoteza: . Imamo i uzorak dobijen iz distribucije po objektima. Smatramo da su svi uzorci objekata jednako nezavisno raspoređeni (iid). Tada će biti istinito sljedeće

Teorema

Odabirom funkcije iz klase koristeći empirijsku minimizaciju rizika, zajamčeno je da ćemo pronaći takvu da ima malu Bayesovu vrijednost rizika ako je uzorak na kojem vršimo minimizaciju dovoljne veličine.

Šta znači “mala vrijednost” i “dovoljna veličina”, pogledajte literaturu u nastavku.

Ideja za dokaz

Prema uslovima teoreme dobijamo uzorak iz distribucije, tj. proces odabira objekata iz prirode je nasumičan. Svaki put kada prikupimo uzorak, on će biti iz iste distribucije, ali sami objekti mogu biti različiti. Glavna ideja dokaza je da možemo dobiti tako loš uzorak da će algoritam koji odaberemo minimiziranjem empirijskog rizika na ovom uzorku biti loš u minimiziranju Bayesovog rizika, ali će u isto vrijeme biti dobar u minimizirajući empirijski rizik, ali je vjerovatnoća dobijanja takvog uzorka mala i povećanjem veličine uzorka ova vjerovatnoća se smanjuje. Slične teoreme postoje za realnije pretpostavke, ali ih ovdje nećemo razmatrati.

Praktični rezultati

Imajući dokaze da funkcija pronađena minimiziranjem empirijskog rizika neće imati veliku grešku na prethodno neopaženim podacima sa dovoljnom veličinom uzorka za obuku, ovaj princip možemo koristiti u praksi, na primjer, na sljedeći način - uzimamo izraz:

I zamjenjujemo različite funkcije gubitka, ovisno o problemu koji se rješava. Za linearnu regresiju:

Za logističku regresiju:

Iako mašine sa vektorima podrške imaju prvenstveno geometrijsku motivaciju, one se takođe mogu smatrati empirijskim problemom minimizacije rizika.

Zaključak

Mnoge metode učenja pod nadzorom mogu se smatrati, između ostalog, posebnim slučajevima teorije koju su razvili V. N. Vapnik i A. Ya. Ova teorija daje garancije u pogledu greške na test uzorku, pod uslovom da postoji dovoljna veličina uzorka za obuku i određeni zahtevi za prostor hipoteza u kojem tražimo naš algoritam.

Korišćena literatura

  • Priroda statističke teorije učenja, Vladimir N. Vapnik
  • Klasifikacija uzoraka, 2. izdanje, Richard O. Duda, Peter E. Hart, David G. Stork
  • Razumijevanje mašinskog učenja: od teorije do algoritama, Shai Shalev-Shwartz, Shai Ben-David
P.S. Molimo pišite u ličnoj poruci o eventualnim netačnostima ili greškama u kucanju.

Oznake: Dodaj oznake

Predavanje br. 17.METODE PREPOZNAVANJA UZORAKA

Razlikuju se sljedeće grupe metoda prepoznavanja:

Metode funkcije blizine

Metode diskriminantnih funkcija

Metode statističkog prepoznavanja.

Lingvističke metode

Heurističke metode.

Prve tri grupe metoda su fokusirane na analizu karakteristika izraženih kao brojevi ili vektori sa numeričkim komponentama.

Grupa lingvističkih metoda omogućava prepoznavanje obrazaca na osnovu analize njihove strukture, opisane odgovarajućim strukturnim karakteristikama i odnosima između njih.

Grupa heurističkih metoda kombinuje karakteristične tehnike i logičke procedure koje ljudi koriste u prepoznavanju obrazaca.

Metode funkcije blizine

Metode ove grupe zasnivaju se na korištenju funkcija koje procjenjuju mjeru blizine između prepoznate slike i vektora x* = (x* 1 ,….,x*n), i referentne slike različitih klasa, predstavljene vektorima x i = (x i 1 ,…, x i n), i= 1,…,N, Gdje ja – broj klase slike.

Postupak priznavanja prema ovu metodu sastoji se u izračunavanju udaljenosti između tačke prepoznate slike i svake od tačaka koja predstavlja referentnu sliku, tj. u izračunavanju svih vrednosti d i , i= 1,…,N. Slika pripada klasi za koju je vrijednost d i ima najmanju vrijednost između svih i= 1,…,N .

Funkcija koja dodjeljuje svaki par vektora x i, x* realni broj kao mjera njihove blizine, tj. definiranje udaljenosti između njih može biti prilično proizvoljno. U matematici se takva funkcija naziva metrika prostora. Mora zadovoljiti sljedeće aksiome:

r(x,y)=r(y,x);

r(x,y) > 0 ako x nije jednako y I r(x,y)=0 ako x=y;

r(x,y) <=r(x,z)+r(z,y)

Navedene aksiome zadovoljavaju, posebno, sljedeće funkcije

a i= 1/2 , j=1,2,…n.

b i=zbroj, j=1,2,…n.

c i=maksimalni trbušnjaci ( x ix j *), j=1,2,…n.

Prva od njih naziva se euklidska norma vektorskog prostora. Prema tome, prostori u kojima se navedena funkcija koristi kao metrika nazivaju se Euklidskim prostorom.

Često se srednja kvadratna razlika u koordinatama prepoznate slike bira kao funkcija blizine x* i standard x i, tj. funkcija

d i = (1/n) suma( x i jx j *) 2 , j=1,2,…n.

Magnituda d i geometrijski interpretiran kao kvadrat udaljenosti između tačaka u prostoru obeležja, u odnosu na dimenziju prostora.

Često se ispostavi da različite karakteristike nisu podjednako važne u prepoznavanju. Da bi se ova okolnost uzela u obzir prilikom izračunavanja funkcija blizine, koordinatne razlike koje odgovaraju važnijim karakteristikama množe se velikim koeficijentima, a manje važnim - manjim.

U tom slučaju d i = (1/n) suma w j (x i jx j *) 2 , j=1,2,…n,

Gdje w j– težinski koeficijenti.

Uvođenje težinskih koeficijenata je ekvivalentno skaliranju osi prostora karakteristika i, shodno tome, rastezanju ili kompresiji prostora u određenim smjerovima.

Naznačene deformacije prostora obeležja imaju za cilj postavljanje tačaka referentnih slika na način koji odgovara najpouzdanijem prepoznavanju u uslovima značajnog rasipanja slika svake klase u blizini tačke referentne slike. .

Grupe tačaka slike koje su bliske jedna drugoj (klasteri slika) u prostoru obeležja nazivaju se klasteri, a zadatak identifikacije takvih grupa naziva se problem grupisanja.

Zadatak identifikacije klastera klasifikovan je kao zadatak nenadziranog prepoznavanja obrazaca, tj. na probleme prepoznavanja u nedostatku primjera ispravnog prepoznavanja.

Metode diskriminantnih funkcija

Ideja metoda ove grupe je da se konstruišu funkcije koje definiraju granice u prostoru slika koje dijele prostor na područja koja odgovaraju klasama slika. Najjednostavnije i najčešće korištene funkcije ove vrste su funkcije koje linearno ovise o vrijednostima karakteristika. U prostoru karakteristika odgovaraju površinama koje se razdvajaju u obliku hiperravnina. U slučaju dvodimenzionalnog prostora karakteristika, prava linija djeluje kao funkcija razdvajanja.

Opći oblik linearne funkcije odlučivanja je dat formulom

d(x)=w 1 x 1 + w 2 x 2 +…+w n x n +w n +1 = Wx+w n

Gdje x- vektor slike, w=(w 1 , w 2 ,…w n) – vektor težinskih koeficijenata.

U slučaju podjele u dvije klase X 1 i X 2 diskriminantna funkcija d(x) dozvoljava prepoznavanje u skladu sa pravilom:

x pripada X 1 ako d(x)>0;

x pripada X 2 ako d(x)<0.

Ako d(x)=0, tada postoji slučaj nesigurnosti.

U slučaju podjele u nekoliko klasa, uvodi se nekoliko funkcija. U ovom slučaju, svakoj klasi slika dodijeljena je određena kombinacija znakova diskriminatorne funkcije.

Na primjer, ako se uvedu tri diskriminantne funkcije, tada je moguća sljedeća opcija za identifikaciju klasa slika:

x pripada X 1 ako d 1 (x)>0,d 2 (x)<0,d 3 (x)<0;

x pripada X 2 ako d(x)<0,d 2 (x)>0,d 3 (x)<0;

x pripada X 3 ako d(x)<0,d 2 (x)<0,d 3 (x)>0.

Pretpostavlja se da za druge kombinacije vrijednosti d 1 (x),d 2 (x),d 3 (x) postoji slučaj nesigurnosti.

Varijacija metode diskriminantne funkcije je metoda funkcije odlučivanja. U njemu, ako postoji m pretpostavlja se da klase postoje m funkcije d i(x), naziva se odlučujućim, tako da ako x pripada X i, To d i(x) > dj(x) za sve j nejednako i, one. odlučujuća funkcija d i(x) ima najveću vrijednost među svim funkcijama dj(x), j=1,...,n..

Ilustracija ove metode može biti klasifikator zasnovan na procjeni minimalne euklidske udaljenosti u prostoru karakteristika između tačke slike i standarda. Hajde da to pokažemo.

Euklidska udaljenost između vektora karakteristika prepoznate slike x a vektor referentne slike određen je formulom || x ix|| = 1/2 , j=1,2,…n.

Vector xće biti dodijeljen razredu i, za koje je vrijednost || x ix*|| minimalno.

Umjesto udaljenosti, možete uporediti kvadrat udaljenosti, tj.

||x ix|| 2 = (x ix)(x ix) t = x x- 2x x i +x i x i

Pošto vrednost x x isto za sve i, minimalna funkcija || x ix|| 2 će se poklopiti sa maksimumom funkcije odlučivanja

d i(x) = 2x x i -x i x i.

to jest x pripada X i, Ako d i(x) > dj(x) za sve j nejednako i.

To. mašina za klasifikaciju minimalne udaljenosti je zasnovana na linearnim funkcijama odlučivanja. Opća struktura takve mašine koristi odlučujuće funkcije forme

d i (x)=w i 1 x 1 + w i 2 x 2 +…+w u x n +w i n +1

Može se vizuelno predstaviti odgovarajućim blok dijagramom.

Za mašinu koja vrši klasifikaciju na osnovu minimalne udaljenosti, važe sledeće jednakosti: w ij = -2x i j , w i n +1 = x i x i.

Ekvivalentno prepoznavanje metodom diskriminantne funkcije može se provesti definiranjem diskriminantnih funkcija kao razlika d ij (x)=d i (x)‑dj (x).

Prednost metode diskriminantne funkcije je jednostavna struktura mašine za prepoznavanje, kao i mogućnost njene implementacije uglavnom kroz pretežno linearne blokove odlučivanja.

Još jedna važna prednost metode diskriminantne funkcije je mogućnost automatske obuke mašine za ispravno prepoznavanje na osnovu datog (trening) uzorka slika.

Istovremeno, algoritam automatskog učenja pokazuje se vrlo jednostavnim u usporedbi s drugim metodama prepoznavanja.

Iz ovih razloga, metoda diskriminantne funkcije je stekla široku popularnost i vrlo se često koristi u praksi.

Postupci samoobuke za prepoznavanje obrazaca

Razmotrimo metode za konstruisanje diskriminantne funkcije za dati (trening) uzorak u odnosu na problem podjele slika u dvije klase. Ako su data dva skupa slika, koji pripadaju klasama A i B, tada se rješenje problema konstruiranja linearne diskriminantne funkcije traži u obliku vektora težinskih koeficijenata W=(w 1 ,w 2 ,...,w n,w n+1), koji ima svojstvo da su za bilo koju sliku zadovoljeni sljedeći uslovi:

x pripada klasi A ako je >0, j=1,2,…n.

x pripada klasi B ako<0, j=1,2,…n.

Ako se set za obuku sastoji od N slike obe klase, zadatak se svodi na pronalaženje vektora w koji obezbeđuje validnost sistema nejednakosti ako se uzorak za obuku sastoji od N slike obe klase, zadatak se svodi na pronalaženje vektora w, osiguravajući valjanost sistema nejednakosti

x 1 1 w i+x 21 w 2 +...+x n 1 w n+w n +1 >0;

x 1 2 w i+x 22 w 2 +...+x n 2 w n+w n +1 <0;

x 1 iw i+x 2i w 2 +...+x ni w n+w n +1 >0;

................................................

x 1 Nw i +x 2N w 2 +...+x nN w n +w n + 1>0;

Evo x i=(x i 1 ,x i 2 ,...,x i n ,x i n+ 1 ) - vektor vrijednosti karakteristika slike iz uzorka za obuku, znak > odgovara vektorima slike x, koji pripada klasi A, znak< - векторам x, koji pripada klasi B.

Potreban vektor w postoji ako su klase A i B odvojive i ne postoji inače. Vrijednosti vektorskih komponenti w može se pronaći ili unaprijed, u fazi koja prethodi hardverskoj implementaciji SRO-a, ili direktno od samog SRO-a tokom njegovog rada. Posljednji od ovih pristupa pruža veću fleksibilnost i autonomiju SRO. Razmotrimo ga na primjeru uređaja zvanog percentron. izumio je 1957. američki naučnik Rosenblatt. Šematski prikaz procentrona, koji osigurava da je slika dodijeljena jednoj od dvije klase, prikazan je na sljedećoj slici.

Retina S Retina A Retina R

oh oh x 1

oh oh x 2

oh oh x 3

o (zbir)-------> R(reakcija)

oh oh x i

oh oh x n

oh oh x n +1

Uređaj se sastoji od senzornih elemenata retine S, koji su nasumično povezani sa asocijativnim elementima retine A. Svaki element druge retine proizvodi izlazni signal samo ako je dovoljan broj senzornih elemenata povezanih na njegov ulaz u pobuđenom stanju. Odgovor cijelog sistema R proporcionalan je zbiru reakcija elemenata asocijativne retine uzetih sa određenim težinama.

Označeno od strane x i reakcija i asocijativni element i kroz w i- koeficijent težine reakcije i asocijativnog elementa, reakcija sistema se može zapisati kao R=suma( w j x j), j=1,..,n. Ako R>0, onda slika predstavljena sistemu pripada klasi A, i ako R<0, то образ относится к классу B. Описание этой процедуры классификации соответствует рассмотренным нами раньше принципам классификации, и, очевидно, перцентронная модель распознавания образов представляет собой, за исключением сенсорной сетчатки, реализацию линейной дискриминантной функции. Принятый в перцентроне принцип формирования значений x 1 , x 2 ,...,x n odgovara nekom algoritmu za generisanje karakteristika na osnovu signala primarnih senzora.

Generalno, može postojati nekoliko elemenata R, formirajući perceptronsku reakciju. U ovom slučaju govore o prisutnosti retine u perceptronu R reagujućih elemenata.

Shema procentrona može se proširiti na slučaj kada je broj klasa veći od dva, povećanjem broja elemenata retine R do broja prepoznatljivih klasa i uvođenje bloka za određivanje maksimalne reakcije u skladu sa dijagramom prikazanim na gornjoj slici. U ovom slučaju, slika se dodjeljuje razredu sa brojem i, Ako R i>Rj, za sve j.

Proces obuke percentrona sastoji se od odabira vrijednosti težinskih koeficijenata w j tako da izlazni signal odgovara klasi kojoj pripada prepoznata slika.

Razmotrimo akcioni algoritam percentron na primjeru prepoznavanja objekata dvije klase: A i B. Objekti klase A moraju odgovarati vrijednosti R= +1, a klasa B - vrijednost R= -1.

Algoritam učenja je sljedeći.

Ako je sljedeća slika x pripada klasi A, ali R<0 (имеет место ошибка распознавания), тогда коэффициенты w j sa indeksima kojima odgovaraju vrijednosti x j>0, povećati za neki iznos dw, i preostali koeficijenti w j smanjen za dw. U ovom slučaju, vrijednost reakcije R prima povećanje prema njemu pozitivne vrijednosti, što odgovara ispravnoj klasifikaciji.

Ako x pripada klasi B, ali R>0 (postoji greška u prepoznavanju), zatim koeficijenti w j sa indeksima koji odgovaraju x j<0, увеличивают на dw, i preostali koeficijenti w j umanjeno za isti iznos. U ovom slučaju, vrijednost reakcije R prima povećanje prema negativnim vrijednostima koje odgovaraju ispravnoj klasifikaciji.

Algoritam tako vrši promjenu vektora pondera w ako i samo ako je slika predstavljena na k-ti trenažni korak, pogrešno je klasifikovan prilikom izvođenja ovog koraka i napušta vektor težine w nema promjene ako je ispravno klasificiran. Dokaz konvergencije ovog algoritma je predstavljen u [Tu, Gonzalez]. Takva obuka će u konačnici (uz pravilan odabir dw i linearna separabilnost klasa slika) vodi do vektora w, osiguravajući ispravnu klasifikaciju.

Metode statističkog prepoznavanja.

Statističke metode se zasnivaju na minimiziranju vjerovatnoće greške u klasifikaciji. Verovatnoća P netačne klasifikacije slike podnete na prepoznavanje, opisane vektorom obeležja x, određuje se formulom

P = suma[ str(i)prob( D(x)+i | x klasa i)]

Gdje m- broj časova,

str(i) = sonda ( x pripada klasi i) - apriorna vjerovatnoća pripadnosti proizvoljnoj slici x To i razred (učestalost pojavljivanja slika i-ti razred),

D(x) - funkcija koja donosi odluku o klasifikaciji (vektor karakteristika x odgovara broju razreda i iz seta (1,2,..., m}),

problem( D(x) nije jednako i| x pripada klasi i) - vjerovatnoća događaja " D(x) nije jednako i“ kada su ispunjeni uslovi za članstvo x klasa i, tj. vjerovatnoća donošenja pogrešne odluke od strane funkcije D(x) za datu vrijednost x, u vlasništvu i-th class.

Može se pokazati da vjerovatnoća pogrešne klasifikacije dostiže minimum ako D(x)=i ako i samo ako str(x|istr(i)>str(x|jstr(j), za sve i+j, Gdje str(x|i) - gustina distribucije slike i-klasa u prostoru karakteristika.

Prema gore navedenom pravilu, tačka x pripada klasi kojoj odgovara maksimalna vrijednost str(i) str(x|i), tj. proizvod prethodne vjerovatnoće (učestalosti) pojave slika i-gustina distribucije klasa i slike i-klasa u prostoru karakteristika. Predstavljeno pravilo klasifikacije naziva se Bayesovskim, jer to slijedi iz Bayesove formule poznate u teoriji vjerovatnoće.

Primjer. Neka je potrebno prepoznati diskretne signale na izlazu informacionog kanala koji je podložan šumu.

Svaki ulazni signal predstavlja 0 ili 1. Kao rezultat prijenosa signala, vrijednost se pojavljuje na izlazu kanala x, koji je superponiran s Gaussovim šumom sa nultom srednjom vrijednosti i varijansom b.

Da bismo sintetizirali klasifikator koji vrši prepoznavanje signala, koristit ćemo Bayesovo pravilo klasifikacije.

Kombinovaćemo signale koji predstavljaju jedinice u klasu br. 1, a signale koji predstavljaju nule u klasu br. Neka se unaprijed zna da u prosjeku na svakih 1000 signala a signali predstavljaju jedinice i b signali - nula. Tada se vrijednosti apriornih vjerovatnoća pojave signala 1. i 2. klase (jedinice i nule), respektivno, mogu uzeti jednakima

p(1)=a/1000, p(2)=b/1000.

Jer šum je Gausov, tj. poštuje normalni (Gaussov) zakon raspodjele, zatim gustinu distribucije slika prve klase ovisno o vrijednosti x, ili, što je ista stvar, vjerovatnoća dobijanja izlazne vrijednosti x kada se na ulaz primijeni signal 1, on je određen izrazom

str(x¦1) =(2pib) -1/2 exp(-( x-1) 2 /(2b 2)),

i gustina distribucije u zavisnosti od vrednosti x slike druge klase, tj. vjerovatnoća dobijanja izlazne vrijednosti x kada se na ulaz primijeni signal 0, on je određen izrazom

str(x¦2)= (2pib) -1/2 exp(- x 2 /(2b 2)),

Primjena Bayesovog pravila odlučivanja dovodi do zaključka da je signal klase 2 prenesen, tj. null se prosljeđuje if

str(2) str(x¦2) > str(1) str(x¦1)

ili, preciznije, ako

b exp(- x 2 /(2b 2)) > a exp(-( x-1) 2 /(2b 2)),

Podijelimo li lijevu stranu nejednakosti desnom, dobivamo

(b/a) exp((1-2 x)/(2b 2)) >1,

gdje nakon uzimanja logaritma nalazimo

1-2x> 2b 2 ln(a/b)

x< 0.5 - б 2 ln(a/b)

Iz rezultirajuće nejednakosti slijedi da kada a=b, tj. sa jednakim apriornim verovatnoćama pojave signala 0 i 1, slici se dodeljuje vrednost 0 kada x<0.5, а значение 1, когда x>0.5.

Ako se unaprijed zna da se jedan od signala javlja češće, a drugi rjeđe, tj. u slučaju nejednakih vrijednosti a I b, prag odziva klasifikatora se pomiče u jednom ili drugom smjeru.

Pa kada a/b=2,71 (što odgovara 2,71 puta češćem prenosu jedinica) i b 2 =0,1, slici se dodeljuje vrednost 0 ako x<0.4, и значение 1, если x>0.4. Ako nema informacija o prethodnim vjerovatnoćama distribucije, tada se mogu koristiti statističke metode prepoznavanja koje su zasnovane na pravilima klasifikacije koja nisu Bayesova.

Međutim, u praksi su metode zasnovane na Bayesovim pravilima najčešće zbog njihove veće efikasnosti, ali i zbog činjenice da je u većini problema prepoznavanja obrazaca moguće postaviti apriorne vjerovatnoće pojave slika svake klase.

Lingvističke metode prepoznavanja obrazaca.

Lingvističke metode prepoznavanja obrazaca zasnivaju se na analizi opisa idealizirane slike, predstavljene u obliku grafikona ili lanca znakova, što je fraza ili rečenica određenog jezika.

Razmotrimo idealizirane slike slova dobivene kao rezultat prve faze jezičkog prepoznavanja opisane gore. Ove idealizirane slike mogu se specificirati opisima grafova, predstavljenih, na primjer, u obliku matrica povezivanja, kao što je urađeno u primjeru o kojem se gore govori. Isti opis može biti predstavljen frazom formalnog jezika (izrazom).

Primjer. Neka su date tri slike slova A, dobijene kao rezultat preliminarne obrade slike. Označimo ove slike identifikatorima A1, A2 i A3.

Da bismo lingvistički opisali predstavljene slike, koristićemo PDL (Jezik opisa slike). PDL vokabular uključuje sljedeće simbole:

1. Nazivi najjednostavnijih slika (primitiva). U odnosu na slučaj koji se razmatra, primitivi i njihova odgovarajuća imena su kako slijedi.

Slike u obliku linije usmjerene:

gore i lijevo (le F t), na sjever (sjever)), gore i desno (desno), na istok (istok)).

Imena: L, N, R, E.

2. Simboli binarnih operacija. (+,*,-) Njihovo značenje odgovara sekvencijalnom povezivanju primitiva (+), povezanosti početaka i završetka primitiva (*), povezanosti samo završetaka primitiva (-).

3. Desne i lijeve zagrade. ((,)) Zagrade vam omogućavaju da odredite redoslijed operacija u izrazu.

Razmatrane slike A1, A2 i A3 opisane su u PDL jeziku, redom, sljedećim izrazima.

T(1)=R+((R-(L+N))*E-L

T(2)=(R+N)+((N+R)-L)*E-L

T(3)=(N+R)+(R-L)*E-(L+N)

Nakon što je konstruisan jezički opis slike, potrebno je, koristeći neki postupak prepoznavanja, analizirati da li ova slika pripada ili ne klasi koja nas zanima (klasa slova A), tj. Bez obzira da li ova slika ima neku strukturu ili ne. Da bismo to učinili, prije svega, potrebno je opisati klasu slika koje imaju strukturu koja nas zanima.

Očigledno, slovo A uvijek sadrži sljedeće strukturne elemente: lijevu nogu, desnu nogu i glavu. Nazovimo ove elemente STL, STR, TR, respektivno.

Tada je u PDL jeziku klasa simbola A - SIMB A opisana izrazom

SIMB A = STL + TR - STR

Lijeva "noga" STL-a je uvijek lanac elemenata R i N, koji se može napisati ovako

STL ‑> R ¦ N ¦ (STL + R)¦ (STL + N)

(STL je znak R ili N, ili niz dobiven dodavanjem znakova R ili N izvornom STL nizu)

Desna “kraka” STR je uvijek lanac elemenata L i N, koji se može napisati ovako, tj.

STR ‑> L¦N¦ (STR + L)¦(STR + N)

Glavni dio slova - TR je zatvorena kontura koju čine element E i lanci poput STL i STR.

U PDL-u, TR struktura je opisana izrazom

TR ‑> (STL - STR) * E

Konačno, dobijamo sledeći opis klase slova A:

SIMB A ‑> (STL + TR - STR),

STL ‑> R¦N¦ (STL + R)¦(STL + N)

STR ‑> L¦N¦ (STR + L)¦(STR + N)

TR ‑> (STL - STR) * E

Postupak priznavanja u ovom slučaju može se provesti na sljedeći način.

1. Izraz koji odgovara slici uspoređuje se sa referentnom strukturom STL + TR - STR.

2. Svaki element strukture STL, TR, STR, ako je moguće, tj. ako je opis slike uporediv sa standardnim, neki podizraz iz izraza T(A) se podudara. na primjer,

za A1: STL=R, STR=L, TR=(R-(L+N))*E

za A2: STL = R + N, STR = L, TR = ((N + R) - L) * E

za A3: STL = N + R, STR = L + N, TR = (R - L) * E 3.

Izrazi STL, STR, TR se upoređuju sa odgovarajućim referentnim strukturama.

4. Ako struktura svakog izraza STL, STR, TR odgovara standardnoj, zaključuje se da slika pripada slovnoj klasi A. Ako u bilo kojoj od faza 2, 3, 4 dođe do neslaganja između strukture analizirajući izraz i detektuje standard, dolazi se do zaključka da slika ne pripada SIMB klasi A. Poređenje ekspresionih struktura može se izvršiti korišćenjem algoritamskih jezika LISP, PLANER, PROLOG i drugih sličnih jezika veštačke inteligencije.

U primjeru koji se razmatra, svi STL lanci su sastavljeni od simbola N i R, a STR lanci su sastavljeni od simbola L i N, što odgovara datoj strukturi ovih lanaca. Struktura TR na slikama koje se razmatraju takođe odgovara referentnoj, budući da sastoji se od “razlike” lanaca poput STL, STR, “pomnoženih” simbolom E.

Dakle, dolazimo do zaključka da slike koje se razmatraju pripadaju klasi SIMB A.


Sinteza fuzzy kontrolera za DC električni pogonu MatLab okruženju

Sinteza fuzzy kontrolera sa jednim ulazom i izlazom.

Izazov je natjerati pogon da precizno prati različite ulazne signale. Razvoj kontrolne akcije vrši se pomoću fuzzy kontrolera, u kojem se strukturno mogu razlikovati sljedeći funkcionalni blokovi: fuzzifier, blok pravila i defuzifier.

Sl.4 Generalizovani funkcionalni dijagram sistema sa dve jezičke varijable.

Fig.5 Šematski dijagram fuzzy kontroler sa dvije lingvističke varijable.

Algoritam rasplinutog upravljanja u opštem slučaju je transformacija ulaznih varijabli fazi kontrolera u njegove izlazne varijable koristeći sljedeće međusobno povezane procedure:

1. transformacija ulaznih fizičkih varijabli primljenih od mjernih senzora iz kontrolnog objekta u ulazne lingvističke varijable rasplinutog kontrolera;

2. obrada logičkih iskaza, zvanih lingvistička pravila, u vezi sa ulaznim i izlaznim jezičkim varijablama kontrolera;

3. transformacija izlaznih jezičkih varijabli fazi kontrolera u fizičke kontrolne varijable.

Razmotrimo prvo najjednostavniji slučaj, kada se uvode samo dvije jezičke varijable za upravljanje servo pogonom:

“ugao” je ulazna varijabla;

“kontrolna akcija” je izlazna varijabla.

Kontroler ćemo sintetizirati u MatLab okruženju koristeći Fuzzy Logic alatni okvir. Omogućava vam da kreirate fuzzy inference i fuzzy sisteme klasifikacije unutar MatLab okruženja, sa mogućnošću da ih integrišete u Simulink. Osnovni koncept Fuzzy Logic Toolbox-a je FIS struktura - Fuzzy Inference System. Struktura FIS-a sadrži sve potrebne podatke za implementaciju funkcionalnog mapiranja „ulazi-izlazi“ zasnovano na fazi logičkom zaključivanju prema dijagramu prikazanom na Sl. 6.


Slika 6. Fazni zaključak.

X - ulazni jasan vektor; - vektor rasplinutih skupova koji odgovara ulaznom vektoru X;
- rezultat logičkog zaključivanja u obliku vektora rasplinutih skupova Y - izlazni čisti vektor.

fuzzy modul vam omogućava da izgradite fuzzy sisteme dva tipa - Mamdani i Sugeno. U sistemima kao što je Mamdani, baza znanja se sastoji od pravila forme “Ako je x 1 = nisko i x 2 = srednje, onda je y = visoko”. U sistemima tipa Sugeno, baza znanja se sastoji od pravila forme „Ako je x 1 = nizak i x 2 = srednji, onda je y = a 0 +a 1 x 1 +a 2 x 2 ". Dakle, glavna razlika između sistema Mamdani i Sugeno je na različite načine postavljanje vrijednosti izlazne varijable u pravilima koja čine bazu znanja. U sistemima tipa Mamdani, vrijednosti izlazne varijable određene su rasplinutim terminima, u sistemima tipa Sugeno - kao linearna kombinacija ulaznih varijabli. U našem slučaju koristićemo Sugeno sistem, jer bolje se podvrgava optimizaciji.

Za upravljanje servo pogonom uvode se dvije lingvističke varijable: “greška” (po poziciji) i “kontrolna akcija”. Prvi od njih je ulaz, drugi je izlaz. Hajde da definišemo skup termina za navedene varijable.

Osnovne komponente fuzzy logičkog zaključivanja. Fuzzifikator.

Za svaku lingvističku varijablu definišemo osnovni terminski skup oblika, koji uključuje rasplinute skupove koji se mogu označiti: negativna visoka, negativna niska, nula, pozitivna niska, pozitivna visoka.

Prije svega, subjektivno definirajmo šta se podrazumijeva pod pojmovima “velika greška”, “mala greška” itd., definirajući funkcije pripadnosti za odgovarajuće rasplinute skupove. Ovdje se za sada možete voditi samo potrebnom preciznošću, poznatim parametrima za klasu ulaznih signala i zdravim razumom. Niko još nije mogao predložiti nikakav strogi algoritam za izbor parametara funkcija članstva. U našem slučaju, lingvistička varijabla “greška” će izgledati ovako.

Fig.7. Jezička varijabla "greška".

Pogodnije je lingvističku varijablu "kontrola" predstaviti u obliku tabele:

Tabela 1

Blok pravila.

Razmotrimo redoslijed definiranja nekoliko pravila koja opisuju neke situacije:

Pretpostavimo, na primjer, da je izlazni ugao jednak ulaznom signalu (tj. greška je nula). Očigledno, ovo je željena situacija, te stoga ne moramo ništa učiniti (kontrolna akcija je nula).

Sada razmotrite drugi slučaj: greška položaja je mnogo veća od nule. Naravno, moramo to kompenzirati generiranjem velikog pozitivnog kontrolnog signala.

To. sastavljena su dva pravila koja se formalno mogu definisati na sledeći način:

Ako greška = null, To kontrolna akcija = nula.

Ako greška = velika pozitivna, To kontrolni uticaj = veliki pozitivan.

Fig.8. Formiranje kontrole sa malom pozitivnom greškom u poziciji.

Fig.9. Formiranje kontrole sa greškom nulte pozicije.

Tabela ispod prikazuje sva pravila koja odgovaraju svim situacijama za ovaj jednostavan slučaj.

Tabela 2

Ukupno, za fazi kontroler sa n ulaza i 1 izlazom mogu se definisati pravila upravljanja, gde je broj rasplinutih skupova za i-ti ulaz, ali za normalno funkcionisanje kontrolera nije potrebno koristiti sve moguće pravila, ali možete proći s manje njih. U našem slučaju, svih 5 mogućih pravila se koristi za generiranje nejasnog upravljačkog signala.

Defuzzifier.

Dakle, rezultujući uticaj U će biti određen prema ispunjenju nekog pravila. Ako nastane situacija kada se nekoliko pravila izvršava odjednom, onda se rezultujući utjecaj U nalazi prema sljedećem odnosu:

, gdje je n broj pokrenutih pravila (defazifikacija metodom regionalnog centra), u n– fizička vrijednost kontrolnog signala koja odgovara svakom od rasplinutih skupova UBO, UMo, UZ, UMp, UBP. mUn(u)– stepen pripadnosti kontrolnog signala u odgovarajućem fazi skupu Un=( UBO, UMo, UZ, UMp, UBP). Postoje i druge metode defuzzifikacije gdje je izlazna jezička varijabla proporcionalna "najjačem" ili "najslabijem" pravilu.

Modelirajmo proces upravljanja električnim pogonom pomoću fuzzy kontrolera opisanog gore.

Slika 10. Blok dijagram sistema u okruženjuMatlab.

Slika 11. Blok dijagram fuzzy kontrolera u okruženjuMatlab.

Slika 12. Prolazni proces pod radnjom u jednom koraku.

Rice. 13. Prolazni proces pod harmonijskim ulaznim djelovanjem za model s rasplinutim kontrolerom koji sadrži jednu ulaznu lingvističku varijablu.

Analiza karakteristika pogona sa sintetiziranim algoritmom upravljanja pokazuje da su one daleko od optimalnih i lošije nego kod sintetiziranja upravljanja drugim metodama (također veliko vrijeme regulacija sa efektom jednog koraka i greška sa harmonijskim). Ovo se objašnjava činjenicom da su parametri funkcija pripadnosti odabrani sasvim proizvoljno, a kao ulaz kontrolera korištena je samo vrijednost greške položaja. Naravno, ni o kakvoj optimalnosti rezultujućeg regulatora ne može biti govora. Stoga zadatak optimizacije rasplinutog regulatora postaje relevantan kako bi se postigli najviši mogući pokazatelji kvaliteta upravljanja. One. Zadatak je optimizirati ciljnu funkciju f(a 1 ,a 2 …a n), gdje su a 1 ,a 2 …a n koeficijenti koji određuju tip i karakteristike rasplinutog regulatora. Za optimizaciju fuzzy kontrolera koristićemo ANFIS blok iz Matlab okruženja. Takođe, jedan od načina da se poboljšaju karakteristike kontrolera može biti povećanje broja njegovih ulaza. To će regulator učiniti fleksibilnijim i poboljšati njegove performanse. Dodajmo još jednu ulaznu lingvističku varijablu - brzinu promjene ulaznog signala (njegov derivat). Shodno tome će se povećati i broj pravila. Tada će dijagram strujnog kruga regulatora poprimiti oblik:

Slika 14 Šematski dijagram rasplinutog kontrolera sa tri lingvističke varijable.

Neka je vrijednost brzine ulaznog signala. Osnovni skup pojmova Tn definiramo kao:

Tn=("negativno (BO)", "nula (Z)", "pozitivno (BP)").

Lokacija funkcija pripadnosti za sve lingvističke varijable prikazana je na slici.

Slika 15. Funkcije pripadnosti lingvističke varijable “greška”.

Slika 16. Funkcije pripadnosti lingvističke varijable „brzina ulaznog signala”.

Zbog dodavanja još jedne lingvističke varijable, broj pravila će se povećati na 3x5=15. Princip njihove kompilacije potpuno je sličan onom o kojem je gore raspravljano. Svi su prikazani u sljedećoj tabeli:

Tabela 3

Nejasan signal

menadžment

Greška pozicije

Brzina

Na primjer, ako Ako greška = nula i derivacija ulaznog signala = velika pozitiva, To kontrolni utjecaj = mali negativan.

Slika 17. Formiranje kontrole pod tri lingvističke varijable.

Zbog povećanja broja ulaza i, shodno tome, samih pravila, struktura fuzzy kontrolera će postati složenija.

Slika 18. Blok dijagram fuzzy kontrolera sa dva ulaza.

Dodajte sliku

Fig.20. Prolazni proces pod harmonijskim ulaznim djelovanjem za model s rasplinutim kontrolerom koji sadrži dvije ulazne lingvističke varijable.

Rice. 21. Signal greške pod harmonijskim ulaznim djelovanjem za model s rasplinutim kontrolerom koji sadrži dvije ulazne lingvističke varijable.

Hajde da simuliramo rad fuzzy kontrolera sa dva ulaza u Matlab okruženju. Blok dijagram modela će biti potpuno isti kao na sl. 19. Iz grafa prelaznog procesa za harmonički ulazni efekat se vidi da je tačnost sistema značajno povećana, ali da je istovremeno povećana njegova oscilacija, posebno na mestima gde derivacija izlazne koordinate teži na nulu. Očigledno, razlozi za to, kao što je gore spomenuto, su neoptimalan izbor parametara funkcije pripadnosti i za ulazne i za izlazne lingvističke varijable. Stoga optimiziramo fuzzy kontroler koristeći blok ANFISedit u Matlab okruženju.

Optimizacija fuzzy kontrolera.

Razmotrimo upotrebu genetskih algoritama za optimizaciju fuzzy kontrolera. Genetski algoritmi su metode adaptivnog pretraživanja koje se u posljednje vrijeme često koriste za rješavanje problema funkcionalne optimizacije. Oni se zasnivaju na sličnosti sa genetskim procesima biološki organizmi: biološke populacije se razvijaju kroz nekoliko generacija, poštujući zakone prirodna selekcija i po principu “opstanak najjačih”, koji je otkrio Charles Darwin. Oponašanjem ovog procesa, genetski algoritmi su u stanju da „razvijaju“ rešenja za probleme iz stvarnog sveta ako su pravilno kodirani.

Genetski algoritmi rade sa kolekcijom "pojedinaca" - populacijom od kojih svaka predstavlja moguće rješenje ovaj problem. Svaki pojedinac se procjenjuje mjerom njegove “prilagodljivosti” prema tome koliko je “dobro” rješenje problema koji mu odgovara. Najsposobnije jedinke su u stanju da "reproduciraju" potomstvo "ukrštanjem" sa drugim jedinkama u populaciji. To dovodi do pojave novih pojedinaca koji kombinuju neke od karakteristika koje su naslijedili od svojih roditelja. Najnesposobnije jedinke imaju manje šanse da se razmnožavaju, tako da će sve osobine koje posjeduju postepeno nestati iz populacije.

Tako se reproducira cjelokupna nova populacija izvodljivih rješenja, birajući najbolje predstavnike prethodna generacija, prelazeći ih i dobijajući mnogo novih jedinki. Ova nova generacija sadrži veći omjer karakteristika koje posjeduju dobri pripadnici prethodne generacije. Dakle, s generacije na generaciju, dobre karakteristike proširio po cijeloj populaciji. Na kraju, stanovništvo će se približiti optimalnom rješenju problema.

Postoji mnogo načina da se ideja biološke evolucije implementira u okviru genetskih algoritama. Tradicionalni, može se predstaviti kao sljedeći blok dijagram prikazan na slici 22, gdje je:

1. Inicijalizacija početne populacije – generisanje zadatog broja rješenja problema, sa kojim počinje proces optimizacije;

2. Primjena operatora ukrštanja i mutacija;

3. Uslovi zaustavljanja - obično se proces optimizacije nastavlja sve dok se ne pronađe rješenje problema sa datom tačnošću, ili dok se ne utvrdi da je proces konvergirao (tj. rješenje problema se nije poboljšalo u posljednjih N generacija).

U Matlab okruženju genetski algoritmi su predstavljeni posebnim alatnim okvirom, kao i ANFIS paketom. ANFIS je skraćenica za Adaptive-Network-Based Fuzzy Inference System - adaptive fuzzy inference network. ANFIS je jedna od prvih varijanti hibridnih neuro-fazi mreža - posebna vrsta neuronske mreže sa brzim prijenosom podataka. Arhitektura neuro-fazi mreže je izomorfna rasplinutoj bazi znanja. Neuro-fuzzy mreže koriste različite implementacije trokutnih normi (množenje i vjerovatnoća OR), kao i glatke funkcije članstva. Ovo vam omogućava da koristite brze i genetske algoritme za obuku neuronskih mreža zasnovanih na metodi backpropagacije za postavljanje neuro-fuzzy mreža. Arhitektura i pravila rada svakog sloja ANFIS mreže su opisana u nastavku.

ANFIS implementira Sugeno fuzzy inference sistem kao petoslojnu neuronsku mrežu naprijed. Svrha slojeva je sljedeća: prvi sloj su termini ulaznih varijabli; drugi sloj - prethodnici (premise) nejasnih pravila; treći sloj je normalizacija stepena usklađenosti sa pravilima; četvrti sloj je zaključak pravila; peti sloj je agregacija rezultata dobijenog prema različitim pravilima.

Mrežni ulazi nisu dodijeljeni posebnom sloju. Slika 23 prikazuje ANFIS mrežu sa jednom ulaznom varijablom (“greška”) i pet fuzzy pravila. Za lingvističku evaluaciju ulazne varijable “greška” koristi se 5 pojmova.


Fig.23. StrukturaANFIS-mreže

Dozvolite da uvedemo sljedeću notaciju koja je neophodna za daljnje predstavljanje:

Neka su mrežni ulazi;

y - mrežni izlaz;

Fuzzy pravilo sa rednim brojem r;

m - broj pravila;

Fazni termin sa funkcijom članstva koji se koristi za lingvističku evaluaciju varijable u r-tom pravilu (,);

Realni brojevi u zaključku r-tog pravila (,).

ANFIS mreža radi na sljedeći način.

Sloj 1. Svaki čvor u prvom sloju predstavlja jedan pojam sa funkcijom članstva u obliku zvona. Mrežni ulazi su povezani samo sa svojim terminima. Broj čvorova u prvom sloju jednak je zbiru kardinaliteta skupova termina ulaznih varijabli. Izlaz čvora je stepen do kojeg vrijednost ulazne varijable pripada odgovarajućem rasplinutom terminu:

,

gdje su a, b i c konfigurabilni parametri funkcije članstva.

Sloj 2. Broj čvorova u drugom sloju je m. Svaki čvor u ovom sloju odgovara jednom nejasnom pravilu. Čvor drugog sloja povezan je sa onim čvorovima prvog sloja koji čine prethodnike odgovarajućeg pravila. Stoga svaki čvor u drugom sloju može primiti od 1 do n ulaznih signala. Izlaz čvora je stepen ispunjenja pravila, koji se izračunava kao proizvod ulaznih signala. Označimo izlaze čvorova ovog sloja sa , .

Sloj 3. Broj čvorova u trećem sloju je također m. Svaki čvor ovog sloja izračunava relativni stepen ispunjenja fuzzy pravila:

Sloj 4. Broj čvorova u četvrtom sloju je također m. Svaki čvor je povezan sa jednim čvorom trećeg sloja kao i sa svim mrežnim ulazima (veze sa ulazima nisu prikazane na slici 18). Čvor četvrtog sloja izračunava doprinos jednog nejasnog pravila mrežnom izlazu:

Sloj 5. Jedan čvor u ovom sloju sažima doprinose svih pravila:

.

Tipične procedure za obuku neuronskih mreža mogu se koristiti za konfiguraciju ANFIS mreže budući da ona koristi samo funkcije koje se mogu razlikovati. Obično se koristi kombinacija gradijentnog spuštanja u obliku algoritma povratnog širenja i metode najmanjih kvadrata. Algoritam propagacije unazad prilagođava parametre prethodnika pravila, tj. funkcije članstva. Koeficijenti zaključaka pravila se procjenjuju korištenjem metode najmanjih kvadrata, budući da su linearno povezani sa izlazom mreže. Svaka iteracija postupka podešavanja se izvodi u dva koraka. U prvoj fazi, na ulaze se dostavlja uzorak za obuku, a koristeći neslaganje između željenog i stvarnog ponašanja mreže, koristi se iterativni metod najmanjih kvadrata za pronalaženje optimalni parametričvorovi četvrtog sloja. U drugoj fazi, rezidualni ostatak se prenosi sa izlaza mreže na ulaze, a parametri čvorova prvog sloja se modifikuju metodom backpropagation. U ovom slučaju, koeficijenti zaključaka pravila pronađeni u prvoj fazi se ne mijenjaju. Iterativni postupak podešavanja se nastavlja sve dok neusklađenost ne pređe unaprijed određenu vrijednost. Za postavljanje funkcija članstva, osim metode propagacije unazad, mogu se koristiti i drugi algoritmi optimizacije, na primjer, Levenberg-Marquardtova metoda.

Fig.24. ANFISedit radno područje.

Pokušajmo sada optimizirati fuzzy kontroler za radnju u jednom koraku. Željeni prolazni proces ima otprilike sljedeći oblik:

Fig.25. Željeni proces tranzicije.

Iz grafikona prikazanog na sl. iz toga sledi većina vrijeme, motor mora raditi punom snagom kako bi se osigurale maksimalne performanse, a kada se približi željenoj vrijednosti, mora glatko kočiti. Vođeni ovim jednostavnim argumentima, uzet ćemo sljedeći uzorak vrijednosti, predstavljen u obliku tabele, kao uzorak za obuku:

Tabela 4


Vrijednost greške

Kontrolna vrijednost

Vrijednost greške

Kontrolna vrijednost

Vrijednost greške

Kontrolna vrijednost


Fig.26. Vrsta uzorka za obuku.

Provešćemo obuku u 100 koraka. Ovo je više nego dovoljno za konvergenciju korištene metode.

Fig.27. Proces obuke neuronske mreže.

Tokom procesa učenja, parametri funkcija pripadnosti se formiraju na način da za datu vrijednost greške kontroler kreira potrebnu kontrolu. U području između čvornih tačaka, kontrolna ovisnost o grešci je interpolacija podataka tablice. Metoda interpolacije ovisi o tome kako je neuronska mreža obučena. Zapravo, nakon obuke, model rasplinutog kontrolera može se predstaviti kao nelinearna funkcija jedne varijable, čiji je graf prikazan u nastavku.

Fig.28. Grafikon kontrole u odnosu na grešku položaja unutar kontrolera.

Nakon što smo sačuvali pronađene parametre funkcija pripadnosti, simuliramo sistem sa optimizovanim fuzzy kontrolerom.


Rice. 29. Prolazni proces pod harmonijskim ulaznim djelovanjem za model s optimiziranim rasplinutim kontrolerom koji sadrži jednu ulaznu jezičku varijablu.

Fig.30. Signal greške pod harmonijskim ulaznim djelovanjem za model s rasplinutim kontrolerom koji sadrži dvije ulazne lingvističke varijable.


Iz grafikona proizilazi da je optimizacija fazi kontrolera korištenjem obuke neuronske mreže bila uspješna. Varijabilnost i veličina greške su značajno smanjene. Stoga je upotreba neuronske mreže sasvim opravdana za optimizaciju regulatora čiji je princip rada zasnovan na fazi logici. Međutim, čak ni optimizirani kontroler ne može zadovoljiti zahtjeve za preciznošću, pa je preporučljivo razmotriti drugu metodu upravljanja kada fuzzy kontroler ne upravlja direktno objektom, već kombinuje nekoliko zakona upravljanja u zavisnosti od trenutne situacije.