Google kasutas molekulide modelleerimiseks kvantnärvivõrke. Miks on kvantnärvivõrgud huvitavad?

Vene Föderatsiooni haridus- ja teadusministeerium

osariik haridusasutus Moskva piirkond

Rahvusvaheline Looduse, Ühiskonna ja Inimese Ülikool "Dubna"

Magistritöö

TeemaKvantnärvivõrgud õppimis- ja juhtimisprotsessides

Üliõpilane Afanasjeva Olga Aleksandrovna

annotatsioon

see töö on pühendatud kvantnärvivõrkude (QNN) analüüsile ja nende praktilistele rakendustele.

Nende probleemide lahendamine on tihedalt seotud kvantprogrammeerimismeetodite arendamisega ning pakub teoreetiliselt ja praktilist huvi robustse intelligentse juhtimise projekteerimisprotsesside jaoks riskitingimustes ja ettenägematutes juhtimissituatsioonides, võttes arvesse kvantefekte moodustamise ajal. teabeprotsess teadmistebaaside iseorganiseerumine.

Eesmärkide saavutamiseks uuriti välisautorite kirjandust, vaadeldi näiteid QNS-i kasutamisest juhtimisprotsessides.

Töö tulemuseks on klassikaliste ja kvantneuronite võrdlev analüüs. Pakutakse välja uued kvantoperaatorid, nagu superpositsioon, kvantkorrelatsioon ja interferents. QNN võimaldab teil näha otsingu- ja treeningruumi, suurendada õppesignaali lähendamise protsessi täpsust ja robustsust.

Töö viidi läbi dr Phys.-Math. Teadused, professor S.V. Uljanov Rahvusvahelise Looduse, Ühiskonna ja Inimese Ülikooli “Dubna” süsteemianalüüsi ja juhtimise instituudis.

Sissejuhatus

1. Probleemi avaldus

1.2 Algandmed

1.3 Uurimiskomponent

2. Teaduslik komponent

2.1 Kvantnärvivõrkude arhitektuur

2.2 Miks on kvantnärvivõrgud huvitavad

2.3 Kvantneuron

2.4 Kvantnärvivõrgu ehitamine

2.5 Kvantarvutus

2.6 QNS mudelid

2.7 Kvantseisund ja selle esitus

3. Kesknärvisüsteemi koolitus

3.1 Kvantnärvivõrkude rakendamine. Juhendatud õppealgoritmi tähendus

3.2 Ühekihilised ja mitmekihilised pertseptronid

3.2.1 Ühekihiline pertseptron. Haridus

3.2.2 Mitmekihiline pertseptron. Mitmekihiline Perceptroni koolitus

3.3 Tagasi levitamise algoritm

3.4 Geneetiline algoritm. Klassikaline reisimüüja probleem

4. Automaatne objektihaldus

4.1 Juhtobjekt

4.2 Robootika kui tehisintellekti suund

4.2.1 Roboti üldine plokkskeem

4.2.2 Kontseptuaalne mudel

4.2 Tõhus juhtimine kvantspinniregister. Krüptograafia ja kvantteleportatsioon

5. Praktiline osa. Kvantnärvivõrkude näited

5.1 Pööratud pendel

5.2 Pildi tihendamine

5.3 Tähestiku kodeerimine

6 MATLAB NEURAALVÕRGU TÖÖRIISTA. Kohoneni võrgustik

Järeldus

Bibliograafia

Sissejuhatus

Tänapäeval, nagu sada aastat tagasi, pole kahtlustki, et aju töötab tõhusamalt ja põhimõtteliselt teistmoodi kui ükski inimese loodud arvutusmasin. Just see tõsiasi on nii palju aastaid motiveerinud ja suunanud teadlasi üle maailma tehisnärvivõrkude loomisel ja uurimisel.

Tehisnärvivõrkudel (ANN) on mõned atraktiivsed omadused, nagu paralleelne hajutatud töötlemine, veataluvus ning võime õppida ja omandatud teadmisi üldistada. Üldistusomadus viitab ANN-i võimele genereerida õigeid väljundeid sisendsignaalidele, mida õppeprotsessis arvesse ei võetud. Need kaks omadust teevad ANN-ist infotöötlussüsteemi, mis lahendab keerukaid mitmemõõtmelisi probleeme, mis on väljaspool teiste tehnikate võimalusi. Kuid ANN-id seisavad silmitsi ka paljude väljakutsetega, sealhulgas deterministlike optimaalsete arhitektuuride reeglite puudumine, piiratud mälumaht, pikk treeningaeg jne. .

Tehisnärvivõrgud on kasutusele võetud kõikjal, kus on vaja lahendada prognoosimise, klassifitseerimise või juhtimise probleeme. See muljetavaldav edu on tingitud mitmest põhjusest:

.Rikkalikud võimalused. Närvivõrgud on äärmiselt võimas modelleerimismeetod, mis suudab reprodutseerida äärmiselt keerulisi sõltuvusi. Lineaarne modelleerimine on aastaid olnud enamikus valdkondades domineeriv modelleerimismeetod, kuna optimeerimisprotseduurid on selle jaoks hästi välja töötatud. Ülesannetes, kus lineaarne lähendamine ei ole rahuldav (ja neid on üsna palju), toimivad lineaarsed mudelid halvasti. Lisaks tulevad närvivõrgud toime “dimensioonilisuse needusega”, mis ei võimalda suure hulga muutujate puhul lineaarseid sõltuvusi modelleerida.

.Lihtne kasutada. Närvivõrgud õpivad näidetest. Närvivõrgu kasutaja valib esinduslikud andmed ja käivitab seejärel õppealgoritmi, mis õpib automaatselt andmete struktuuri. Sel juhul nõutakse kasutajalt muidugi teatud heuristiliste teadmiste kogumit andmete valimise ja ettevalmistamise, soovitud võrguarhitektuuri valimise ja tulemuste tõlgendamise kohta, kuid teadmiste tase, mis on vajalik närvivõrkude edukaks kasutamiseks. on palju tagasihoidlikum kui näiteks kasutades traditsioonilised meetodid statistikat.

ANN-i valdkonnas tutvustasid mõned pioneerid kvantarvutus sarnasesse arutelusse nagu kvantneuraalne arvutus, Absorbeeritud kvantnärvivõrk, kvantassotsiatiivne mälu ja paralleelõpe. Nad ehitasid aluse kvantarvutuste edasiseks uurimiseks ANN-is. Selle käigus kerkib esile tehisnärvivõrkude valdkond, mis põhineb kvantteoreetilistele kontseptsioonidele ja meetoditele. Neid nimetatakse kvantnärvivõrkudeks.

1. Probleemi avaldus

.1 Eesmärk

Kvantnärvivõrkude uurimine ja analüüs, nende praktiline rakendamine.

Uurimisvaldkonnad

· Tuvastage kvantnärvivõrkude eelised klassikaliste võrkude ees.

· Vaatleme näiteid kvantnärvivõrkude kasutamisest intelligentsetes juhtimisprotsessides.

· Simuleerige kvantneuroni tööd klassikalises arvutis.

· Andmeklastrite võrgu modelleerimine MATLABis.

· Vaatleme konkreetset näidet robootikast (robotmanipulaator).

1.2 Algandmed

· Üheksaköiteline raamat kvantarvutusest ja kvantprogrammeerimisest, välja antud Milano ülikooli poolt, autor Uljanov S.V.

· Nilssoni monograafia, 2006.

· Veebisait www.qcoptimizer.com.

1.3 Uurimiskomponent

Uuring on seotud uuenduslikud tehnoloogiad kvantnärvivõrkude arendamine intelligentsete juhtimissüsteemide vallas koos õppimisega. Nende probleemide lahendamine on tihedalt seotud kvantprogrammeerimismeetodite väljatöötamisega ning pakub teoreetiliselt ja praktiliselt huvi robustse intelligentse juhtimise projekteerimisprotsesside jaoks riskitingimustes ja ettenägematutes juhtimissituatsioonides, võttes arvesse kvantmõjusid teabe kujunemisel. teadmistebaaside iseorganiseerumise protsess.

2. Teaduslik komponent

.1 Kvantnärvivõrkude arhitektuur

Mõnda süsteemi võidakse kutsuda närviline, kui on võimalik tuvastada vähemalt üks neuron. Närvisüsteem on kvantneuraalnesüsteemi, kui seda on võimalik rakendada kvantarvutus.

Kvantnärvivõrkudeks nimetatavatele võrgustikele on mitu erinevat lähenemist. Erinevad uurijad kasutavad omavaheliste seoste loomiseks oma analoogiaid kvantmehaanika ja tehisnärvivõrgud. Mõned nende kahe valdkonna põhikontseptsioonid on kokku võetud järgmises tabelis 1:

Tabel 1. Kvantmehaanika ja närvivõrgu teooria põhimõisted

Klassikalised närvivõrgud KvantnärvivõrgudNeuronide olek Qubits Ühendus Segadus Õppimise reegel Põimumisseisundite superpositsioon Otsige võitjat Häire kui unitaarne teisendus Väljundtulemus Dekoherentsus (mõõtmine)

Tabeli samal real olevaid mõistepaare ei tohiks käsitleda analoogiana – tegelikult on sellise analoogia loomine kvantnärvivõrkude teooria üks peamisi ülesandeid. Siiani on kvantkontseptsioone kasutatud peamiselt klassikaliste arvutuste rakendamiseks. Kvantarvutuse kontseptsiooni võttis 1982. aastal kasutusele Richard Feynman, kes uuris kvantefektide rolli tulevastes protsessorites, mille elemendid võivad olla aatomisuurused. 1985. aastal sõnastas David Deutsch kvantarvutuse kontseptsiooni. Oluline on märkida, et närvivõrkude kasutamise efektiivsus on seotud massilise paralleelselt hajutatud teabetöötlusega ja sisendvektorite neuronite teisendamise mittelineaarsusega. Teisest küljest on kvantsüsteemidel palju võimsam kvantparalleelsus, mida väljendab superpositsiooni põhimõte.

Kvantklassikalise ja neuraalarvuti kontseptsiooni väljatöötamisel mängib olulist rolli valitud kvantmehaanika tõlgendus, mille hulgas

Kopenhaageni tõlgendus;

Teeintegraalide Feynmani formalism;

Everetti paljude maailmade tõlgendus jne.

Kvantmehaanika ja neuroarvutite vahelise analoogiate leidmisel on oluline tõlgenduse valik. Eelkõige on see oluline kvantmehaanika lineaarse teooria ja põhiliselt mittelineaarse andmetöötluse seostamise probleemi lahendamiseks, mis määrab neurotehnoloogia võimsuse.

2.2 Miks on kvantnärvivõrgud huvitavad

Huvi kvantnärvivõrkude vastu on kaks peamist põhjust. Üks hõlmab argumente, et kvantprotsessid võivad mängida ajufunktsioonis olulist rolli. Näiteks Roger Penrose on toonud erinevaid põhjuseid, miks ainult uus füüsika, mis peaks ühendama kvantmehaanika üldine teooria relatiivsusteooria võiks kirjeldada selliseid nähtusi nagu mõistmine ja teadvus. Tema lähenemine ei ole aga suunatud mitte närvivõrkudele endile, vaid rakusisestele struktuuridele nagu mikrotuubulid. Teine põhjus on seotud kvantarvutuse kiire kasvuga, mille põhiideed võiks hästi üle kanda neuroarvutisse, mis avaks neile uusi võimalusi.

Kvantnärvisüsteemid võivad mööda minna mõnest keerulisest probleemist, mis on kvantarvutuse jaoks hädavajalikud, kuna neil on analoogne olemus ja võime õppida piiratud arvust näidetest.

Mida võime kvantnärvivõrkudelt oodata? Praegu on kvantnärvivõrkudel järgmised eelised:

eksponentsiaalne mälumaht;

parem jõudlus vähemate peidetud neuronitega;

kiire õppimine;

katastroofilise unustamise kõrvaldamine pildihäirete puudumise tõttu;

lineaarselt lahutamatute probleemide lahendamine ühekihilise võrgu abil;

ühenduste puudumine;

suur andmetöötluskiirus (10 10 bitid/s);

miniatuursed (10 11neuronid/mm 3);

kõrgem stabiilsus ja töökindlus;

Need kvantnärvivõrkude potentsiaalsed eelised on need, mis peamiselt motiveerivad nende arengut.

.3 Kvantneuron

Sünapsid suhtlevad neuronite vahel ja korrutavad sisendsignaali ühenduse tugevust iseloomustava numbriga – sünapsi kaaluga. Summer lisab teistelt neuronitelt sünaptiliste ühenduste kaudu saabuvad signaalid ja välised sisendsignaalid. Muundur rakendab ühe argumendi funktsiooni, liitja väljundi, neuroni mõneks väljundväärtuseks. Seda funktsiooni nimetatakse neuronite aktiveerimise funktsiooniks.

Seega kirjeldatakse neuroni täielikult selle kaalude ja aktiveerimisfunktsiooniga F. Olles saanud sisenditena arvude komplekti (vektori), toodab neuron väljundina teatud arvu.

Aktiveerimisfunktsioon võib olla erinevat tüüpi. Enim kasutatud valikud on toodud tabelis (tabel 2).

Tabel 2: neuronite aktiveerimise funktsioonide loend

NameFormulaValue areaThreshold (0, 1)Allkirjastatud (-1,1)Sigmoid (0,1)Pooljooneline (0, ∞)Lineaarne (-∞, ∞)Radiaalne basaal (0, 1)Pooljooneline küllastusega (0, 1)Lineaarne küllastusega (-1,1) Hüperboolne puutuja (-1,1)Kolmnurkne (0, 1)

Kvantneuroni määratlus on esitatud järgmiselt:

See võtab sisendsignaale (teiste kesknärvisüsteemi neuronite algandmed või väljundsignaalid) vastu mitme sisendkanali kaudu. Iga sisendsignaal läbib ühenduse, millel on teatud intensiivsus (või kaal); see kaal vastab neuroni sünaptilisele aktiivsusele. Igal neuronil on sellega seotud konkreetne läviväärtus. Arvutatakse välja sisendite kaalutud summa, sellest lahutatakse läviväärtus ja tulemuseks on neuroni aktivatsiooni hulk (nimetatakse ka neuroni postsünaptiliseks potentsiaaliks – PSP).

Aktiveerimissignaal teisendatakse neuroni väljundi saamiseks aktiveerimisfunktsiooni (või ülekandefunktsiooni) abil (joonis 1).

Joonis 1: Neuronite matemaatiline mudel

Kvantneuroni matemaatiline mudel, kus on maatriksid, mis toimivad operaatori alusel, mis suudab rakendada kvantrakkude võrku.

Näiteks: Kvantneuroni õppimisprotsess. = - identiteedioperaator: .

Kvantõppe reegel on esitatud analoogselt klassikalise juhtumiga järgmiselt: , kus on soovitud väljund. See õppimisreegel viib kvantneuroni õppimiseks kasutatavasse soovitud olekusse. Võttes erinevuse tegeliku ja soovitud väljundi ruudus mooduli jaoks, näeme, et:

Primitiivsetest elementidest saab kokku panna terve võrgu, kasutades ANN-i arhitektuuri standardreegleid.

2.4 Kvantnärvivõrgu ehitamine

See probleem lahendatakse kahes etapis: CNN-i tüübi (arhitektuuri) valimine, CNN-i raskuste valimine (treening).

Esimeses etapis tuleks valida: milliseid neuroneid soovime kasutada (sisendite arv, ülekandefunktsioonid); kuidas neid omavahel ühendada? mida võtta kesknärvisüsteemi sisenditeks ja väljunditeks.

See ülesanne tundub esmapilgul mahukas, kuid õnneks ei pea me CNN-i "nullist" välja mõtlema - erinevaid närvivõrgu arhitektuure on mitukümmend ja paljude nende tõhusus on matemaatiliselt tõestatud. Kõige populaarsemad ja uuritud arhitektuurid on mitmekihilised pertseptron, üldregressiooninärvivõrk, Kohoneni närvivõrgud jt.

Teises etapis peaksime valitud võrku "koolitama", st valima selle kaalude sellised väärtused, et see töötaks soovitud viisil. Treenimata KNS on nagu laps – talle saab õpetada kõike. Praktikas kasutatavates närvivõrkudes võib raskuste arv olla mitukümmend tuhat, seega on treenimine tõeliselt keeruline protsess. Paljude arhitektuuride jaoks on välja töötatud spetsiaalsed õppealgoritmid, mis võimaldavad CNN-i kaalusid teatud viisil konfigureerida. Kõige populaarsem neist algoritmidest on meetod Error Back Propagation, mida kasutatakse näiteks pertseptroni treenimiseks.

2.5 Kvantarvutus

Kvantarvutus võimaldab lahendada probleeme, mida klassikalistes arvutites lahendada ei saa. Näiteks annab Shori algoritm kvantarvutis polünoomlahenduse täisarvu faktoriseerimiseks kaheks algteguriks, mida klassikalises arvutis peetakse lahustumatuks. Lisaks annab Groveri algoritm järjestamata andmebaasist andmete otsimisel märkimisväärset kiirust.

Siiani ei ole me näinud kvalitatiivset erinevust tavaliste bittide ja kubitite kasutamise vahel, kuid midagi kummalist juhtub siis, kui eksponeerite aatomile täpselt nii palju valgust, et elektron saaks ergastustasemete vahel pooleldi. Kuna elektronid ei saa nende tasandite vahelises ruumis tegelikult eksisteerida, eksisteerivad nad MÕLEMEL tasemel korraga. Seda tuntakse kui superpositsioon .

See superpositsioon võimaldab teoreetiliselt arvutada mitu võimalust korraga, kuna kubitide rühm võib esindada mitut arvu korraga. Superpositsiooni omaduse abil arvutamiseks saate luua qubittide komplekti, panna need superpositsiooni olekutesse ja seejärel teha nendega toimingu.

Algoritmi valmimisel saab superpositsiooni kokku tõmmata ja saadakse kindel tulemus – s.t. kõik kubitid lähevad olekutesse 0 või 1. Võib eeldada, et algoritm toimib paralleelselt kõikidel võimalikel kubiti olekute kombinatsioonidel (st 0 või 1) – trikk, mida tuntakse kvantparalleelsusena (tabel 3).

Tabel 3: Kvantarvutuse põhimõisted

NKvantarvutuse põhikontseptsioon:1 2 3 4 5 6Kirjeldus lainefunktsioon kvantevolutsioonist (arengust) Klassikaliste olekute superpositsioon (jada) Põimumise interferentsi mõõtmine Unitaarteisendused

Kvantnärvisüsteemide mudelite koostamisel (nagu ka kvantarvutuste mudelite loomisel) on vaja selgitada, milliseid arvutusi saab iseloomustada tõeliselt kvantarvutustena ja millised on nende arvutuste tõhususe allikad.

Oluline koht on ka kvantarvutussüsteemide efektiivsemate rakendusvaldkondade selgitamisel.

Kvantinformatsiooni põhiressurss ja põhimoodus on kvantbitt (qubit). Füüsikalisest vaatenurgast kujutab kubit kvantsüsteemi ideaalset kaksikolekut. Selliste süsteemide näideteks on footonid (vertikaalne ja horisontaalne polarisatsioon), elektronid ja süsteemid, mis on määratletud kahe aatomite või ioonide energiatasemega. Kvantmehaanika uurimisel on algusest peale mänginud keskset rolli süsteemi duaalne olek. See on kõige lihtsam kvantsüsteem ja põhimõtteliselt saab kõiki teisi kvantsüsteeme modelleerida kubittide sõlmede olekuruumis.

Kvantbiti oleku määrab vektor kahemõõtmelises kompleksvektori ruumis. Siin on vektoril kaks komponenti ja selle projektsioonid vektorruumi alustele on kompleksarvud. Kvantbitt esitatakse (Dirac-märgistuses ket-vektorina) või vektortähistuses (bra-vektor). Kui siis. Kvantarvutamise eesmärgil kodeerivad baasolekud |0> ja |1> vastavalt klassikalised bitiväärtused 0 ja 1. Erinevalt klassikalistest bittidest võivad kubitid olla |0> ja |1> superpositsioonis, näiteks kus ja on kompleksarvud, mille puhul kehtib järgmine tingimus: . Kui või võtta nullväärtusi, siis see määratleb klassikalise puhta oleku. Vastasel juhul öeldakse, et see on kahe klassikalise põhioleku superpositsioonis. Geomeetriliselt on kvantbitt pidevas olekus vahemikus ja kuni selle oleku mõõtmiseni. Juhul, kui süsteem koosneb kahest kvantbitist, kirjeldatakse seda kui tensorkorrutist. Näiteks Diraci tähistuses on kahekvantiline bitisüsteem antud kujul. Kombineeritud süsteemi võimalike olekute arv suureneb kvantbiti lisandumisel eksponentsiaalselt.

See toob kaasa komposiitsüsteemis kvantbittide vahel esineva kvantkorrelatsiooni hindamise probleemi.

Olekute arvu eksponentsiaalne kasv koos võimalusega allutada kogu ruum teisendustele (või süsteemi ühtsele dünaamilisele arengule või mõõtmisprojektile alamruumis omavektor) loob aluse kvantarvutitele. Kuna unitaarteisendused on pöörduvad, on kõik kvantarvutused (välja arvatud mõõtmised) pöörduvad, piirates neid unitaarsete kvantteisendustega. See tähendab, et iga kvantrakk (üks või mitu kubitti) teostab pöörduva arvutuse. Seega on väljundraku puhul vaja üheselt määrata, mis sisend oli. Õnneks on klassikaline teooria pöörduv arvutus, mis ütleb meile, et iga klassikalist algoritmi saab muuta vastuvõetava ülempiiriga pööratavaks, seega ei kujuta see kvantarvutuse piirang tõsist probleemi. Seda tuleks aga kvantvärava spetsifikatsiooni esitamisel arvesse võtta.

2.6 QNS mudelid

Maailmas on mitu uurimisinstituuti, kes tegelevad näiteks kvantnärvivõrgu kontseptsiooniga Tehnikaülikool Georgias ja Oxfordi ülikoolis. Enamik aga hoidub oma tööde avaldamisest. Tõenäoliselt on see tingitud asjaolust, et kvantnärvivõrgu rakendamine on potentsiaalselt palju lihtsam kui tavaline kvantarvuti ja iga asutus soovib võita kvantvõistlust. Kvantnärvivõrku on teoreetiliselt lihtsam ehitada kui kvantarvutit ühel põhjusel. See põhjus on sidusus. Paljude kubitite superpositsioon vähendab kvantarvuti vastupanuvõimet mürale ja müra võib potentsiaalselt põhjustada superpositsiooni kokkuvarisemise või dekoherentsi enne kasuliku arvutuse tekkimist. Kuna aga kvantnärvivõrgud ei vaja väga pikki perioode ega väga palju superpositsioone neuroni kohta, on need müra suhtes vähem vastuvõtlikud, tehes endiselt arvutusi, mis on sarnased tavapärase närvivõrguga, kuid mitu korda kiiremini (tegelikult eksponentsiaalselt). .

Kvantnärvivõrgud saaksid oma eksponentsiaalse kiiruse eelise realiseerida, kasutades neuroni sisendite ja väljundite suurusjärkude superpositsiooni. Kuid teine ​​​​kasu, mida võiks saada, on see, et kuna neuronid suudavad töödelda signaalide superpositsiooni, võib närvivõrgul olla peidetud kihis vähem neuroneid, kui õpib antud funktsiooni ligikaudselt. See võimaldaks ehitada lihtsamaid võrke vähemate neuronitega ja seeläbi parandada nende töö stabiilsust ja töökindlust (st väheneks võrgu sidususe kaotamise võimaluste arv). Kas seda kõike arvesse võttes ei võiks kvantnärvivõrk olla arvutuslikult võimsam kui tavaline võrk? Praegu tundub vastus olevat eitav, kuna kõik kvantmudelid kasutavad arvutuste tegemiseks piiratud arvu kubitte ja see on piirang.

2.7 Kvantseisund ja selle esitus

kvantneuronite perceptron robootika

Kvantseisund ja kvantarvutuse operaator on mõlemad olulised paralleelsuse ja plastilisuse mõistmiseks infotöötlussüsteemides.

Kvantloogikaskeemis on põhilised kvantolekud - oleku U ühebitine pöörlemine θ , näidatud joonisel 2, ja kahebitiliselt juhitud EI olekut, mis on näidatud joonisel fig. 3. Esimesed olekud pööravad sisendkvantoleku sellele olekule θ. Viimased osariigid sooritage XOR-operatsioon.

Riis. 2. Ühebitise pöörlemise olek

Riis. 3. Kahebitine EI ole oleku juhtimine

Valime järgmise esituse Eq komplekshinnangu. (3) vastab piiravalt kuupolekule võrrandis. (1).


Võrrand (3) võimaldab väljendada järgmisi tehteid: rotatsiooni olek ja kahebitiliselt juhitud EI olekud.

A) Pöörlemisoleku toimimine

Pöörlemisolek on liikuvate olekute faas, mis muudab faasi kuubikujuliseks olekuks. Kuna kuupolekut esindab võrrand. (3) mõistetakse olekut järgmise seosena:

) Operatsioon kahebitine juhitav EI

See toiming määratakse sisendparameetriga γ järgmisel viisil:

Kus γ=1 vastab pöördpöördele ja γ=0 - mittepöörlemine. Millal γ=0, kvantseisundi amplituudi tõenäosusfaas |1> on täielikult muutunud.

Täheldatud tõenäosus on aga muutumatu, nii et käsitleme seda juhtumit mittepöörlemisena.

3. Kesknärvisüsteemi koolitus

Kvantnärvivõrgud on tõhusad keerukate funktsioonide täitmisel mitmes valdkonnas. Nende hulka kuuluvad mustrite tuvastamine, klassifitseerimine, nägemine, juhtimissüsteemid ja ennustamine.

Õppimisvõime – kohaneda muutuvas olukorras tingimuste ja võimalustega väliskeskkond- nii oluline omadus närvivõrgud, mis on nüüd eraldi elemendina lisatud nn Turingi testile, mis on intelligentsuse mõiste operatiivne definitsioon.

Empiiriline test, mille idee pakkus välja Alan Turing<#"justify">· Närvivõrku stimuleerib keskkond.

· Närvivõrgus toimuvad ergastuse tagajärjel muutused oma vabades parameetrites.

· Võrgustik reageerib keskkonnale uuel viisil tänu selle sisestruktuuris toimunud muutustele.

Saadaval on palju algoritme ja võib eeldada, et QNN-i mudeli kujundamiseks on olemas unikaalne algoritm. Algoritmide erinevused seisnevad sõnastuses, mis võib muuta neuronite kaalu, ja neuronite seost nende keskkonnaga.

Kõik õppemeetodid võib jagada kahte põhikategooriasse: juhendatud ja juhendamata.

Tabelis 4 on toodud erinevad õppealgoritmid ja nendega seotud võrguarhitektuurid (loetelu ei ole ammendav). Viimases veerus on loetletud ülesanded, mille jaoks saab iga algoritmi rakendada. Iga õppealgoritm on keskendunud konkreetse arhitektuuriga võrgule ja on mõeldud piiratud klassi ülesannete jaoks. Lisaks käsitletutele tuleks mainida veel mõningaid algoritme: Adaline ja Madaline, lineaarne diskriminantanalüüs, Sammoni projektsioonid, põhikomponentide analüüs.

Tabel 4: Tuntud õppealgoritmid:

ParadigmÕppereegelArhitektuurÕppealgoritmÜlesanneJärelevalvega VeaparandusÜhekihiline ja mitmekihiline tajupertseptron Pertseptroni õppimisalgoritmid Tagasilevi Adaline ja Madalinepertseptroni koolitus Tagasi levitamine Adaline ja MadalineMustri klassifikatsioon Funktsioonide lähendamine Prognoos, õppimine, juhtimine või edasiminekBoltzmannPaareliikumineBoltzmannRecurrent klass diskriminantanalüüsAndmeanalüüs Mustri klassifikatsioonVõistlusVõistlusVektori kvantimine Klassisisese kategoriseerimineAndmete tihendamine ARTARTKaardivõrk Mustri klassifikatsioon Järelevalveta VeaparandusMitmekihiline edasileviSammoni projektsioon Intra- kategoriseerimisklass Andmeanalüüs Hebb Otsene levi või konkurents Põhikomponentide analüüs Andmeanalüüs Andmete tihendamine Hopfieldi võrk Assotsiatiivne mälu õppimine Assotsiatiivne mälu Võistlus Võistlus Vektorkvantimine Kategoriseerimine Andmete tihendamine Kohoneni SOM Kohoneni SOM kategoriseerimine Andmeanalüüs ARTART1, ART2 võrgud Kategoriseerimine Segatud veaparandus ja RBF võrk õppimisalgoritm kujutise klassifitseerimine Funktsiooni lähendamine Ennustus, juhtimine

Võrgustiku koolitamine tähendab talle öelda, mida me sellest tahame. See protsess on väga sarnane lapsele tähestiku õpetamisega. Pärast lapsele A-tähe pildi näitamist küsime temalt: "Mis täht see on?" Kui vastus on vale, ütleme lapsele vastuse, mida soovime: "See on täht A." Laps mäletab seda näidet koos õige vastusega, see tähendab, et tema mälus toimuvad mõned muutused õiges suunas. Kordame tähtede esitamise protsessi ikka ja jälle, kuni kõik 33 tähte on kindlalt meelde jäänud. Seda protsessi nimetatakse juhendatud õppimiseks (joonis 4).

Riis. 4. "Õpetajaga koolituse" protsess.

Võrgustikku treenides toimime täpselt samamoodi. Meil on mõni andmebaas, mis sisaldab näiteid (tähtede käsitsi kirjutatud kujutiste komplekt). Esitades KNS-i sisendisse tähe “A” kujutise, saame sealt mingi vastuse, mis ei pruugi olla õige. Teame ka õiget (soovitavat) vastust – sellisel juhul sooviksime, et signaali tase SNS-i väljundis märgistusega “A” oleks maksimaalne. Tavaliselt on klassifikatsiooniprobleemi soovitud väljundiks hulk (1, 0, 0, ...), kus 1 on väljundis, millel on silt “A”, ja 0 on kõigis teistes väljundites. Arvutades erinevuse soovitud vastuse ja võrgu tegeliku vastuse vahel, saame 33 numbrit - veavektori. Tagasi levitamise algoritm on valemite kogum, mis võimaldab veavektori abil arvutada närvivõrgu kaalude jaoks vajalikud parandused. Sama tähte (nagu ka sama tähe erinevaid pilte) saame esitada närvivõrgule mitu korda. Selles mõttes on õppimine pigem spordis harjutuste kordamine – treening.

Pärast korduvat näidete esitamist KNN-i kaalud stabiliseeruvad ja KNN annab kõigile (või peaaegu kõigile) andmebaasi näidetele õiged vastused. Sel juhul ütlevad nad, et "võrk on õppinud kõik näited", "närvivõrk on koolitatud" või "võrk on koolitatud". Tarkvararakendustes on näha, et õppeprotsessi käigus vea suurus (kõikide väljundite vigade ruudu summa) järk-järgult väheneb. Kui viga jõuab nulli või vastuvõetava väikese tasemeni, treening peatatakse ja tulemuseks olev võrk loetakse treenituks ja uute andmete jaoks kasutamiseks valmis.

Võrgustiku koolitusjaguneb järgmisteks etappideks:

  1. Võrgu lähtestamine: võrgu kaalud ja nihked on määratud vahemikest väikesed juhuslikud väärtused

    JA vastavalt.

  2. Treeningu näidiselemendi määratlus: (<текущий вход>, <желаемый выход>). Voolusisendid (x0, x1... xN-1) peavad olema treeningkomplekti kõikide elementide jaoks erinevad. Kui kasutada klassifikaatorina mitmekihilist pertseptronit, koosneb soovitud väljundsignaal (d0, d1...dN-1) nullidest, välja arvatud üks ühikelement, mis vastab klassile, kuhu praegune sisendsignaal kuulub.
  3. Voolu väljundsignaali arvutamine: Voolu väljundsignaal määratakse vastavalt mitmekihilise närvivõrgu traditsioonilisele tööskeemile.
  4. Sünaptiliste kaalude häälestamine: kaalude häälestamisel kasutatakse rekursiivset algoritmi, mis rakendatakse esmalt võrgu väljundneuronitele ja seejärel liigub võrk tagasi esimese kihini. Sünaptilised kaalud reguleeritakse järgmise valemi järgi:

,

kus w ij - kaal neuronilt i või sisendsignaali elemendilt i neuronile j ajahetkel t, x i " - sisendsignaali neuroni i või i-nda elemendi väljund, r - treeningsamm, g j - neuroni j veaväärtus. Kui neuronite arv j kuulub viimasesse kihti, siis

,

kus dj on neuroni j soovitud väljund, yj on neuroni j praegune väljund. Kui neuronite arv j kuulub ühte kihtidest esimesest kuni eelviimaseni, siis

,

kus k läbib kõiki kihi neuroneid, mille number on ühe võrra suurem kui selle neuroni number, kuhu neuron j kuulub. B-neuronite väliseid nihkeid reguleeritakse sarnaselt.

Vaadeldavat mudelit saab kasutada mustrite tuvastamiseks, klassifitseerimiseks ja ennustamiseks. On tehtud katseid ehitada mitmekihilistel pertseptronidel põhinevaid ekspertsüsteeme koos väljaõppega backpropagation meetodil. Oluline on märkida, et kogu teave, mis CNN-il probleemi kohta on, on näidete komplektis. Seetõttu sõltub CNN-i koolituse kvaliteet otseselt nii näidete arvust koolituskomplektis kui ka sellest, kui põhjalikult need näited antud ülesannet kirjeldavad. Jällegi, närvivõrkude koolitamine on keeruline ja teadmistemahukas protsess. KNN-i õppealgoritmidel on erinevad parameetrid ja seadistused, mille haldamine eeldab nende mõju mõistmist.

3.1 Kvantnärvivõrkude rakendamine. Juhendatud õppealgoritmi tähendus

Probleemide klassi, mida saab CNN-i abil lahendada, määrab see, kuidas võrk töötab ja kuidas see õpib. Töötamise ajal võtab kesknärvisüsteem vastu sisendmuutujate väärtused ja toodab väljundmuutujate väärtused. Seega saab võrku kasutada olukorras, kus teil on teatud teadaolevat teavet ja soovite sealt saada veel teadmata teavet. teadaolevat teavet(Patterson, 1996; Fausett, 1994). Siin on mõned näited sellistest ülesannetest:

· Mustri tuvastamine ja klassifitseerimine

Kujutised võivad olla erineva iseloomuga objektid: tekstisümbolid, pildid, helinäidised jne. Võrgustiku treenimisel pakutakse erinevaid pildinäidiseid, näidates ära, millisesse klassi need kuuluvad. Valimit esitatakse tavaliselt tunnusväärtuste vektorina. Sel juhul peab kõigi tunnuste kogusumma üheselt määrama klassi, kuhu valim kuulub. Kui funktsioone pole piisavalt, võib võrk määrata sama valimi mitmele klassile, mis on vale. Pärast võrgu treenimist saate seda esitada varem tundmatute piltidega ja saada vastuse teatud klassi kuulumise kohta.

· Otsuste tegemine ja juhtimine

See ülesanne on lähedal klassifitseerimisprobleemile. Olukorrad, mille tunnused saadakse kesknärvisüsteemi sisendis, kuuluvad klassifitseerimisele. Võrgu väljundis peaks ilmuma märk selle tehtud otsusest. Sel juhul kasutatakse sisendsignaalidena erinevaid juhitava süsteemi oleku kirjeldamise kriteeriume.

· Klasterdamine

Klasterdamine viitab sisendsignaalide hulga jagamisele klassidesse, hoolimata sellest, et ei klasside arv ega tunnused pole ette teada. Pärast treeningut suudab selline võrk määrata, millisesse klassi sisendsignaal kuulub.

· Prognoosimine

Pärast koolitust suudab võrk ennustada teatud jada tulevast väärtust mitme varasema väärtuse ja/või mõne praegu olemasoleva teguri põhjal. Tuleb märkida, et prognoosimine on võimalik ainult siis, kui varasemad muudatused tegelikult teatud määral määravad ette tulevasi.

· Lähendamine

Tõestatud on üldistatud lähendusteoreem: lineaartehteid ja kaskaadühendust kasutades on võimalik saada suvalisest mittelineaarsest elemendist seade, mis arvutab mis tahes pidev funktsioon teatud ettemääratud täpsusega.

· Andmete tihendamine ja assotsiatiivne mälu

Närvivõrkude võime tuvastada seoseid erinevate parameetrite vahel võimaldab kompaktsemalt väljendada kõrgmõõtmelisi andmeid, kui andmed on omavahel tihedalt seotud. Pöördprotsessi – algse andmekogumi taastamist teabekillust – nimetatakse autoassotsiatiivseks mäluks. Assotsiatiivne mälu võimaldab taastada ka algse signaali/pildi mürarikastest/kahjustatud sisendandmetest. Heteroassotsiatiivse mäluprobleemi lahendamine võimaldab meil rakendada sisu-aadressitavat mälu.

Probleemi lahendamise etapid:

andmete kogumine koolituse jaoks;

andmete ettevalmistamine ja normaliseerimine;

võrgu topoloogia valik;

võrgu omaduste eksperimentaalne valik;

tegelik koolitus;

koolituse piisavuse kontrollimine;

parameetrite reguleerimine, lõpuõpe;

võrgu verbaliseerimine edasiseks kasutamiseks.

Liigume siis teise juurde. oluline tingimus Kvantnärvivõrkude rakendused: Peame teadma, et teadaolevate sisendväärtuste ja tundmatute väljundite vahel on seos. Seda sidet võib müra moonutada.

Reeglina kasutatakse QNN-i siis, kui sisendite ja väljundite vaheliste ühenduste täpne tüüp pole teada – kui see oleks teada, siis saaks ühendust otse modelleerida. Teine oluline QNN-i omadus on see, et sisendi ja väljundi vaheline seos leitakse võrgu koolitusprotsessi käigus. CNN-i koolitamiseks kasutatakse kahte tüüpi algoritme (erinevat tüüpi võrgud kasutavad erinevat tüüpi koolitust): kontrollitud (“supervised learning”) ja järelevalveta (“järelevalveta”). Kõige sagedamini kasutatav meetod on juhendatud õpe.

Järelevalvega võrgutreeningu jaoks peab kasutaja koostama koolitusandmete komplekti. Need andmed on sisendite ja neile vastavate väljundite näited. Võrk õpib looma ühendust esimese ja teise vahel. Tavaliselt võetakse treeninguandmed ajaloolistest andmetest. See võib olla ka aktsiahindade ja FTSE indeksi väärtused, teave varasemate laenuvõtjate kohta - nende isikuandmed ja kas nad täitsid edukalt oma kohustusi, näited roboti positsioonidest ja selle õigest reaktsioonist.

Seejärel koolitatakse CNN-i, kasutades mõnda juhendatud õppimisalgoritmi vormi (tuntuim on Rumelharti jt, 1986 välja pakutud backpropagation meetod), milles olemasolevaid andmeid kasutatakse võrgu kaalude ja lävede reguleerimiseks sellisel viisil. et minimeerida viga.ennustus treeningkomplektil. Kui võrk on hästi koolitatud, omandab see võimaluse modelleerida (tundmatut) funktsiooni, mis seob sisend- ja väljundmuutujate väärtusi ning sellist võrku saab hiljem kasutada prognooside tegemiseks olukorras, kus väljundväärtused on teadmata.

3.2 Ühekihilised ja mitmekihilised pertseptronid

.2.1 Ühekihiline pertseptron. Haridus

Ajalooliselt oli esimene tehisnärvivõrk, mis oli võimeline tajuma (taju) ja tekitama reaktsiooni tajutavale stiimulile. PerceptronRosenblatt (F. Rosenblatt, 1957). Mõiste " Perceptron" pärineb ladina keelest taju, mis tähendab taju, tunnetust. Selle termini venekeelne analoog on "Perceptron". Selle autor ei käsitlenud pertseptronit kui spetsiifilist tehnilist arvutusseadet, vaid kui ajufunktsiooni mudelit. Kaasaegsed tööd tehisnärvivõrgud taotlevad sellist eesmärki harva.

Lihtsaim klassikaline pertseptron sisaldab kolme tüüpi elemente (joon. 5.).

Riis. 5. Elementaarne Rosenblatti pertseptron

Ühekihilist pertseptronit iseloomustab sünaptiliste ühenduste maatriks ||W|| S-st A-elementideni. Maatriksielement vastab ühendusele, mis viib i-ndast S-elemendist (ridadest) j-nda A-elemendini (veerud). See maatriks meenutab väga süsteemiteoorial põhinevas semantilises teabemudelis moodustatud absoluutsete sageduste ja teabesisu maatrikseid.

Kaasaegse neuroinformaatika seisukohalt pakub ühekihiline pertseptron peamiselt puhtajaloolist huvi, kuid selle näitel saab uurida närvivõrkude treenimise põhikontseptsioone ja lihtsaid algoritme.

Klassikalise närvivõrgu treenimine seisneb iga neuroni kaalukoefitsientide kohandamises.

1. samm: eeldatakse, et kõigi neuronite kaalude algväärtused on juhuslikud.

2. samm: võrku kuvatakse sisendkujutis x a , mille tulemusena moodustub väljundpilt.

Samm 3: Arvutatakse võrgu väljundis tehtud veavektor. Kaalukoefitsientide vektoreid reguleeritakse nii, et korrigeerimise suurus on võrdeline väljundi veaga ja võrdne nulliga, kui viga on null:

ü muudetakse ainult neid kaalumaatriksi komponente, mis vastavad nullist erinevale sisendväärtusele;

ü kaalu juurdekasvu märk vastab vea märgile, s.t. positiivne viga (väljundväärtus nõutavast väiksem) suurendab suhtlust;

ü Iga neuroni õppimine toimub sõltumatult teiste neuronite õppimisest, mis vastab lokaalse õppimise põhimõttele, mis on bioloogilisest seisukohast oluline.

4. etapp: samme 1-3 korratakse kõigi treeningvektorite puhul. Ühte kogu valimi järjestikuse esitamise tsüklit nimetatakse epohhiks. Treening lõpeb pärast mitut perioodi, kui on täidetud vähemalt üks järgmistest tingimustest:

ü kui iteratsioonid koonduvad, st. kaalude vektor lakkab muutumast;

ü kui kõigi vektorite summaarne absoluutviga muutub väiksemaks kui teatud väike väärtus.

3.2.2 Mitmekihiline pertseptron. Mitmekihiline Perceptroni koolitus

See on tõenäoliselt tänapäeval kõige sagedamini kasutatav võrguarhitektuur. Selle pakkusid välja Rumelhart ja McClelland (1986) ning seda käsitletakse üksikasjalikult peaaegu kõigis närvivõrke käsitlevates õpikutes (vt nt Bishop, 1995). Iga võrguelement koostab oma sisendite kaalutud summa, mida kohandatakse terminina, ja edastab seejärel selle aktiveerimisväärtuse ülekandefunktsiooni kaudu, et saada selle elemendi väljundväärtus. Elemendid on korraldatud kihtide kaupa topoloogias, millel on otsene signaaliedastus. Sellist võrku saab hõlpsasti tõlgendada kui sisend-väljund mudelit, milles kaalud ja läved (nihked) on mudeli vabad parameetrid. Selline võrk suudab modelleerida peaaegu igasuguse keerukusastmega funktsiooni, kusjuures funktsiooni keerukuse määrab kihtide arv ja elementide arv igas kihis. Vahekihtide arvu ja neis olevate elementide arvu määramine on mitmekihilise pertseptroni kujundamisel oluline küsimus (Haykin, 1994; Bishop, 1995).

Sisend- ja väljundelementide arvu määravad ülesande tingimused. Võib tekkida kahtlusi, milliseid sisendväärtusi kasutada ja milliseid mitte. Eeldame, et sisendmuutujad valitakse intuitiivselt ja need kõik on olulised. Täiesti ebaselge on veel küsimus, kui palju vahekihte ja elemente neis kasutada. Esialgse lähendusena võime võtta ühe vahekihi ja määrata selles olevate elementide arvu pooleks sisend- ja väljundelementide arvu summast. Jällegi käsitleme seda küsimust hiljem üksikasjalikumalt.

Mitmekihiline pertseptron on treenitav tuvastussüsteem, mis rakendab õppeprotsessi käigus kohandatud lineaarset otsustusreeglit sekundaarsete tunnuste ruumis, mis on tavaliselt fikseeritud juhuslikult valitud primaarsete tunnuste lineaarsed lävifunktsioonid.

Treeningu ajal edastatakse treeningnäidisest signaalid vaheldumisi pertseptroni sisendisse, samuti juhised klassi kohta, kuhu see signaal tuleks määrata. Pertseptroni treenimine seisneb kaalude korrigeerimises iga äratundmisvea jaoks, st iga pertseptroni loodud lahenduse ja tegeliku klassi lahknevuse juhtumi puhul. Kui pertseptron määras teatud klassile signaali valesti, siis funktsiooni, tõeklassi kaalud suurenevad ja eksliku klassi kaalud vähenevad. Õige lahenduse korral jäävad kõik kaalud muutumatuks (joonis 6.).

Riis. 6. Kahekihiline pertseptron

Näide: Vaatleme pertseptronit, s.t. süsteem n sisendkanaliga ja väljundkanaliga y. Klassikalise pertseptroni väljundiks on pertseptroni aktiveerimisfunktsioon ja raskuste häälestamine treeningprotsessi ajal. Pertseptroni treenimise algoritm töötab järgmiselt.

Kaalud initsialiseeritakse väikestes kogustes.

Näidisvektor kujutab pertseptronit ja reegli järgi saadud väljundit y

Kaalud uuendatakse vastavalt reeglile, kus t on diskreetne aeg ja d on soovitud treeningu jaoks toodetud väljund ja samm.

Kommenteeri. On ebatõenäoline, et on võimalik konstrueerida mittelineaarse aktiveerimisfunktsiooni F täpset analoogi, nagu sigmoid ja muud närvivõrkude üldfunktsioonid, võib-olla kvantjuhtumi jaoks.

3.3 Tagasi levitamise algoritm

1980. aastate keskel pakkusid mitmed teadlased iseseisvalt välja tõhusa algoritmi mitmekihiliste pertseptronite koolitamiseks, mis põhinevad veafunktsiooni gradiendi arvutamisel. Algoritmi nimetati "tagasi levitamiseks".

Tagasi levimise algoritm on iteratiivne gradiendi õppimisalgoritm, mida kasutatakse mitmekihiliste närvivõrkude voolu väljundi ja soovitud väljundi standardhälbe minimeerimiseks.

"Tagasi levimise" neuroparadigmas kasutatakse kõige sagedamini sigmoidseid ülekandefunktsioone, nt.

Sigmoidfunktsioonid kasvavad monotoonselt ja neil on nullist erinevad tuletised kogu definitsioonipiirkonna ulatuses. Need omadused tagavad võrgu nõuetekohase toimimise ja õppimise.

Mitmekihilise võrgu toimimine toimub vastavalt valemitele:

kus s on liitja väljund, w on ühenduse kaal, y on neuroni väljund, b on nihe, i on neuronite arv, N on kihis olevate neuronite arv, m on kihi number, L on arv kihtidest, f on aktiveerimisfunktsioon.

Tagasi paljundamise meetod- viis veafunktsiooni gradiendi kiireks arvutamiseks.

Arvutamine toimub väljundkihist sisendkihini, kasutades korduvaid valemeid ja see ei nõua neuronite väljundväärtuste ümberarvutamist.

Vea tagasilevi võimaldab mitu korda vähendada gradiendi arvutamise arvutuskulusid võrreldes gradiendi määramise arvutusega. Gradienti teades saate rakendada paljusid optimeerimisteooria meetodeid, mis kasutavad esimest tuletist.

Tagasi levitamise algoritmis arvutatakse veapinna gradiendi vektor. See vektor näitab piki pinda lühima laskumise suunda antud punktist, nii et kui liigume mööda seda “natuke”, siis viga väheneb. Selliste sammude jada (aeglustades põhja lähenedes) viib lõpuks ühe või teise tüübi miinimumini. Teatavaks raskuseks on siin küsimus, millise pikkusega samme astuda.

Loomulikult pole närvivõrgu sellise koolituse korral kindlust, et see on õppinud parim viis, kuna alati on võimalus, et algoritm langeb lokaalsesse miinimumi (joonis 7.). Selleks kasutatakse spetsiaalseid võtteid, et leitud lahendus sealt “välja lüüa”. kohalik äärmus. Kui pärast mitut sellist tegevust koondub närvivõrk samale lahendusele, siis võime järeldada, et leitud lahendus on suure tõenäosusega optimaalne.

Riis. 7. Gradiendi laskumise meetod võrguvigade minimeerimiseks

3.4 Geneetiline algoritm. Klassikaline reisimüüja probleem

Geneetiline algoritm (GA) on võimeline toimima optimaalne seadistus QNN, mille otsinguruumi mõõde on piisav enamiku praktiliste probleemide lahendamiseks. Pealegi ületab vaadeldavate rakenduste hulk kaugelt tagasilevitamise algoritmi võimalusi.

Teabetöötlus geneetilise algoritmi abil kasutab kasulike funktsioonide valimiseks kahte peamist mehhanismi, mis on laenatud tänapäevastest ideedest looduslik valik: mutatsioonid eraldi ahelas ja ristumine kahe ahela vahel. Vaatleme neid mehhanisme üksikasjalikumalt (tabel 5).

Tabel 5: Mutatsioonid ja ristamine

001110101100001001 000110100001101001a) Esialgsed geneetilised ahelad0011101 .......01100001001 .......00001101001 0001101b)... ....01100001001 0001101c) Fragmentide vahetus kood001110100001101001 000110101100001001d) Ketid pärast ristamist

Joonisel on kujutatud kahe ahela vahelise infovahetuse järjestikused etapid ristumise ajal. Saadud uued ahelad (või ühe neist) saab hiljem üldkogumisse kaasata, kui nende määratud tunnuste kogum annab sihtfunktsiooni parima väärtuse. Vastasel juhul nad kõrvaldatakse ja nende esivanemad jäävad elanikkonna hulka. Geneetilises ahelas esinev mutatsioon on punktilise iseloomuga: mingis juhuslikus ahela punktis asendatakse üks koodidest teisega (null ühega ja üks nulliga).

Tehislike infotöötlussüsteemide seisukohalt on geneetiline otsing spetsiifiline meetod optimeerimisprobleemile lahenduse leidmiseks. Pealegi kohandub selline iteratiivne otsing sihtfunktsiooni omadustega: ristumise protsessis sündinud ahelad testivad üha enam laiad alad neil on ruumid ja need asuvad valdavalt optimaalses piirkonnas. Suhteliselt haruldased mutatsioonid vältida geenifondi degeneratsiooni, mis on võrdväärne haruldase, kuid lõputu optimumi otsinguga iseloomuliku ruumi kõigis teistes piirkondades.

Viimase kümne aasta jooksul on välja töötatud palju meetodeid CNN-ide juhendatud koolitamiseks GA abil. Saadud tulemused tõestavad suurepäraseid võimalusi selline sümbioos. QNN-i ja GA-algoritmide kombineeritud kasutamisel on ka ideoloogiline eelis, kuna need kuuluvad evolutsioonilise modelleerimise meetodite hulka ja on välja töötatud sama tehnoloogiaparadigma raames, laenates looduslikke meetodeid ja mehhanisme kui kõige optimaalsemad.

Evolutsiooniprotsessi simuleerimiseks genereerime esmalt juhusliku populatsiooni – mitu isendit juhusliku kromosoomikomplektiga (numbrilised vektorid). Geneetiline algoritm simuleerib selle populatsiooni evolutsiooni tsüklilise isendite ristumise ja põlvkondade vahetumise protsessina (joonis 8.).

Riis. 8. Arvutusalgoritm

Vaatleme standardsete ja geneetiliste meetodite eeliseid ja puudusi klassikalise reisiva müügimehe probleemi (TSP - traveling salesman problem) näitel. Ülesande olemus on leida lühim suletud rada mitme linna ümber, mis on antud nende koordinaatide järgi. Selgub, et juba 30 linna jaoks on optimaalse tee leidmine keeruline ülesanne, mis on ajendanud välja töötama erinevaid uusi meetodeid (sh närvivõrke ja geneetilisi algoritme).

Iga lahendusvariant (30 linna puhul) on arvurida, kus j-ndas kohas on möödasõidu järjekorras j-nda linna number. Seega on selles probleemis 30 parameetrit ja mitte kõik väärtuste kombinatsioonid ei kehti. Loomulikult on esimene idee kõigi lahendusvõimaluste täielik otsing.

Ammendav meetod on oma olemuselt kõige lihtsam ja programmeerimisel triviaalne. Optimaalse lahenduse (sihtfunktsiooni maksimumpunkti) leidmiseks on vaja järjestikku arvutada sihtfunktsiooni väärtused kõigis võimalikes punktides, jättes meelde nende maksimumi. Selle meetodi puuduseks on kõrge arvutuskulu. Eelkõige on reisiva müügimehe probleemi puhul vaja arvutada enam kui 1030 võimaliku tee pikkused, mis on täiesti ebareaalne. Kui aga on võimalik mõistliku aja jooksul kõik variandid läbi otsida, siis võib olla täiesti kindel, et leitud lahendus on tõesti optimaalne (joonis 9.).

Riis. 9. Optimaalse lahenduse leidmine

Geneetiline algoritm on just selline kombineeritud meetod. Ristumise ja mutatsiooni mehhanismid realiseerivad teatud mõttes meetodi otsinguosa ning parimate lahenduste valik on gradient-laskumine. Joonis näitab (joonis), et see kombinatsioon võimaldab püsivalt head geneetilise otsingu efektiivsust mis tahes tüüpi ülesannete puhul (joonis 10.).

Riis. 10. Gradiendi laskumise meetod

Seega, kui mõnel komplektil antud keeruline funktsioon mitmest muutujast, siis geneetiline algoritm on programm, mis mõistliku aja jooksul leiab punkti, kus funktsiooni väärtus on piisavalt lähedal maksimaalsele võimalikule. Valides vastuvõetava arvutusaja, saame ühe parima lahenduse, mida selle ajaga üldiselt on võimalik saada.

Geneetiliste algoritmide positiivsed omadused

1. Globaalse miinimumi leidmine: mitte olla "kinni" sihtfunktsiooni lokaalsetes miinimumides.

Massiline paralleelsus töötlemisel: populatsioonis olevad isendid funktsioneerivad iseseisvalt: objektiivsete funktsioonide väärtuste, surma, mutatsioonide arvutamine toimub iga indiviidi jaoks iseseisvalt. Kui töötlemiselemente on mitu, võib jõudlus olla väga kõrge.

Biosarnasus: Geneetilised algoritmid on üles ehitatud samadele põhimõtetele, mis tekitasid inimeste ja kogu liikide mitmekesisuse, ning võivad seetõttu olla väga produktiivsed ja kasulikud.

4. Automaatne objektihaldus

Objekti juhtimine on selle mõjutamise protsess, et tagada objektis vajalik protsesside voog või vajalik olekumuutus. Kontrolli aluseks on informatsiooni hankimine ja töötlemine objekti seisukorra ja selle toimimise välistingimuste kohta, et teha kindlaks mõjud, mida tuleb objektile rakendada, et tagada kontrolli eesmärgi saavutamine.

Ilma inimese sekkumiseta teostatavat juhtimist nimetatakse automaatseks juhtimiseks. Seadet, mille abil juhtimine toimub, nimetatakse juhtimisseadmeks. Juhtobjekti ja juhtseadme kombinatsioon moodustab automaatse juhtimissüsteemi (ACS) (joonis 11.).

Riis. 11. Automaatjuhtimissüsteemi plokkskeem

Objekti olekut iseloomustatakse väljundväärtusega X. Juhtseadmelt võetakse objekti sisendisse vastu juhttegevus U. Lisaks juhtimistoimingule rakendatakse ka häirivat tegevust (häiring, interferents) F. objekt, mis muudab objekti olekut, st. X, segab juhtimist. Juhtseadme sisendisse antakse viitetoiming (ülesanne) G, mis sisaldab teavet X vajaliku väärtuse kohta, s.o. juhtimise eesmärgi kohta. Kõige üldisemal juhul saab objekti sisend teavet ka selle kohta praegune olek objekt väljundväärtuse X kujul ja objektile mõjuva häire kohta F. Muutujad U, G, F ja X on üldiselt vektorid.

Nagu iga dünaamiline süsteem, jagunevad automaatjuhtimissüsteemi protsessid püsiseisundiks ja üleminekuks.

ACS-i kaalumisel on olulised järgmised mõisted: süsteemi stabiilsus, juhtimisprotsessi kvaliteet ja juhtimise täpsus.

Juhtimisprotsessi kvaliteeti iseloomustab see, kui lähedal on juhtimisprotsess soovitud protsessile. Neid väljendatakse kvantitatiivselt kvaliteedikriteeriumidega:

Üleminekuaeg on ajavahemik üleminekuprotsessi algusest kuni hetkeni, mil väljundväärtuse kõrvalekalle uuest püsiseisundi väärtusest muutub väiksemaks kui teatud väärtus - tavaliselt 5%.

Maksimaalne kõrvalekalle üleminekuperioodil (ületamine) – kõrvalekalle määratakse uuest püsiseisundi väärtusest ja seda väljendatakse protsentides.

Siirdeprotsessi võnkumise määrab võnkumiste arv, mis on võrdne üleminekuprotsessi kõvera miinimumide arvuga üleminekuprotsessi ajal. Sageli väljendatakse võnkumist protsentides siirdekõvera külgnevate maksimumide suhtena.

Juhtimistäpsust iseloomustab süsteemiviga püsiolekurežiimides (lahknevus soovitud ja tegeliku signaali vahel) - staatiline.

4.1 Juhtobjekt

Juhtobjekti dünaamikat kirjeldab järgmine süsteem diferentsiaalvõrrandid: Juhtobjekt

Algandmed: juhtobjekt kujutab autot. Parameeter, mida tuleb kontrollida, on selle kiirus. Sõiduki kiirust saab reguleerida mõne muu parameetri abil. See võib olla: gaasipedaali vajutamise jõud jne. Auto kiirust võivad mõjutada paljud välised tegurid: kalle, millel auto liigub, tee haardumise kvaliteet, tuul. Teave sõiduki kiiruse kohta tuleb kiirusandurilt.

Juhtobjekti dünaamikat kirjeldatakse järgmise diferentsiaalvõrrandi süsteemiga:

Parameetrid T1, T2, K1, K2 määratakse katseliselt ja neil on vastavalt järgmised väärtused: K1=5, K2=7,156, T1=1,735, T2=16,85.

Närvivõrgu struktuuride klassis on vaja ehitada selline kontroller, mis tagaks objekti juhtimise, kui sünteesitud automaatjuhtimissüsteemile kehtivad järgmised nõuded:

· Kontrolleri füüsiline teostatavus.

· Töö stabiilsus.

· Minimaalne raskusaste.

· Neurokontrolleri ehitamine

ANN-i saab treenida teatud komplektil, valides häälestusparameetrid (joonis 12.). Kasutatakse tagasilevimise meetodit, mis põhineb gradientmeetodil, konvergentsikiiruse konstandiga h. Konvergentsi tagamiseks muudame h 1-lt 0,00001-le iteratsioonide arvuga 1 000 000. Treeningkomplekti suurus on 400 treeningpaari. Peidetud kihi neuronite arv on 50.

Riis. 12. Neurokontrolleriga ACS-i plokkskeem

Võrdluseks võeti PID-regulaatoriga ACS-i transientreaktsioon, kus k1=0,2, k2=0,007, k3=0,2.

Neuroregulaatori ja PID-regulaatoriga ACS on varustatud võrdlustoiminguga G = 10, 20, 30 ... 110. Intervalliga 50-100 s. süsteemi mõjutavad häired. ACS-i operatsiooni tulemused joonisel fig. 13.

Riis. 13. Neuroregulaatori ja PID-regulaatori võrdlus

Võrdlusest selgub: PID-regulaator jääb neuroregulaatorile alla nii kiiruse poolest stardis, häiretsooni sisenemisel kui ka väljumisel.

4.2 Robootika kui tehisintellekti suund

Kogu inimese intellektuaalne tegevus on lõppkokkuvõttes suunatud aktiivsele suhtlemisele välismaailmaga liikumiste kaudu. Samamoodi toimivad roboti intelligentsuse elemendid eelkõige selle eesmärgipärase liikumise korraldamiseks. Samal ajal on tehisintellekti (AI) puhtalt arvutisüsteemide peamine eesmärk lahendada intellektuaalseid probleeme, mis on oma olemuselt abstraktsed või abistavad ja tavaliselt ei ole seotud tajuga. keskkond kunstlike sensoorsete organite abil ega ka täiturmehhanismide liigutuste korraldamisega.

Esimene lähenemine uurib ennekõike inimese aju ehitust ja mehhanisme ning lõppeesmärk on paljastada mõtlemise saladused. Sellesuunaliste uuringute vajalikeks etappideks on psühhofüsioloogilistel andmetel põhinevate mudelite ehitamine, nendega katsete tegemine, uute hüpoteeside püstitamine intellektuaalse tegevuse mehhanismide kohta, mudelite täiustamine jne.

Teine lähenemisviis käsitleb tehisintellekti uurimisobjektina. Siin räägime intellektuaalse tegevuse modelleerimisest kasutades arvutid. Ja töö eesmärgiks on luua algoritmiline ja tarkvara arvutid, mis võimaldavad lahendada intellektuaalseid probleeme mitte halvemini kui inimesed.

Lõpuks on kolmas lähenemine keskendunud inimese ja masina (interaktiivsete) intelligentsete süsteemide loomisele, loodusliku ja tehisintellekti võimete sümbioosile. Olulisemad probleemid nendes uuringutes on funktsioonide optimaalne jaotus looduslike ja tehisintellekt ning dialoogi korraldamine inimese ja masina vahel.

Teadlaste katsed luua roboteid üle maailma on kokku puutunud vähemalt kahe tõsise probleemiga, mis on takistanud selles suunas olulist edasiminekut: pildituvastus ja terve mõistus. Robotid näevad palju paremini kui meie, kuid ei saa aru, mida nad näevad. Robotid kuulevad palju paremini kui meie, kuid ei mõista, mida nad kuulevad.

4.2.1 Roboti üldine plokkskeem

Diagramm, millel on näidatud tulevase roboti olulisemad komponendid (juhtimissüsteem, andurid, alarmid) ja nende omavahelised seosed. Selle diagrammi abil on lihtne navigeerida, mida robotile veel vaja on, mida on vaja teha või hankida (joonis 14.).

Riis. 14. Roboti üldine plokkskeem

4.2.2 Kontseptuaalne mudel

Robotdiagramm, tehtud kahel detailsustasemel. Kuvab süsteemi peamised funktsionaalsed komponendid ja nendevahelised ühendused. Väga kasulik mõtete korrastamiseks (joon. 15-22.).

Riis. 15. Kontseptuaalne mudel. Iseliikuv käru

Riis. 16. Käitumismuster

Riis. 17. Robotikeskkond

Riis. 18. Juhtpaneel

Riis. 19. Andurisüsteem

Riis. 20. Juhtimissüsteem

Riis. 21. Käiturisüsteem

Riis. 22. Häiresüsteem

4.2 Kvantspinniregistri tõhus juhtimine. Krüptograafia ja kvantteleportatsioon

Kvantarvutite idee väljendas esmakordselt Nõukogude matemaatik Yu.I. Manin 1980. aastal ja selle üle hakati aktiivselt arutama pärast Robert Feynmani artikli avaldamist 1982. aastal. Tõepoolest, olekud 0 ja 1, mida tänapäeva arvutites kujutatakse teatud pingetasemetena elektriskeemid(käivitab), võib tõlgendada ka olekutena elementaarosakesed, kui kasutame näiteks sellist tunnust nagu spin. Pauli põhimõtte kohaselt võib iga osakese spinniks olla +1/2 või -1/2 – mis pole loogiline “üks” ja “null”? Ja selliste päästikosakeste, mida nimetatakse "kvantbitideks" või "kubitideks" (Qbit), kvantloomus annab sellel alusel ehitatud arvutitele tõeliselt ainulaadsed omadused.

Kvantinfotöötlusseadmete arendamine on nanotehnoloogia uus ja kiiresti arenev valdkond. Selle arenguteel on probleeme, mida saab tinglikult jagada füüsikalisteks ja tehnoloogilisteks, matemaatilisteks ning teabe- ja andmetöötluseks. Viimane sisaldab küsimust: kuidas saab kvantarvutust maksimaalse efektiivsusega hallata?

Kvantarvutusseadme tööks on vaja nn takerdunud olekuid, mis on olulised ka kvantteleportatsiooni ja krüptograafia jaoks, seega on takerdumise uurimine kvantinfoteaduse üks peamisi eesmärke. Üldiselt peaks teabe ohutu töötlemine kvantregistris põhinema selle täitmise moodustavate kubittide (kvantbittide) juhtimisel.

Oletame, et on üks kubit. Sel juhul on pärast mõõtmist nn klassikalisel kujul tulemuseks 0 või 1. Tegelikkuses on kubit kvantobjekt ja seetõttu võib mõõtetulemuseks mõõtemääramatuse põhimõttest tulenevalt olla nii 0 ja 1 teatud tõenäosusega. Kui qubit on 0 (või 1) 100% tõenäosusega, tähistatakse selle olekut sümboliga (või) - Diraci tähistuses ja - need on baasolekud. Üldjuhul on kubiidi kvantolek põhiseisundite “vahel” ja kirjutatakse kujul, kus |a|I ja |b|I on vastavalt 0 või 1 mõõtmise tõenäosused; ; |a|І + |b|І = 1. Pealegi läheb kubit vahetult pärast mõõtmist sarnaselt klassikalisele tulemusele kvant põhiolekusse.

On olemas selline asi nagu kvantteleportatsioon. Kvantteleportatsiooni olemus seisneb objekti oleku edastamises vahemaa tagant, samal ajal kui objekt ise ei liigu. Selgub, et teleportatsioon, millest ulmekirjanikud on nii palju kirjutanud, ei jäägi enamaks kui ulmeks. Kvantteleportatsiooni kirjeldas Einstein. Tõsi, teadlane ise sellesse ei uskunud, kuigi see ei läinud vastuollu ühegi füüsikaseadusega. Suure teadlase arvates oleks kvantefekt, mida meie kaasaegsed katseliselt kinnitasid, viima täieliku absurdini. See viib aga, nagu meile praegu öeldakse, täiesti uue põlvkonna arvutite loomiseni.

Teleportatsiooni algoritm rakendab ühe kubiti (või süsteemi) oleku täpset ülekandmist teisele. IN kõige lihtsam skeem Kasutatakse 4 kubitti: allikas, vastuvõtja ja kaks abi. Pange tähele, et algoritmi tulemusel hävib allika algolek - see on toimingu näide üldpõhimõte võimatu kloonida – võimatu luua täpne koopia kvantseisund originaali hävitamata. Tegelikult on kubitidel identseid olekuid üsna lihtne luua. Näiteks pärast 3 qubiti mõõtmist viime neist kõik üle põhiolekutesse (0 või 1) ja vähemalt kahel neist langevad need kokku. Suvalist olekut ei ole võimalik kopeerida ja teleportatsioon asendab seda toimingut.

Teleportatsioon võimaldab edastada süsteemi kvantolekut tavaliste klassikaliste sidekanalite abil. Seega võib eelkõige saada seotud olek süsteem, mis koosneb kaugel asuvatest alamsüsteemidest.

Kvantiteabe töötlemiseks mõeldud kvantregistri paljutõotav kontseptsioon põhineb takerdunud olekus keerdude ansamblil, mida peetakse kubitideks. Puhaste olekute statistiliste segude, näiteks spin-ansamblite kasutamine on viinud kvantansamblite arvutustehnika väljatöötamiseni, mida on eksperimentaalselt rakendatud kuni 12 kubitises süsteemides. Isegi suuremaid kvantregistreid on eksperimentaalselt uuritud, et hinnata nende vastupidavust dekoherentsile, mis on oluline probleem. Seetõttu on vajalik ansambli arengu tõhus hindamine.

Tingimused, mille korral võib tekkida takerdumine, saab saavutada usaldusväärse soojusisolatsiooniga meetodiga, mida nimetatakse adiabaatiliseks demagnetiseerimiseks pöörlevas raamis (ADRF). Näib, et võimalus välismõjude abil hõlpsalt kontrollida kvantregistris olevate kubitide takerdumise hulka aitab paremini määrata selle efektiivse töörežiimi. Juhtimist saab modelleerida kõige lihtsamalt ja samas realistlikumalt, eeldades, et 1) süsteem on tasakaalu lähedal, 2) välismõju toob kaasa kubitite temperatuuri muutuse, 3) välismõju magnetväli ADRF tüübil on modelleerimiseks üsna lihtne vorm, 4) seda efekti saab erinevates kombinatsioonides taaskasutada juhtimissüsteemi peamise konstruktsioonielemendina.

Kvantparalleelsus seisneb selles, et arvutusprotsessis olevad andmed kujutavad endast kvantinformatsiooni, mis protsessi lõpus muundatakse kvantregistri lõppseisundit mõõtes klassikaliseks informatsiooniks. Kvantalgoritmide võit saavutatakse tänu sellele, et ühe kvanttehte rakendamisel teisendatakse samaaegselt suur hulk kvantolekute superpositsioonikoefitsiente, mis sisaldavad klassikalist informatsiooni virtuaalsel kujul.

Kvantmehaanika ideede rakendamine on juba avastatud uus ajastu krüptograafia vallas, kuna kvantkrüptograafia meetodid avavad uusi võimalusi sõnumite edastamise vallas.

Kvantkrüptograafia ütleb järgmist: saadetud sõnumi pealtkuulamine saab kohe teada. See tähendab, et spionaaži fakti ei saa ignoreerida. Kvantarvutiga krüpteeritud pealtkuulatud sõnum kaotab oma struktuuri ja muutub adressaadile arusaamatuks. Kuna kvantkrüptograafia kasutab ära reaalsuse olemust, mitte inimese leidlikkust, muutub spionaaži fakti varjamine võimatuks. Seda tüüpi krüpteerimise tekkimine teeb lõpu krüptograafide võitlusele kõige usaldusväärsemate sõnumite krüpteerimismeetodite pärast.

Pange tähele, et mida kauem takerdumine kestab, seda parem on kvantarvuti jaoks, kuna "kauakestvad" kubitid võivad lahendada keerukamaid probleeme.

Sel juhul sooritada kaks erinevaid ülesandeid protsessor kasutas Groveri ja Deutsch-Jose kvantalgoritme. Protsessor andis õige vastuse 80% juhtudest (kasutades esimest algoritmi) ja 90% juhtudest (kasutades teist algoritmi).

Tulemust loetakse ka mikrolainete abil: kui võnkesagedus ühtib õõnsuses esinevaga, siis signaal läbib seda.


5. Praktiline osa. Kvantnärvivõrkude näited

5.1 Pööratud pendel

Ülesanne on luua pendli stabiilne olek, nihutades kvantnärvivõrke kasutades kelku asendisse X=0 (joonis 23.).

Riis. 23. Pendli püsiseisund

Kontroller liigutab pendlit, tasakaalustab ja viib kelgu asendisse X=0 eeldusel, et kelk väldib löömist raja lõpp-punktides.

Riis. 24. Dispetšerisüsteem

Dispetšersüsteem koosneb närvivõrgust (FFNN), sihtmärgi generaatorist, komparaatorist ja pööratud pendlist juhitava objektina (joonis 24).

Riis. 25. Kvant- ja tehisnärvivõrkude tööpõhimõtte võrdlus

Kvantnärvivõrgul on paremad võimed kui tehisnärvivõrkudel (joonis 25.).

5.2 Pildi tihendamine

Siin pakutakse välja kuupmeetri neuronite mudel uus skeem ebaadekvaatse arvutusstandardiga, mis ühendab kvantarvutuse ja närviarvutuse.

Kui pilt sisestatakse võrku edasi-edasiühendusega kitsa peidetud kihiga, on võimalik kokkusurutud pildiandmed peidetud kihi väljundist korjata. Võrgustikku koolitatakse. Kui võrk seda identiteedi kaardistamist teostab, on võimalik kitsa peidetud kihi väljundist andmeid valida algkujutise põhjal (joon. 26,27..).

Riis. 26. Piltide tihendamine kihiliste närvivõrkude abil

Riis. 27. Sisendlülitus, osa originaalpildist

Modelleerimisel aktsepteerime tabelis (tabel 6) toodud parameetrite väärtusi.

Tabel 6: Simulatsiooniparameetrite väärtused

ParameetridVäärtusedBI;BH8 bittiBWO16 bittPaigu suurus8x8 pikslitParameetri algväärtus ( )-π~π Parameetri algväärtus -1~1Sihtkvantimisvahemik (kaal, lävi) -5~5

Varjatud kihi neuronite arv, mis mõjutab suuresti R väärtust, sõltub katsesituatsioonidest. BH ja BWO kvantifitseerimine toimub kvantimisfunktsiooni abil, nagu on näidatud joonisel fig. 28.

Riis. 28. Funktsiooni kvantimise näide

5.3 Tähestiku kodeerimine

Riis. 29. Näited graafilised sümbolid tähestik

6. MATLAB NEURAALVÕRGU TÖÖRIISTA. Kohoneni võrgustik

Närvivõrkude edu seletatakse sellega, et loodi närvivõrkude realiseerimiseks vajalik elemendibaas, mille modelleerimiseks töötati välja võimsad tööriistad rakendustarkvarapakettide näol. Sellised paketid hõlmavad süsteemi Neural Networks Toolboxi (NNT) paketti matemaatiline modelleerimine MATLAB 6 firmalt Math Works (lühend sõnadest “Matrix Laboratory”) on rakendusprogrammide pakett tehniliste arvutusprobleemide lahendamiseks ja selles paketis kasutatav samanimeline programmeerimiskeel. MATLABi kasutab enam kui 1 000 000 inseneri ja teadlast ning see töötab enamikes kaasaegsetes operatsioonisüsteemides, sealhulgas Linuxis, Mac OS-is, Solarises ja Microsoft Windowsis.

NNT rakenduspakett sisaldab tööriistu neuronite matemaatilise analoogi käitumise põhjal närvivõrkude konstrueerimiseks. Pakett pakub tõhusat tuge paljude teadaolevate võrgutüüpide projekteerimiseks, koolitamiseks, analüüsimiseks ja simuleerimiseks – alates põhilistest pertseptronmudelitest kuni uusimate assotsiatiivsete ja iseorganiseeruvate võrkudeni.

Kohoneni mudel (joonis 30) lahendab sisendkujutiste ruumis klastrite leidmise probleemi.

See võrgustik õpib ilma õpetajata eneseorganiseerumise alusel. Treeningu edenedes kalduvad neuronite kaaluvektorid klastrite keskpunktidesse - treeningproovi vektorite rühmadesse. Teabeprobleemide lahendamise etapis määrab võrk ühele moodustatud klastritest uue esitletava pildi, näidates sellega kategooriat, kuhu see kuulub.

Riis. 30. Kohoneni võrk

Vaatame lähemalt Kohoneni NN arhitektuuri ja õppimisreegleid. Kohoneni võrk, nagu ka Lippmann-Hammingi võrk, koosneb ühest kihist neuronitest. Iga neuroni sisendite arv on võrdne sisendpildi mõõtmega. Neuronite arv määratakse selle põhjal, kui üksikasjalikult on vaja raamatukogu kujutiste komplekti koondada. Piisava arvu neuronite ja edukate treeningparameetritega ei suuda Kohoneni närvivõrk mitte ainult tuvastada kujutiste põhirühmi, vaid luua ka sellest tulenevate klastrite "peenstruktuuri". Sel juhul vastavad lähedased sisendpildid närvitegevuse lähikaartidele (joonis 31).

Riis. 31. Kohoneni kaardi näide. Iga ruudu suurus vastab vastava neuroni ergastusastmele.

Koolitus algab ühendusmaatriksile juhuslike väärtuste määramisega. Seejärel toimub iseorganiseerumisprotsess, mis koosneb kaalude muutmisest, kui sisendina esitatakse treeningvalimi vektorid. Iga neuroni jaoks saate määrata selle kauguse sisendvektorist:

Järgmiseks valitakse neuron m=m *, mille puhul see vahemaa on minimaalne. Praeguses treeningu etapis t muudetakse ainult neuronite m naabruses olevate neuronite kaalu *:

Riis. 34. Kohoneni võrgustiku koolitamine

Algselt paiknevad kõik võrgu neuronid mõne neuroni läheduses, seejärel see lähedus kitseneb. Treeningetapi lõpus reguleeritakse ainult lähima neuroni raskusi. Õppimise tempo h (t)<1 с течением времени также уменьшается. Образы обучающей выборки предъявляются последовательно, и каждый раз происходит подстройка весов.

Saadud kaarti saab mugavalt kujutada kahemõõtmelise kujutisena, kus kõigi neuronite erinevad ergastusastmed on kuvatud erineva suurusega ruutudena. 100 Kohoneni neuroni abil koostatud kaardi näide on toodud joonisel 7.2.

Iga neuron kannab teavet klastri kohta - klastri kohta sisendkujutiste ruumis, moodustades selle rühma jaoks kollektiivse pildi. Seega on Kohoneni NN üldistusvõimeline. Konkreetne klaster võib vastata ka mitmele sarnase kaaluvektori väärtusega neuronile, seega ei ole ühe neuroni rike Kohoneni NS toimimise jaoks nii kriitiline.

Järeldus

Mõned võrdlevad uuringud on olnud optimistlikud, teised pessimistlikud. Paljude ülesannete jaoks, nagu mustrituvastus, pole domineerivaid lähenemisviise veel loodud. Parima tehnoloogia valik peaks sõltuma probleemi olemusest. Vaja on püüda mõista erinevate lähenemiste võimalusi, eeldusi ja ulatust ning kasutada maksimaalselt ära nende lisaeeliseid intelligentsete süsteemide edasiarendamiseks. Sellised jõupingutused võivad viia sünergilise lähenemisviisini, mis ühendab QNN-i teiste tehnoloogiatega, et saavutada pakiliste probleemide lahendamisel olulisi läbimurdeid. On selge, et QNS-i ja teiste distsipliinide valdkonna teadlaste koostoime ja ühistöö ei väldi mitte ainult kordamist, vaid ka (mis veelgi olulisem) stimuleerib ja annab uusi omadusi üksikute valdkondade arengusse.

Praegu tegeletakse aktiivselt alternatiivsete arvutusmeetodite, näiteks kvantarvutite ja neuroarvutite kasutamisega. Mõlemad suunad annavad meile paralleelsuses suurepärased võimalused, kuid nad käsitlevad seda küsimust erinevatest külgedest. Kvantarvutid võimaldavad korraga töötada piiramatul arvul kubitidel, mis võib arvutuste tegemise kiirust oluliselt suurendada. Neuroarvuti võimaldab paljudel primitiivsetel protsessoritel paralleelselt täita palju erinevaid lihtsaid ülesandeid ja saada lõpuks nende töö tulemus. Arvestades, et neuroarvutite põhiülesanne on pilditöötlus. Paralleelarhitektuuriga täidetakse seda ülesannet palju kiiremini kui klassikalise järjestikuse ülesande puhul. Samas võimaldavad närviarvutid oma homogeense struktuuri tõttu saada universaalseid ja samal ajal “vastupüsivaid” süsteeme.

Selles töös püüdsin esitada süstemaatilist sissejuhatust kvantnärvivõrkude teooriasse ning ühtlasi aitasin jõuda lähemale vastusele olulisele küsimusele: kas kvantnärvivõrgud on kauaoodatud põhisuund tehisintellekti arendamise suunas meetodid jätkuvad või kujunevad need omapäraseks moetrendiks, nagu varem oli ekspertsüsteemide ja mõne muu teadusliku uurimisaparaadi (näiteks Feynmani diagrammid) puhul, millelt algselt loodeti revolutsioonilisi läbimurdeid. Järk-järgult paljastasid need meetodid oma piirangud ja võtsid vastava koha teaduse üldises struktuuris.

Huvi kvantnärvivõrkude vastu on kaks peamist põhjust. Üks hõlmab argumente, et kvantprotsessid võivad mängida ajufunktsioonis olulist rolli. Näiteks on Roger Penrose esitanud erinevaid argumente, et ainult uus füüsika, mis ühendaks kvantmehaanika üldrelatiivsusteooriaga, suudab kirjeldada selliseid nähtusi nagu mõistmine ja teadvus. Tema lähenemine ei ole aga suunatud mitte närvivõrkudele endile, vaid rakusisestele struktuuridele nagu mikrotuubulid. Teine põhjus on seotud kvantarvutuse kiire kasvuga, mille põhiideed võiks hästi üle kanda neuroarvutisse, mis avaks neile uusi võimalusi.

Kvantnärvisüsteemid võivad mööda minna mõnest keerulisest probleemist, mis on kvantarvutuse jaoks hädavajalikud, kuna neil on analoogne olemus ja võime õppida piiratud arvust näidetest.

Mida võime kvantnärvivõrkudelt oodata? Praegu on kvantnärvivõrkudel järgmised eelised:

eksponentsiaalne mälumaht;

Parem jõudlus vähemate peidetud neuronitega;

Kiire õppimine;

Katastroofilise unustamise kõrvaldamine pildihäirete puudumise tõttu;

Lineaarselt lahutamatute probleemide lahendamine ühekihilise võrguga;

ühenduste puudumine;

Suur andmetöötluskiirus (10 10 bit/s);

Kääbus (10 11 neuronit/mm 3);

Suurem stabiilsus ja töökindlus;

Need kvantnärvivõrkude potentsiaalsed eelised on need, mis peamiselt motiveerivad nende arengut.

Kvantneuron

Sünapsid suhtlevad neuronite vahel ja korrutavad sisendsignaali ühenduse tugevust iseloomustava numbriga – sünapsi kaaluga. Summer lisab teistelt neuronitelt sünaptiliste ühenduste kaudu saabuvad signaalid ja välised sisendsignaalid. Muundur rakendab ühe argumendi funktsiooni, liitja väljundi, neuroni mõneks väljundväärtuseks. Seda funktsiooni nimetatakse neuronite aktiveerimise funktsiooniks.

Seega kirjeldatakse neuroni täielikult selle kaalude ja aktiveerimisfunktsiooniga F. Olles saanud sisenditena arvude komplekti (vektori), toodab neuron väljundina teatud arvu.

Aktiveerimisfunktsioon võib olla erinevat tüüpi. Enim kasutatud valikud on toodud tabelis (tabel 2).

Tabel 2: neuronite aktiveerimise funktsioonide loend

Nimi

Väärtusvahemik

Lävi

Ikooniline

Sigmoidne

Pooljooneline

Lineaarne

Radiaalne alus

Poollineaarne küllastusega

Lineaarne küllastusega

Hüperboolne puutuja

Kolmnurkne

Kvantneuroni määratlus on esitatud järgmiselt:

See võtab sisendsignaale (teiste kesknärvisüsteemi neuronite algandmed või väljundsignaalid) vastu mitme sisendkanali kaudu. Iga sisendsignaal läbib ühenduse, millel on teatud intensiivsus (või kaal); see kaal vastab neuroni sünaptilisele aktiivsusele. Igal neuronil on sellega seotud konkreetne läviväärtus. Arvutatakse välja sisendite kaalutud summa, sellest lahutatakse läviväärtus ja tulemuseks on neuroni aktivatsiooni hulk (nimetatakse ka neuroni postsünaptiliseks potentsiaaliks – PSP).

Aktiveerimissignaal teisendatakse neuroni väljundi saamiseks aktiveerimisfunktsiooni (või ülekandefunktsiooni) abil (joonis 1).


Joonis 1

Kvantneuroni matemaatiline mudel, kus on maatriksid, mis toimivad operaatori alusel, mis suudab rakendada kvantrakkude võrku.

Näiteks: Kvantneuroni õppimisprotsess. = - identiteedioperaator: .

Kvantõppe reegel on esitatud analoogselt klassikalise juhtumiga järgmiselt: , kus on soovitud väljund. See õppimisreegel viib kvantneuroni õppimiseks kasutatavasse soovitud olekusse. Võttes erinevuse tegeliku ja soovitud väljundi ruudus mooduli jaoks, näeme, et:


Primitiivsetest elementidest saab kokku panna terve võrgu, kasutades ANN-i arhitektuuri standardreegleid.

2 Kvantarvutamise põhitõed Qubits Qubits Kvantinformatsiooni ühikuks on kubit Kvantinformatsiooni ühikuks on kubit Kbiidist võib mõelda kui 2 olekuga süsteemist, nt. spin 1/2 või kahetasandiline süsteem. Kubitist võib mõelda 2 olekuga süsteemina, nt. spin 1/2 või kahetasandiline süsteem. Kubiti olekut kirjeldab 2 komponendist koosnev vektor: Kubiidi olekut kirjeldab 2 komponendist koosnev vektor:


3 Kvantarvutuse alused Kvantväravad Kvantväravad on Boole'i ​​tehte AND, OR, NOT jne analoogid. Kvantväravad on Boole'i ​​operatsioonide AND, OR, NOT jne analoogid. Kvantvärav, mis toimib n kubitile, on unitaaroperaator. N kubitile mõjuv kvantvärav on unitaaroperaator Näide: NOT gate: Näide: NOT gate:


4 Kvantalgoritmid Simoni algoritm funktsiooni perioodi otsimiseks Simoni algoritm funktsiooni perioodi otsimiseks Shori algfaktoriseerimise algoritm Shori algfaktoriseerimise algoritm Groveri otsingualgoritm Groveri otsingualgoritm Deutsch Jos algoritm Deutschm Josi algoritm






7 Shori algoritm: põhisammud 1. Vali juhuslik jääk a moodul N 2. Kontrolli GCD(a, N)=1 3. Leia jäägi järjekord r mooduli N 4. Kui r on paaris, siis arvuta GCD (a r/ 2 - 1 , N) Definitsioon: minimaalne r, mille korral a r 1 (mod N) nimetatakse mooduli N järku. Järjekord on funktsiooni f(x)=a x (mod N) periood.




















17 Kvant-assotsiatiivne mälu Kvant-assotsiatiivne võrk Perusha (2000) Kvant-assotsiatiivne võrk Perusha (2000) Hopfieldi mudeli põhjal Hopfieldi mudeli põhjal Hopfieldi Hamiltoni pidev üldistamine Hopfieldi Hamiltoni holograafilise põhimõtte pidev üldistamine Holograafilise põhimõtte kaudu kahe- Uurimisprotseduur punkt Greeni funktsioon Uurimisprotseduur läbi kahepunktilise Greeni funktsiooni Lainefunktsiooni kollaps kui lähenemine atraktorile Lainefunktsiooni kollaps kui lähenemine atraktorile


18 Kvantnärvivõrk Kvantnärvivõrk (Berman et al, 2002) Kvantnärvivõrk (Berman et al, 2002) Mõeldud kvantpõimumise astme arvutamiseks Mõeldud kvantpõimumise astme arvutamiseks Töötab ajas Töötab ajas Kas toite- edastusvõrk On edasisuunav võrk Koosneb kahetasandilistest kvantobjektidest ja lineaarostsillaatoritest Koosneb kahetasandilistest kvantobjektidest ja lineaarostsillaatoritest




20 Quantum assotsiatiivne mälu Quantum AP Ventura (1998, 2000, 2003) Quantum AP Ventura (1998, 2000, 2003), mis põhineb Groveri algoritmil, mis põhineb Groveri algoritmil M n-mõõtmelised binaarsed vektorid õppealgoritm annab operaatorile P Spetsiaalne kvantõppe algoritm annab operaatorile P On eksponentsiaalne võimsus ~2 n On eksponentsiaalne maht ~2 n