Lyhyt tekoälyn historia. Tekoäly

Tekoälyn (AI tai AI) käsite ei yhdistä vain tekniikoita, jotka mahdollistavat älykkäiden koneiden (mukaan lukien tietokoneohjelmat) luomisen. Tekoäly on myös yksi tieteellisen ajattelun alueista.

Tekoäly – määritelmä

Älykkyys- tämä on ihmisen henkinen komponentti, jolla on seuraavat kyvyt:

  • opportunistinen;
  • oppimiskyky kokemuksen ja tiedon kerryttämisen kautta;
  • kyky soveltaa tietoja ja taitoja ympäristön hallintaan.

Älykkyys yhdistää kaikki ihmisen kyvyt ymmärtää todellisuutta. Sen avulla ihminen ajattelee, muistaa uuden tiedon, havaitsee ympäristön ja niin edelleen.

Tekoälyllä tarkoitetaan yhtä tietotekniikan osa-aluetta, joka käsittelee sellaisten järjestelmien (koneiden) tutkimusta ja kehittämistä, joilla on ihmisälyn ominaisuudet: oppimiskyky, looginen päättely ja niin edelleen.

Tällä hetkellä tekoälytyötä tehdään luomalla uusia ohjelmia ja algoritmeja, jotka ratkaisevat ongelmia samalla tavalla kuin ihminenkin.

Koska tekoälyn määritelmä kehittyy tämän kentän kehittyessä, on tarpeen mainita AI-efekti. Se viittaa tekoälyn aikaansaamaan vaikutukseen, joka on saavuttanut jonkin verran edistystä. Jos tekoäly on esimerkiksi oppinut suorittamaan mitä tahansa toimintoja, kriitikot liittyvät heti mukaan ja väittävät, että nämä onnistumiset eivät osoita, että koneella on ajattelua.

Nykyään tekoälyn kehitys etenee kahteen itsenäiseen suuntaan:

  • neurokybernetiikka;
  • looginen lähestymistapa.

Ensimmäinen suunta koskee hermoverkkojen tutkimusta ja evoluutiolaskelmia biologisesta näkökulmasta. Loogiseen lähestymistapaan kuuluu sellaisten järjestelmien kehittäminen, jotka simuloivat korkean tason älyllisiä prosesseja: ajattelua, puhetta ja niin edelleen.

Ensimmäinen työ tekoälyn alalla alkoi viime vuosisadan puolivälissä. Tämänsuuntaisen tutkimuksen edelläkävijä oli Alan Turing, vaikkakin filosofit ja matemaatikot alkoivat ilmaista tiettyjä ajatuksia keskiajalla. Erityisesti 1900-luvun alussa otettiin käyttöön mekaaninen laite, joka pystyy ratkaisemaan shakkiongelmia.

Mutta tämä suunta todella muotoutui viime vuosisadan puoliväliin mennessä. Tekoälyteosten ilmestymistä edelsi tutkimus ihmisluonnosta, tapoista ymmärtää ympäröivää maailmaa, ajattelun mahdollisuuksia ja muita alueita. Siihen mennessä ilmestyivät ensimmäiset tietokoneet ja algoritmit. Eli luotiin pohja, jolle syntyi uusi tutkimuksen suunta.

Vuonna 1950 Alan Turing julkaisi artikkelin, jossa hän kysyi tulevaisuuden koneiden kyvyistä ja siitä, voisivatko ne ylittää ihmisen älykkyyden suhteen. Tämä tiedemies kehitti menetelmän, joka myöhemmin nimettiin hänen kunniakseen: Turingin testi.

Englantilaisen tiedemiehen teosten julkaisemisen jälkeen ilmestyi uusia tutkimuksia tekoälyn alalla. Turingin mukaan vain kone, jota ei voida erottaa ihmisestä kommunikoinnin aikana, voidaan tunnistaa ajattelevaksi. Noin samaan aikaan tiedemiehen paperin kanssa syntyi Baby Machine -niminen konsepti. Se tarjosi progressiivinen kehitys Tekoäly ja sellaisten koneiden luominen, joiden ajatteluprosessit muodostuvat ensin lapsen tasolla ja sitten vähitellen paranevat.

Termi "tekoäly" syntyi myöhemmin. Vuonna 1956 joukko tutkijoita, mukaan lukien Turing, tapasi Dartmundin amerikkalaisessa yliopistossa keskustelemaan tekoälyyn liittyvistä kysymyksistä. Kokouksen jälkeen aloitettiin tekoälyominaisuuksilla varustettujen koneiden aktiivinen kehittäminen.

Erityinen rooli uusien teknologioiden luomisessa tekoälyn alalla oli sotilasosastoilla, jotka rahoittivat aktiivisesti tätä tutkimusaluetta. Myöhemmin työ tekoälyn alalla alkoi houkutella suuret yritykset.

Nykyaikainen elämä asettaa tutkijoille monimutkaisempia haasteita. Siksi tekoälyn kehitys tapahtuu oleellisesti erilaisissa olosuhteissa, jos vertaamme niitä siihen, mitä tapahtui tekoälyn syntymän aikana. Globalisaatioprosessit, kyberrikollisten toiminta digitaalisella alueella, Internetin kehitys ja muut ongelmat - kaikki tämä asettaa tutkijoille monimutkaisia ​​tehtäviä, joiden ratkaisu piilee tekoälyn alalla.

Huolimatta tällä alalla viime vuosina saavutetuista menestyksestä (esimerkiksi autonomisen teknologian syntyminen), epäilijöiden äänet, jotka eivät usko todellisen tekoälyn ja ei kovinkaan kykenevän ohjelman luomiseen, jatkuvat. Monet kriitikot pelkäävät, että tekoälyn aktiivinen kehitys johtaa pian tilanteeseen, jossa koneet korvaavat ihmiset kokonaan.

Tutkimussuunnat

Filosofit eivät ole vielä päässeet yksimielisyyteen siitä, mikä on ihmisen älykkyyden luonne ja mikä sen asema on. Tältä osin tekoälylle omistetuissa tieteellisissä töissä on monia ideoita, jotka kertovat, mitä ongelmia tekoäly ratkaisee. Ei ole myöskään yhteistä ymmärrystä kysymyksestä, millaista konetta voidaan pitää älykkäänä.

Nykyään tekoälyteknologian kehitys kulkee kahteen suuntaan:

  1. Laskeva (semioottinen). Se sisältää uusien järjestelmien ja tietopohjan kehittämisen, jotka simuloivat korkean tason henkisiä prosesseja, kuten puhetta, tunteiden ilmaisua ja ajattelua.
  2. Nouseva (biologinen). Tähän lähestymistapaan kuuluu neuroverkkojen alan tutkimusta, jonka avulla luodaan älykkään käyttäytymisen malleja biologisten prosessien näkökulmasta. Tämän suunnan pohjalta luodaan neurotietokoneita.

Määrittää tekoälyn (koneen) kyvyn ajatella samalla tavalla kuin ihminen. Yleisesti ottaen tämä lähestymistapa sisältää tekoälyn luomisen, jonka käyttäytyminen ei eroa ihmisten toimista samoissa normaaleissa tilanteissa. Pohjimmiltaan Turingin testi olettaa, että kone on älykäs vain, jos sen kanssa kommunikoitaessa on mahdotonta ymmärtää, kuka puhuu: mekanismi vai elävä henkilö.

Tieteiskirjat tarjoavat erilaisen menetelmän tekoälyn kykyjen arvioimiseen. Tekoälystä tulee totta, jos se tuntuu ja osaa luoda. Tämä määritelmän lähestymistapa ei kuitenkaan kestä käytännön soveltamista. Jo nyt esimerkiksi luodaan koneita, joilla on kyky reagoida muutoksiin ympäristöön(kylmä, lämmin jne.). He eivät kuitenkaan voi tuntea niin kuin ihminen tuntee.

Symbolinen lähestymistapa

Menestys ongelmien ratkaisemisessa määräytyy pitkälti kyvystä lähestyä tilanteita joustavasti. Koneet, toisin kuin ihmiset, tulkitsevat saamansa tiedot johdonmukaisesti. Siksi vain ihmiset osallistuvat ongelmien ratkaisemiseen. Kone suorittaa toimintoja, jotka perustuvat kirjoitettuihin algoritmeihin, jotka eliminoivat useiden abstraktiomallien käytön. Ohjelmista on mahdollista saavuttaa joustavuutta lisäämällä ongelmien ratkaisuun liittyviä resursseja.

Yllä mainitut haitat ovat tunnusomaisia ​​tekoälykehityksessä käytetylle symboliselle lähestymistavalle. Tämä tekoälyn kehityssuunta mahdollistaa kuitenkin uusien sääntöjen luomisen laskentaprosessin aikana. Ja symbolisesta lähestymistavasta syntyvät ongelmat voidaan ratkaista loogisin menetelmin.

Looginen lähestymistapa

Tämä lähestymistapa sisältää mallien luomisen, jotka simuloivat päättelyprosessia. Se perustuu logiikan periaatteisiin.

Tämä lähestymistapa ei sisällä tiukkojen algoritmien käyttöä, jotka johtavat tiettyyn tulokseen.

Agenttipohjainen lähestymistapa

Se käyttää älykkäitä agentteja. Tämä lähestymistapa olettaa seuraavaa: älykkyys on laskennallinen osa, jonka avulla tavoitteet saavutetaan. Kone toimii älykkään agentin roolissa. Se ymmärtää ympäristöä erityisten antureiden avulla ja on vuorovaikutuksessa sen kanssa mekaanisten osien kautta.

Agenttipohjainen lähestymistapa keskittyy sellaisten algoritmien ja menetelmien kehittämiseen, joiden avulla koneet pysyvät toimintakunnossa erilaisissa tilanteissa.

Hybridi lähestymistapa

Tämä lähestymistapa sisältää hermo- ja symbolisten mallien yhdistämisen, jolloin saavutetaan ratkaisu kaikkiin ajattelun ja laskennan prosesseihin liittyviin ongelmiin. Esimerkiksi, neuroverkot voi luoda suunnan, johon koneen työ liikkuu. Ja staattinen oppiminen tarjoaa perustan, jonka kautta ongelmia ratkaistaan.

Yrityksen asiantuntijoiden ennusteiden mukaan Gartner, 2020-luvun alkuun mennessä lähes kaikki julkaistut ohjelmistotuotteet käyttävät tekoälyteknologiaa. Asiantuntijat ehdottavat myös, että noin 30 prosenttia sijoituksista digitaaliseen sfääriin tulee tekoälystä.

Gartnerin analyytikoiden mukaan tekoäly avaa uusia mahdollisuuksia ihmisten ja koneiden väliselle yhteistyölle. Samaan aikaan ihmisten korvaamista tekoälyllä ei voida pysäyttää, ja se kiihtyy tulevaisuudessa.

Yhtiössä PwC uskovat, että vuoteen 2030 mennessä maailman bruttokansantuote kasvaa noin 14 prosenttia uusien teknologioiden nopean käyttöönoton ansiosta. Lisäksi noin 50 % kasvusta saadaan tehokkuuden lisääntymisestä tuotantoprosessit. Indikaattorin toinen puolisko on lisävoitto, joka saadaan tekoälyn käyttöönotosta tuotteissa.

Aluksi tekoälyn käytön vaikutus tulee olemaan Yhdysvalloissa, koska tämä maa on luonut Paremmat olosuhteet tekoälykoneiden käyttämiseen. Tulevaisuudessa he ovat edellä Kiinaa, joka tekee suurimman voiton ottamalla käyttöön tällaisia ​​teknologioita tuotteissa ja niiden tuotannossa.

Yrityksen asiantuntijat Saleforce väittävät, että tekoäly lisää pienyritysten kannattavuutta noin 1,1 biljoonalla dollarilla. Ja tämä tapahtuu vuoteen 2021 mennessä. Tämä indikaattori saavutetaan osittain toteuttamalla tekoälyn ehdottamia ratkaisuja asiakasviestinnästä vastaaviin järjestelmiin. Samalla tuotantoprosessien tehokkuus paranee niiden automatisoinnin ansiosta.

Uusien teknologioiden käyttöönotto luo myös 800 tuhatta uutta työpaikkaa. Asiantuntijat huomauttavat, että tämä indikaattori kompensoi prosessiautomaation vuoksi syntyneiden avoimien työpaikkojen menetystä. Yrityskyselyn perusteella analyytikot ennustavat, että niiden tuotantoprosessien automatisointiin käytettävät menot kasvavat noin 46 miljardiin dollariin 2020-luvun alkuun mennessä.

Tekoälytyötä tehdään myös Venäjällä. Valtio on 10 vuoden aikana rahoittanut yli 1,3 tuhatta hanketta tällä alueella. Lisäksi suurin osa investoinneista suuntautui kaupalliseen toimintaan liittymättömien ohjelmien kehittämiseen. Tämä osoittaa, että venäläinen liike-elämä ei ole vielä kiinnostunut tekoälytekniikoiden käyttöönotosta.

Yhteensä Venäjälle investoitiin näihin tarkoituksiin noin 23 miljardia ruplaa. Valtiontukien määrä on pienempi kuin muiden maiden osoittama tekoälyrahoituksen määrä. Yhdysvalloissa näihin tarkoituksiin osoitetaan vuosittain noin 200 miljoonaa dollaria.

Pohjimmiltaan Venäjällä valtion budjetista osoitetaan varoja tekoälyteknologioiden kehittämiseen, joita sitten käytetään liikennesektorilla, puolustusteollisuudessa ja turvallisuuteen liittyvissä hankkeissa. Tämä seikka osoittaa, että maassamme ihmiset sijoittavat usein alueille, joiden avulla he voivat nopeasti saavuttaa tietyn vaikutuksen sijoitetuilla varoilla.

Yllä oleva tutkimus osoitti myös, että Venäjällä on nyt hyvät mahdollisuudet kouluttaa asiantuntijoita, jotka voivat olla mukana tekoälyteknologioiden kehittämisessä. Viimeisen viiden vuoden aikana noin 200 tuhatta ihmistä on suorittanut koulutuksen tekoälyyn liittyvillä aloilla.

Tekoälyteknologiat kehittyvät seuraaviin suuntiin:

  • ongelmien ratkaiseminen, jotka mahdollistavat tekoälykyvyn tuomisen lähemmäs ihmisen ominaisuuksia ja tapoja integroida ne arkeen;
  • täysimittaisen mielen kehittäminen, jonka kautta ihmiskunnan kohtaamat ongelmat ratkaistaan.

Tällä hetkellä tutkijat keskittyvät kehittämään teknologioita, jotka ratkaisevat käytännön ongelmia. Toistaiseksi tiedemiehet eivät ole päässeet lähellekään täysimittaisen tekoälyn luomista.

Monet yritykset kehittävät teknologioita tekoälyn alalla. Yandex on käyttänyt niitä hakukonetyössään useiden vuosien ajan. Vuodesta 2016 lähtien venäläinen IT-yritys on tehnyt tutkimusta neuroverkkojen alalla. Jälkimmäiset muuttavat hakukoneiden työn luonnetta. Erityisesti hermoverkot vertaavat käyttäjän syöttämää kyselyä tiettyyn vektorinumeroon, joka parhaiten heijastaa tehtävän merkitystä. Toisin sanoen hakua ei tehdä sanalla, vaan henkilön pyytämien tietojen olemuksella.

Vuonna 2016 "Yandex" käynnisti palvelun "Zen", joka analysoi käyttäjien mieltymyksiä.

Yritys Abby järjestelmä on äskettäin ilmestynyt Compreno. Sen avulla on mahdollista ymmärtää kirjoitettua tekstiä luonnollisella kielellä. Myös muut tekoälyteknologiaan perustuvat järjestelmät ovat tulleet markkinoille suhteellisen hiljattain:

  1. Findo. Järjestelmä pystyy tunnistamaan ihmisen puheen ja etsimään tietoa erilaisista asiakirjoista ja tiedostoista monimutkaisilla kyselyillä.
  2. Gamalon. Tämä yritys otti käyttöön järjestelmän, jossa on mahdollisuus oppia itse.
  3. Watson. IBM-tietokone, jota käytetään tiedonhakuun suuri määrä algoritmeja.
  4. ViaVoice. Ihmisen puheentunnistusjärjestelmä.

Suuret kaupalliset yritykset eivät pelkää tekoälyn kehitystä. Pankit ottavat aktiivisesti käyttöön tällaisia ​​teknologioita toiminnassaan. Tekoälypohjaisten järjestelmien avulla he toimivat pörssissä, hallinnoivat omaisuutta ja tekevät muita toimintoja.

Puolustusteollisuus, lääketiede ja muut alueet ovat ottamassa käyttöön esineidentunnistusteknologioita. Ja kehitystyössä mukana olevat yritykset tietokonepelit, käytä tekoälyä seuraavan tuotteen luomiseen.

Muutaman viime vuoden aikana ryhmä amerikkalaisia ​​tutkijoita on työskennellyt projektin parissa NEIL, jossa tutkijat pyytävät tietokonetta tunnistamaan valokuvassa näkyvän. Asiantuntijat ehdottavat, että tällä tavalla he pystyvät luomaan järjestelmän, joka pystyy oppimaan itse ilman ulkopuolista puuttumista.

Yhtiö VisionLab esitteli oman alustansa LUNA, joka voi tunnistaa kasvot reaaliajassa valitsemalla ne valtavasta kuvien ja videoiden joukosta. Tätä tekniikkaa käyttävät nykyään suuret pankit ja verkkokauppiaat. LUNA:n avulla voit vertailla ihmisten mieltymyksiä ja tarjota heille asiaankuuluvia tuotteita ja palveluita.

Työskentely samanlaisten teknologioiden parissa venäläinen yritys N-Tech Lab. Samaan aikaan sen asiantuntijat yrittävät luoda hermoverkkoihin perustuvan kasvojentunnistusjärjestelmän. Uusimpien tietojen mukaan venäläinen teknologia selviytyy ihmisistä paremmin määrätyistä tehtävistä.

Stephen Hawkingin mukaan tekoälyteknologian kehitys tulevaisuudessa johtaa ihmiskunnan kuolemaan. Tiedemies totesi, että ihmiset rappeutuvat vähitellen tekoälyn käyttöönoton vuoksi. Ja luonnollisen evoluution olosuhteissa, kun ihmisen on jatkuvasti taisteltava selviytyäkseen, tämä prosessi johtaa väistämättä hänen kuolemaansa.

Venäjä suhtautuu myönteisesti tekoälyn käyttöönottoon. Aleksei Kudrin totesi kerran, että tällaisten teknologioiden käyttö vähentää valtiokoneiston toiminnan varmistamisen kustannuksia noin 0,3 prosenttia bruttokansantuotteesta. Dmitri Medvedev ennustaa useiden ammattien katoavan tekoälyn käyttöönoton vuoksi. Virkamies kuitenkin korosti, että tällaisten teknologioiden käyttö johtaa muiden toimialojen nopeaan kehitykseen.

Maailman talousfoorumin asiantuntijoiden mukaan 2020-luvun alkuun mennessä noin 7 miljoonaa ihmistä maailmassa menettää työpaikkansa tuotannon automatisoinnin vuoksi. Tekoälyn käyttöönotto aiheuttaa erittäin todennäköisesti talouden muutosta ja useiden tietojenkäsittelyyn liittyvien ammattien katoamisen.

Asiantuntijat McKinsey He sanovat, että tuotannon automatisointiprosessi tulee olemaan aktiivisempi Venäjällä, Kiinassa ja Intiassa. Näissä maissa jopa 50 prosenttia työntekijöistä menettää pian työpaikkansa tekoälyn käyttöönoton vuoksi. Heidän paikkansa ottavat tietokoneistetut järjestelmät ja robotit.

McKinseyn mukaan tekoäly korvaa fyysistä työtä ja tiedonkäsittelyä vaativat ammatit: vähittäiskaupan, hotellihenkilökunnan ja niin edelleen.

Tämän vuosisadan puoliväliin mennessä amerikkalaisen yrityksen asiantuntijoiden mukaan työpaikkojen määrä maailmanlaajuisesti vähenee noin 50%. Ihmisten paikat valtaavat koneet, jotka pystyvät suorittamaan samanlaisia ​​toimintoja samalla tai tehokkaammalla tavalla. Samanaikaisesti asiantuntijat eivät sulje pois vaihtoehtoa, jossa tämä ennuste toteutuu ennen määritettyä päivämäärää.

Muut analyytikot panevat merkille haitat, joita robotit voivat aiheuttaa. Esimerkiksi McKinseyn asiantuntijat huomauttavat, että robotit, toisin kuin ihmiset, eivät maksa veroja. Tämän seurauksena valtio ei pysty ylläpitämään infrastruktuuria samalla tasolla budjettitulojen pienenemisen vuoksi. Siksi Bill Gates ehdotti uuden veron käyttöönottoa robottiteknologialle.

Tekoälyteknologiat parantavat yritysten tehokkuutta vähentämällä tehtyjen virheiden määrää. Lisäksi niiden avulla voit nostaa toimintojen nopeutta tasolle, jota ihmiset eivät voi saavuttaa.

Voimme ajatella, että tekoälyn historia alkaa ensimmäisten tietokoneiden luomisesta 40-luvulla. Elektroniikan myötä tietokoneita, jolla oli korkea (silloisen standardin) tuottavuus, ensimmäiset kysymykset alkoivat nousta tekoälyn alalla: onko mahdollista luoda kone, jonka älylliset kyvyt olisivat identtisiä ihmisen älyllisten kykyjen kanssa (tai jopa ylittäisivät) henkilön kyvyt).

Seuraava vaihe tekoälyn historiassa on 50-luku, jolloin tutkijat yrittivät rakentaa älykkäitä koneita jäljittelemällä aivoja. Nämä yritykset epäonnistuivat sekä laitteiston että ohjelmiston täydellisen sopimattomuuden vuoksi. Vuonna 1956 Stanfordin yliopistossa (USA) pidettiin seminaari, jossa ehdotettiin ensimmäisen kerran termiä tekoäly - tekoäly.

60-lukua tekoälyn historiassa leimasivat yritykset löytää yleisiä menetelmiä laajan luokan ongelmien ratkaisemiseksi, mallintamalla monimutkaista ajatteluprosessia. Yleismaailmallisten ohjelmien kehittäminen osoittautui liian vaikeaksi ja hedelmättömäksi. Mitä laajemman ongelmaluokan yksi ohjelma pystyy ratkaisemaan, sitä heikommat sen mahdollisuudet tietyn ongelman ratkaisemisessa ovat. Tänä aikana heuristisen ohjelmoinnin ilmaantuminen alkoi.

Heuristinen- sääntö, joka ei ole teoreettisesti perusteltu, mutta jonka avulla voit vähentää hakujen määrää hakutilassa.

Heuristinen ohjelmointi on toimintastrategian kehittämistä, joka perustuu analogiaan tai ennakkotapauksiin. Kaiken kaikkiaan 50-60. tekoälyn historiassa voidaan mainita universaalin ajattelualgoritmin etsimisen aika.

Merkittävä läpimurto tekoälyn käytännön sovelluksissa tapahtui 70-luvulla, kun universaalin ajattelualgoritmin etsiminen korvattiin ajatuksella simuloida asiantuntija-asiantuntijoiden erityistietoa. Ensimmäiset kaupalliset tietoon perustuvat järjestelmät tai asiantuntijajärjestelmät ilmestyivät Yhdysvalloissa. Tuli uusi lähestymistapa tekoälyongelmien ratkaisemiseen – tiedon esittäminen. "MYCIN" ja "DENDRAL" luotiin - nyt klassisia lääketieteen ja kemian asiantuntijajärjestelmiä. Molempia näitä järjestelmiä voidaan tietyssä mielessä kutsua diagnostisiksi, koska ensimmäisessä tapauksessa ("MYCIN") sairaus määritetään (diagnoosi tehdään) useiden oireiden (kehon patologian merkit) perusteella. , toisessa kemiallinen yhdiste määritetään useiden ominaisuuksien perusteella. Periaatteessa tätä tekoälyn historian vaihetta voidaan kutsua asiantuntijajärjestelmien syntymäksi.

Seuraava merkittävä ajanjakso tekoälyn historiassa oli 80-luku. Tänä aikana tekoäly koki uudestisyntymisen. Sen suuri potentiaali sekä tutkimuksessa että tuotannon kehittämisessä tunnustettiin laajasti. Sisällä uusi teknologia Ensimmäiset kaupalliset ohjelmistotuotteet ilmestyivät. Samaan aikaan koneoppimisen ala alkoi kehittyä. Tähän asti asiantuntijan tiedon siirtäminen koneohjelmaan oli työlästä ja aikaa vievää toimenpidettä. Sellaisten järjestelmien luominen, jotka automaattisesti parantavat ja laajentavat heurististen (epämuodollisten, intuitiivisiin näkökohtiin perustuvien) sääntöjen kokoelmaansa, on viime vuosien tärkein vaihe. Vuosikymmenen alussa käynnistettiin historian suurimmat kansalliset ja kansainväliset tietojenkäsittelytoiminnot eri maissa. tutkimusprojekteja, joka on suunnattu "viidennen sukupolven älykkäille tietokonejärjestelmille".

Tämän alan tutkimuksen nykytilaa voidaan luonnehtia yhden tekoälyn alan kuuluisan asiantuntijan, professori N.G., sanoilla. Zagoruiko:

"Keskustelut aiheesta "Voiko kone ajatella?" ovat kauan sitten kadonneet sanoma- ja aikakauslehtien sivuilta. Skeptikot ovat kyllästyneet odottamaan harrastajien lupausten toteutumista. Ja harrastajat jatkavat ilman pitkiä puheita pienin askelin kohti horisonttia, jonka jälkeen he toivovat näkevänsä tekoälyn."

Tämä suunta muodostui sen väitteen perusteella, että ihmisen älykkyyttä voidaan kuvata yksityiskohtaisesti ja sen jälkeen onnistuneesti jäljitellä koneella. Goethe Faust Ajatus siitä, että ei-ihminen voisi tehdä vaikeaa työtä ihmiselle, syntyi jo kivikaudella, kun ihminen kesytti koiran. Arvokkainta tässä luomisessa oli se, mitä nyt kutsumme tekoälyksi. Hänelle ajatus tehostetusta taistelusta pahuutta vastaan, joka ylittää uskonnollisen oikeuden rajat, on laillistettu...


Jaa työsi sosiaalisessa mediassa

Jos tämä työ ei sovi sinulle, sivun alalaidassa on luettelo vastaavista teoksista. Voit myös käyttää hakupainiketta


YDINTUTKIMUKSEN YHTEINEN INSTITUUTTI

KOULUTUS- JA TUTKIMUSKESKUS

ABSTRAKTI

tieteen historiassa ja filosofiassa

aiheesta:

KEKOÄLYKSEN KEHITTYMISHISTORIA

Valmistunut:

Pelevanyuk I.S.

Dubna

2014

Johdanto 3

Ennen tiedettä 4

Ensimmäiset ideat 4

Robotiikan kolme lakia 5

Ensimmäiset tieteelliset askeleet 7

Turingin testi 7

Darmouth-seminaari 8

1956-1960: suuren toivon aikaa 9

1970-luku: Tietoon perustuvat järjestelmät 10

Taistelu shakkilaudalla 11

Tekoälyn käyttö kaupallisiin tarkoituksiin 15

Paradigman muutos 16

Tiedonlouhinta 16

Johtopäätös 21

Viitteet 22

Johdanto

Termi äly (latinaksi intellectus) tarkoittaa mieltä, järkeä, ajattelukykyä ja rationaalista kognitiota. Tyypillisesti tämä tarkoittaa kykyä hankkia, muistaa, soveltaa ja muuttaa tietoa tiettyjen ongelmien ratkaisemiseksi. Näiden ominaisuuksien ansiosta ihmisen aivot pystyvät ratkaisemaan erilaisia ​​​​ongelmia. Mukaan lukien ne, joille ei ole aiemmin tunnettuja ratkaisumenetelmiä.

Termi tekoäly syntyi suhteellisen äskettäin, mutta nyt on melkein mahdotonta kuvitella maailmaa ilman sitä. Useimmiten ihmiset eivät huomaa hänen läsnäoloaan, mutta jos hän yhtäkkiä olisi poissa, se vaikuttaisi radikaalisti elämäämme. Tekoälyteknologian käyttöalueet laajenevat jatkuvasti: ennen oli shakin pelaamiseen tarkoitettuja ohjelmia, sitten robottipölynimureita, nyt algoritmit pystyvät itse käymään kauppaa pörssissä.

Tämä suunta muodostui sen väitteen perusteella, että ihmisen älykkyyttä voidaan kuvata yksityiskohtaisesti ja sen jälkeen onnistuneesti jäljitellä koneella. Tekoäly aiheutti suurta optimismia, mutta paljasti pian toteutuksen hämmästyttävän monimutkaisuuden.

Tekoälyn kehittämisen pääalueita ovat päättely, tieto, suunnittelu, oppiminen, kieliviestintä, havainto ja kyky liikkua ja käsitellä esineitä. Yleiskäyttöinen tekoäly (tai "vahva tekoäly") on edelleen tulevaisuuden korteilla. Tällä hetkellä suosittuja lähestymistapoja ovat tilastolliset menetelmät, laskennallinen älykkyys ja perinteinen symbolinen tekoäly. Olemassa suuri määrä tekoälyä käyttävät työkalut: hakualgoritmien eri versiot, matemaattiset optimointialgoritmit, logiikka, todennäköisyyteen perustuvat menetelmät ja monet muut.

Tässä esseessä yritin kerätä omalta kannaltani tärkeimmät teknologian ja tekoälyn teorian kehitykseen vaikuttaneet tapahtumat, tärkeimmät saavutukset ja edellytykset.

Ennen tiedettä

Ihan ensimmäiset ideat

"He sanovat meille "hullu" ja "fantastinen",

Mutta poistuttuaan surullisesta riippuvuudesta,

Vuosien mittaan ajattelijan aivoista tulee taitavia

Ajattelija luodaan keinotekoisesti."

Goethe, "Faust"

Ajatus siitä, että ei-ihminen voisi tehdä vaikeaa työtä ihmiselle, syntyi jo kivikaudella, kun ihminen kesytti koiran. Koira sopi ihanteellisesti vartijan rooliin ja suoritti tehtävän paljon paremmin kuin ihminen. Tätä esimerkkiä ei tietenkään voida pitää osoituksena tekoälyn käytöstä, koska koira on Elävä olento: hänellä on jo kyky tunnistaa kuvia, navigoida avaruudessa ja hän on myös taipuvainen joihinkin peruskoulutus"ystävän/vihollisen" tunnustamista varten. Se kuitenkin osoittaa ihmisen ajattelun suunnan.

Toinen esimerkki on Taloksen myytti. Talos oli legendan mukaan valtava pronssiritari, jonka Zeus antoi Euroopalle suojelemaan Kreetan saarta. Hänen tehtävänsä oli estää vieraiden pääsy saarelle. Jos he lähestyivät, Talos heitteli heitä kivillä; jos he onnistuivat laskeutumaan, Talos lämmitti itsensä tulessa ja poltti vihollisensa sylissään.

Miksi Talos on niin merkittävä? Luotu tuolloin kestävimmästä materiaalista, joka pystyy määrittämään, kuka on muukalainen, käytännössä haavoittumaton, ilman tarvetta levätä. Näin muinaiset kreikkalaiset kuvittelivat jumalien luomisen. Arvokkainta tässä luomisessa oli se, mitä nyt kutsumme tekoälyksi.

Toinen mielenkiintoinen esimerkki voidaan ottaa juutalaisista legendoista - nämä ovat legendoja golemeista. Ihmisen muotoinen Golem-saviolento. Legendan mukaan rabbit olisivat voineet luoda ne suojaksi juutalaiset. Prahassa syntyi juutalainen kansanlegenda golemista, jonka Prahan päärabbi loi suorittamaan erilaisia ​​"haluja" tai yksinkertaisesti vaikeita tehtäviä. Tunnetaan myös muita golemeja, jotka monet arvovaltaiset rabbit - uskonnollisen ajattelun keksijät - ovat luoneet kansanperinteen mukaan.

Tässä legendassa folk fantasia oikeuttaa vastustuksen sosiaalista pahaa vastaan ​​golemin tekemällä väkivallalla. Hänelle ajatus tehostetusta taistelusta pahaa vastaan ​​on laillistettu, ylittäen uskonnollisen lain rajat; Ei ole syytä, että golem voi legendan mukaan ylittää valtansa julistamalla tahtonsa, mikä on vastoin sen luojan tahtoa: golem pystyy tekemään sen, mikä on ihmiselle laillisesti rikollista.

Ja lopuksi romaani "Frankenstein tai nykyaikainen Prometheus", jonka on kirjoittanut Mary Shelley. Häntä voidaan kutsua tieteiskirjallisuuden perustajaksi. Se kuvaa tohtori Victor Frankensteinin elämää ja työtä, joka herätti henkiin kuolleiden ihmisten ruumiinosista luodun olennon. Nähdessään, että se osoittautui rumaksi ja hirviömäiseksi, lääkäri kuitenkin luopuu luomuksestaan ​​ja jättää kaupungin, jossa hän asui. Nimetön olento, jota ihmiset vihaavat ulkomuoto, alkaa pian kummittelemaan sen luojaa.

Ja tässä taas herää kysymys vastuusta, joka ihmisellä on luotuistaan. SISÄÄN alku XIX luvulla romaani herätti useita kysymyksiä luojan ja luomisen parista. Kuinka eettisesti oikein oli luoda tällainen luomus? Kuka on vastuussa teoistaan? Kysymyksiä, jotka liittyvät läheisesti tekoälyä koskeviin ideoihin.

On monia samanlaisia ​​esimerkkejä, jotka liittyvät jollain tavalla tekoälyn luomiseen. Tämä näyttää olevan ihmisten pyhä malja, joka voi ratkaista monet heidän ongelmansa ja vapauttaa heidät kaikista puutteen ja eriarvoisuuden ilmenemismuodoista.

Kolme robotiikan lakia

Frankensteinin jälkeen tekoälyä on esiintynyt kirjallisuudessa jatkuvasti. Ajatus siitä on muodostunut hedelmälliseksi pohjaksi kirjailijoiden ja filosofien keskuudessa. Yksi heistä, Isaac Asimov, jää muistamaan ikuisesti. Vuonna 1942 hän kuvaili romaanissaan Round Dance kolme lakia, joita robottien on noudatettava:

  1. Robotti ei voi aiheuttaa vahinkoa ihmiselle tai antaa toimimattomuudellaan vahingoittaa henkilöä.
  2. Robotin on toteltava kaikkia ihmisen antamia käskyjä, elleivät ne ole ristiriidassa ensimmäisen lain kanssa.
  3. Robotin on huolehdittava turvallisuudestaan ​​siinä määrin, että se ei ole ristiriidassa ensimmäisen ja toisen lain kanssa.

Ennen Isaakia tarinat tekoälystä ja roboteista säilyttivät Mary Shelleyn Frankenstein-romaanin hengen. Kuten Isaac itse sanoi, tästä ongelmasta tuli yksi suosituimmista tieteiskirjallisuuden maailmassa 1920- ja 1930-luvuilla, jolloin kirjoitettiin monia tarinoita, joiden teemana olivat robotit, jotka kapinoivat ja tuhosivat ihmisiä.

Mutta kaikki tieteiskirjailijat eivät tietenkään noudattaneet tätä mallia. Esimerkiksi vuonna 1938 Lester del Rey kirjoitti tarinan "Helen O'Loy" - tarinan robottinaisesta, joka rakastui luojaansa ja josta tuli myöhemmin hänen ihanteellinen vaimonsa. Joka muuten muistuttaa hyvin Pygmalionin tarinaa. Pygmalion veisti norsunluupatsaan tytöstä niin kauniista, että hän itse rakastui häneen. Tällaisen rakkauden koskettama Aphrodite herätti patsaan henkiin, josta tuli Pygmalionin vaimo.

Itse asiassa Kolmen lain syntyminen tapahtui vähitellen. Kaksi varhaisinta robottitarinaa, "Robbie" (1940) ja "Logic" (1941), eivät selkeästi kuvailleet lakeja. Mutta he vihjasivat jo, että roboteilla on oltava joitain sisäisiä rajoituksia. Seuraavassa tarinassa: "Valehtelija" (1941) ensimmäinen laki kuultiin ensimmäisen kerran. Ja kaikki kolme lakia ilmestyivät kokonaisuudessaan vain "Round Dance" -elokuvassa (1942).

Huolimatta siitä, että robotiikka kehittyy nykyään enemmän kuin koskaan, tekoälyn alan tutkijat eivät kiinnitä robotiikan lakeja yhtä paljon. Loppujen lopuksi lait ovat pohjimmiltaan yhtäpitäviä ihmiskunnan perusperiaatteiden kanssa. Mitä monimutkaisemmiksi roboteista tulee, sitä ilmeisemmäksi on kuitenkin tarpeen luoda niille joitain perusperiaatteita ja turvatoimia.

On jopa väitetty, että lakeja ei todennäköisesti panna täysin täytäntöön kaikissa roboteissa, koska aina tulee olemaan niitä, jotka haluavat käyttää robotteja tuhoamiseen ja murhaan. Tieteiskirjallisuuden asiantuntija Robert Sawyer koonnut nämä lausunnot yhdeksi:

"Tekoälyn kehittäminen on bisnestä, eikä yritystä, kuten tiedätte, ole kiinnostunut perustavanlaatuisten turvatoimien, etenkään filosofisten, kehittämisestä. Tässä muutamia esimerkkejä: tupakkateollisuus, autoteollisuus, ydinteollisuus. Kenellekään heistä ei aluksi kerrottu, että vakavia turvatoimia tarvitaan, ja ne kaikki estettiin ulkopuolisilla rajoituksilla, eikä kukaan heistä antanut ehdotonta käskyä ihmisten vahingoittamista vastaan.

Ensimmäiset tieteelliset askeleet

Tekoälyn kehityksen historia tieteenä voidaan alkaa jäljittää varhaisista filosofisista teoksista, kuten: "Menetelmäkeskustelu" (René Descartes, 1637), "Ihmisluonto" (Thomas Hobbes, 1640). Jos tarkastellaan kehitystä teknisestä näkökulmasta, voidaan mainita ensimmäinen mekaaninen digitaalinen tietokone, joka ilmestyi jo aikaisemmin: vuonna 1623 Wilhelm Schikardin ponnistelujen ansiosta. Haluaisin kuitenkin kiinnittää huomion vuoteen 1950, jolloin Alan Turing päätti artikkelissaan "Computing Machinery and Mind" selvittää, voisiko kone ajatella.

Turingin testi

Henkilö kommunikoi toisen henkilön ja tietokoneohjelman kanssa. Henkilö voi kysyä kysymyksiä päätteen kautta, hänen tehtävänsä on määrittää missä ohjelma on ja missä henkilö on. Ohjelman tarkoitus on johtaa henkilöä harhaan ja pakottaa hänet tekemään väärän valinnan. Olosuhteiden mukaan kirjeenvaihtoa piti käydä tietyin väliajoin, koska silloin tietokoneet olivat vielä hitaita ja tämä mahdollisti välittömästi ohjelman sijainnin. Nyt tämä sääntö on välttämätön, koska tietokone pystyy vastaamaan kysymyksiin paljon nopeammin kuin ihminen.

Itse asiassa sanamuotoja on useita. Yhdessä niistä esimerkiksi tietokoneen piti saada useista henkilöistä koostuva komitea vakuuttuneeksi siitä, että he kommunikoivat toisen henkilön kanssa. Ja yhdessä aivan ensimmäisistä vaihtoehdoista Turing kutsuu kokeeseen osallistujan pelaamaan shakkia henkilön ja tietokoneen kanssa ja sitten määrittämään, kumpi heistä on kumpi. Itse asiassa kirjoitushetkellä Alan Turing oli työskennellyt tekoälyn parissa jo noin 10 vuotta.

Thiring-testin myöhemmästä historiasta voidaan tunnistaa useita keskeisiä tapahtumia. Mutta tärkein asia tapahtui vuonna 1966, Joseph Weizenbaum loi Eliza-ohjelman, joka voisi parodioida keskustelua psykoterapeutin kanssa. Tämä antoi hänelle mahdollisuuden vastata kysymykseen kysymyksellä epävarmuuden olosuhteissa. Tässä on esimerkki keskustelusta, joka on saattanut käydä hänen kanssaan:

H: Kuka on suosikkisäveltäjäsi?

Elisa: Oletko kiinnostunut tästä aiheesta? (Vastaa kysymykseen kysymyksellä)

H: Minulla on päänsärky.

Elisa: Miksi sanot, että sinulla on päänsärkyä? (Epävarmuusehto)

X: Isäni vihaa minua

Elisa: Kuka muu perheestä vihaa sinua? (reagoi avainsanaan "isä")

Eliza on ikuisesti tärkeä virstanpylväs tekoälyn kehityksessä. Se oli ensimmäinen ohjelma, joka ylitti Ihminen/kone -kommunikaatioparadigman ja pystyi luomaan simulaation ihmisen ja ihmisen välisestä kommunikaatiosta.

Darmouthin seminaari

Tietokoneiden räjähdysmäisen nopeuden ansiosta tutkijat alkoivat uskoa, että tietokoneen käyttäminen tekoälyn luomiseen ei olisi vaikeaa. Tosiasia on, että siihen aikaan oli kaksi tutkimusaluetta: neurokybernetiikka ja vähän myöhemmin "mustan laatikon" kybernetiikka.

Neurokybernetiikka perustuu periaatteeseen, että ainoa ajattelemaan kykenevä esine on ihminen, mikä tarkoittaa, että ajattelulaitteen on mallinnettava rakennettaan. Tiedemiehet ovat yrittäneet luoda elementtejä, jotka toimisivat aivoissa hermosolujen tavoin. Tämän ansiosta 50-luvun lopulla ilmestyivät ensimmäiset hermoverkot. Ne loivat kaksi amerikkalaista tiedemiestä:Rosen-Blatt ja P. McCulloch. He yrittivät luoda järjestelmän, joka voisi simuloida ihmissilmän työtä. He kutsuivat laitettaan perceptroniksi. Se pystyi tunnistamaan käsin kirjoitetut kirjaimet. Nykyään hermoverkkojen pääsovellusalue on kuvioiden tunnistus.

”Mustan laatikon” kybernetiikan perustana oli periaate, jonka mukaan sillä ei ole väliä, miten ajatteleva kone rakentuu sisällään, pääasia on, että se reagoi tiettyyn syöttötietosarjaan samalla tavalla kuin ihminen. Tällä alalla työskentelevät tutkijat alkoivat luoda omia mallejaan. Kävi ilmi, että mikään olemassa olevista tieteistä: psykologia, filosofia, neurofysiologia, kielitiede ei pystynyt valaisemaan aivojen algoritmia.

"Mustan laatikon" kybernetiikan kehitys alkoi vuonna 1956, jolloin pidettiin Darmouth-seminaari, jonka yksi pääjärjestäjistä oli John McCarthy. Siihen mennessä kävi selväksi, että sekä teoreettinen tieto että tekninen perusta puuttuivat neurokybernetiikan periaatteiden toteuttamiseksi. Tietojenkäsittelytieteen tutkijat uskoivat kuitenkin, että yhteisillä toimilla voitaisiin kehittää uusi lähestymistapa tekoälyn luomiseen. Tietojenkäsittelytieteen alan merkittävimpien tutkijoiden ponnisteluilla järjestettiin seminaari nimeltä Darmouth Summer Artificial Intelligence Research Project. Siihen osallistui 10 henkilöä, joista monet saivat tulevaisuudessa Turing-palkinnon - eniten kunniapalkinto tietojenkäsittelytieteessä. Seuraava on avauslause:

Ehdotamme 2 kuukauden, 10 henkilön tekoälyn tutkimusta kesällä 1956 Dartmouth Collegessa, Hannoverissa, New Hampshiressa.

Tutkimus perustuu oletukseen, että mikä tahansa oppimisen puoli tai mikä tahansa muu älykkyyden ominaisuus voidaan periaatteessa kuvata niin tarkasti, että kone pystyy simuloimaan sitä. Yritämme ymmärtää, kuinka opettaa koneita käyttämään luonnollisia kieliä, muodostamaan abstraktioita ja käsitteitä, ratkaisemaan ongelmia, joita vain ihminen voi tällä hetkellä tehdä, ja parantamaan itseään.

Uskomme, että merkittävä edistyminen yhdessä tai useammassa näistä ongelmista on täysin mahdollista, jos erityisesti valittu tutkijaryhmä työskentelee sen parissa kesän aikana.”

Se oli ehkä historian kunnianhimoisin apurahahakemus. Juuri tässä konferenssissa uusi alue tiede - "Tekoäly". Ja ehkä mitään konkreettista ei löydetty tai kehitetty, mutta tämän tapahtuman ansiosta jotkut merkittävimmistä tutkijoista tutustuivat toisiinsa ja alkoivat liikkua samaan suuntaan.

1956-1960: suuren toivon aikaa

Tuolloin näytti siltä, ​​että ratkaisu oli jo hyvin lähellä ja kaikista vaikeuksista huolimatta ihmiskunta pystyy pian luomaan täysimittaista tekoälyä, joka pystyy tuomaan todellista hyötyä. Ohjelmat näyttivät pystyvän luomaan jotain älykästä. Klassinen esimerkki on Logic Theorist -ohjelma.

Vuonna 1913 Whitehead ja Bertrand Russell julkaisivat matematiikan periaatteensa. Heidän tavoitteenaan oli osoittaa, että se käytettiin minimi asetettu Loogisten keinojen, kuten aksioomien ja päättelysääntöjen, avulla kaikki matemaattiset totuudet voidaan rekonstruoida. Tätä teosta pidetään yhtenä vaikutusvaltaisimmista kirjoista, jotka on koskaan kirjoitettu Aristoteleen Organonin jälkeen.

Logiikkateoreetikko pystyi luomaan suurimman osan Principia Mathematicasta itsestään. Lisäksi se on paikoin jopa tyylikkäämpi kuin kirjoittajat.

Logiikkateoreetikko esitteli useita ideoita, joista on tullut keskeisiä tekoälytutkimuksessa:

1. Päättely hakutavana. Itse asiassa ohjelma seurasi hakupuuta. Puun juuri oli alustavat lausunnot. Kunkin haaran syntyminen perustui logiikan sääntöihin. Aivan puun huipulla oli tulos - minkä ohjelma pystyi todistamaan. Polkua juurilausekkeista kohdelausekkeisiin kutsuttiin todisteeksi.

2. Heuristiikka. Ohjelman tekijät ymmärsivät, että puu kasvaa eksponentiaalisesti ja heidän täytyy leikata se jotenkin, "silmällä". Sääntöjä, joilla he pääsivät eroon tarpeettomista haaroista, he kutsuivat "heuristiksi" käyttämällä termiä, jonka György Pólya esitti kirjassaan "Kuinka ratkaista ongelma". Heuristiikasta on tullut tärkeä osa tekoälytutkimusta. Se on edelleen tärkeä menetelmä monimutkaisten kombinatoristen ongelmien, ns. "kombinatoristen räjähdysten" ratkaisemisessa (esimerkki: matkustava myyjäongelma, shakin liikkeiden luettelointi).

3. "Lista"-rakenteen käsittely. Ohjelman toteuttamiseksi tietokoneella luotiin IPL (Information Processing Language) -ohjelmointikieli, joka käytti samaa listamuotoa, jota John McCarthy käytti myöhemmin Lisp-kielen luomiseen (josta hän sai Turing-palkinnon), joka on edelleen tekoälytutkijat käyttävät.

1970-luku: Tietoon perustuvat järjestelmät

Tietopohjaiset järjestelmät ovat tietokoneohjelmia, jotka käyttävät tietopohjaa monimutkaisten ongelmien ratkaisemiseen. Itse järjestelmät on jaettu useisiin luokkiin. Heitä yhdistää se, että he kaikki yrittävät edustaa tietoa keinoilla, kuten ontologioilla ja säännöillä, pelkän ohjelmakoodin sijaan. Ne koostuvat aina vähintään yhdestä alijärjestelmästä ja useammin kahdesta kerralla: tietokannasta ja päättelymoottorista. Tietokanta sisältää faktoja maailmasta. Päätelmämoottori sisältää loogisia sääntöjä, jotka yleensä esitetään JOS-SIIN -säännöinä. Tietopohjaiset järjestelmät loivat ensin tekoälytutkijat.

Ensimmäinen toimiva tietopohjainen järjestelmä oli Mycin-ohjelma. Tämä ohjelma luotiin vaarallisten bakteerien diagnosoimiseksi ja potilaalle sopivimman hoidon valitsemiseksi. Ohjelma toimi 600 säännöllä, kysyi lääkäriltä erilaisia ​​kyllä/ei-kysymyksiä ja tuotti luettelon mahdollisista bakteereista, lajiteltuna todennäköisyyksien mukaan, antoi myös luottamusvälin ja osasi suositella hoitoa.

Stanfordissa tehdyssä tutkimuksessa todettiin, että Mycin tarjosi hyväksyttävän hoitokuurin 69 prosentissa tapauksista, mikä oli parempi kuin samoilla kriteereillä arvioitujen asiantuntijoiden hoito. Tähän tutkimukseen viitataan usein osoittamaan lääketieteen asiantuntijoiden ja järjestelmän välistä erimielisyyttä, kun "oikealle" hoidolle ei ole olemassa standardia.

Valitettavasti Myciniä ei ole testattu käytännössä. Tällaisten ohjelmien käyttöön liittyviä eettisiä ja juridisia kysymyksiä on nostettu esille. Ei ollut selvää, kenen pitäisi olla vastuussa, jos ohjelmasuositus osoittautui vääräksi. Toinen ongelma oli tekninen rajoitus. Siihen aikaan ei ollut henkilökohtaisia ​​tietokoneita, yksi istunto kesti yli puoli tuntia, eikä tämä ollut kiireiselle lääkärille hyväksyttävää.

Ohjelman tärkein saavutus oli se, että maailma näki tietoon perustuvien järjestelmien voiman ja ylipäätään tekoälyn voiman. Myöhemmin, 1980-luvulla, alkoi ilmestyä muita samaa lähestymistapaa käyttäviä ohjelmia. Niiden luomisen yksinkertaistamiseksi luotiin E-Mycin-kuori, joka mahdollisti uusien asiantuntijajärjestelmien luomisen pienemmällä vaivalla. Ennakoimaton vaikeus, jonka kehittäjät kohtasivat, oli tiedon poimiminen asiantuntijoiden kokemuksesta ilmeisistä syistä.

On tärkeää mainita, että juuri tähän aikaan Neuvostoliiton tiedemies Dmitri Aleksandrovich Pospelov aloitti työnsä tekoälyn alalla

Taistele shakkilaudalla

Erikseen voimme tarkastella ihmisen ja tekoälyn vastakkainasettelun historiaa shakkilaudalla. Tämä tarina alkoi kauan sitten: kun vuonna 1769 Wienissä Wolfgang von Kempeleng loi shakkikoneen. Se oli iso puinen laatikko, jonka katolla oli shakkilauta ja jonka takana seisoi vahaturkki sopivassa asussa (tämän vuoksi autoa kutsutaan joskus lyhyesti "turkuksi"). Ennen esityksen alkua laatikon ovet avattiin ja yleisö näki monia yksityiskohtia tietystä mekanismista. Sitten ovet suljettiin ja auto käynnistettiin erikoisavaimella, kuten kellolla. Sen jälkeen ne, jotka halusivat pelata, tulivat esiin ja tekivät liikkeitä.

Tämä kone oli valtava menestys ja onnistui matkustamaan ympäri Eurooppaa häviten vain muutaman pelin vahvoille shakinpelaajille. Todellisuudessa laatikon sisällä istui mies, joka peilien ja mekanismien avulla pystyi tarkkailemaan juhlien tilaa ja ohjaamaan "turkkilaisen" kättä vipujärjestelmän avulla. Ja tämä ei ollut viimeinen kone, jonka sisällä itse asiassa piileskeli elävä shakinpelaaja. Tällaiset koneet menestyivät 1900-luvun alkuun asti.

Tietokoneiden myötä mahdollisuus luoda keinotekoinen shakinpelaaja tuli konkreettiseksi. Alan Turing kehitti ensimmäisen shakkipeliin soveltuvan ohjelman, mutta teknisten rajoitusten vuoksi yhden liikkeen tekemiseen meni noin puoli tuntia. Ohjelmassa on jopa tallenne Turingin kollegan Alik Glenyn kanssa tehdystä pelistä, jonka ohjelma hävisi.

Ajatus tällaisten tietokonepohjaisten ohjelmien luomisesta aiheutti kohua tieteellisessä maailmassa. Kysyttiin paljon. Erinomainen esimerkki on artikkeli: "Digitaaliset tietokoneet, joita sovelletaan peleihin". Se herättää 6 kysymystä:

1. Onko mahdollista luoda kone, joka noudattaisi shakin sääntöjä, voisi tuottaa satunnaisen oikean liikkeen tai tarkistaa, onko liike oikein?

2. Onko mahdollista luoda kone, joka pystyy ratkaisemaan shakkitehtäviä? Puhu esimerkiksi siitä, kuinka mattia tehdään kolmella liikkeellä.

3. Onko mahdollista luoda kone, joka pelaa hyvää peliä? Joka esimerkiksi tietyn tavanomaisen kappaleiden sijoittelun edessä voisi kahden tai kolmen minuutin laskelmien jälkeen saada aikaan hyvän, oikean liikkeen.

4. Onko mahdollista luoda kone, joka shakkia pelaamalla oppii ja parantaa peliään yhä uudelleen ja uudelleen?

Tämä kysymys herättää kaksi muuta, jotka ovat todennäköisesti jo lukijan kielen päässä:

5. Onko mahdollista luoda kone, joka pystyy vastaamaan esitettyyn kysymykseen siten, että sen vastausta on mahdoton erottaa ihmisen vastauksesta.

6. Onko mahdollista luoda kone, joka tuntui sinulta tai minulta?

Artikkeli keskittyi kysymykseen numero 3. Vastaus kysymyksiin 1 ja 2 on ehdottomasti myönteinen. Vastaus kysymykseen 3 edellyttää enemmän käyttöä monimutkaiset algoritmit. Kysymysten 4 ja 5 osalta kirjoittaja sanoo, ettei hän näe vakuuttavia perusteita, jotka kumoavat tällaisen mahdollisuuden. Ja kysymykseen 6: "En koskaan edes tiedä, tunnetko sinä samoin kuin minä."

Vaikka tällaiset tutkimukset eivät sinänsä ehkä olleet kovinkaan käytännön kiinnostavia, ne olivat teoreettisesti erittäin mielenkiintoisia, ja oli toivoa, että näiden ongelmien ratkaisusta tulee sysäys muiden samankaltaisten ja suurempien ongelmien ratkaisemiseen.

Taito pelata shakkia on pitkään luokiteltu standarditestitehtäväksi, mikä osoittaa tekoälyn kyvyn selviytyä tehtävästä ei "raa'an voiman" näkökulmasta katsottuna, mikä tässä yhteydessä ymmärretään kokonaisvaltaisen etsintänä. mahdollisia liikkeitä, mutta..."jotain sellainen", kuten yksi shakkiohjelman kehittämisen pioneereista Mikhail Botvinnik sen kerran sanoi. Kerran hän onnistui "murtamaan" virallisen rahoituksen työlle "keinotekoisen shakin mestari" -projektin PIONEER-ohjelmistokompleksissa, joka luotiin hänen johdollaan All-Union Electric Power Research Institutessa. Mahdollisuuksista soveltaa "PIONEERin" perusperiaatteita ohjauksen optimoinnin ongelmien ratkaisemiseen kansallinen talous Botvinnik raportoi toistuvasti Neuvostoliiton tiedeakatemian puheenjohtajistolle.

Perusajatuksen, johon entinen maailmanmestari perustaa kehityksensä, hän muotoili yhdessä haastattelussaan vuonna 1975: ”Olen jo vuosikymmeniä työskennellyt shakkimestarin ajattelun tunnistamisen ongelman parissa: kuinka hän löytää liikkua ilman täysin raakaa voimaa? Ja nyt voidaan sanoa, että tämä menetelmä on pohjimmiltaan paljastunut... Ohjelman luomisen kolme päävaihetta: koneen on kyettävä löytämään kappaleen liikkeen liikerata, sitten sen on "opeteltava" muodostamaan pelialue, a paikallista taistelualuetta shakkilaudalla ja pystyä muodostamaan joukko näitä vyöhykkeitä. Työn ensimmäinen osa valmistui kauan sitten. Vyöhykkeen muodostus-aliohjelma on nyt valmis. Sen virheenkorjaus alkaa lähipäivinä. Jos se onnistuu, on täysi luottamus siihen, että kolmas vaihe onnistuu ja kone alkaa pelata.

PIONEER-projekti jäi kesken. Botvinnik työskenteli sen parissa vuosina 1958-1995 ja tänä aikana hän onnistui rakentamaan shakkipelin algoritmisen mallin, joka perustui "vaihtoehtojen puun" etsimiseen ja "epätarkkojen tavoitteiden" peräkkäiseen saavuttamiseen, jotka olivat voittoa. materiaalia.

Vuonna 1974 Neuvostoliiton tietokoneohjelma Kaissa voitti ensimmäisen tietokonesahkin maailmanmestaruuden voittaen muut shakkikoneet kaikissa neljässä pelissä ja pelaten shakinpelaajien mukaan kolmannella tasolla. Neuvostoliiton tiedemiehet esittelivät monia innovaatioita shakkikoneille: aloituskirjan käytön, joka välttää liikkeiden laskemisen heti pelin alussa, sekä erityisen tietorakenteen: bitboardin, jota käytetään edelleen shakkikoneissa.

Heräsi kysymys, voiko ohjelma voittaa ihmisen. Vuonna 1968 shakinpelaaja David Levy löi 1250 puntaa vetoa, ettei mikään kone voisi voittaa häntä seuraaviin 10 vuoteen. Vuonna 1977 hän pelasi pelin Kaissan kanssa ja voitti, minkä jälkeen turnausta ei jatkettu. Vuonna 1978 hän voitti pelin Chess4.7:ää vastaan ​​- paras shakkiohjelma tuolloin, minkä jälkeen hän myönsi, ettei ollut enää paljon aikaa siihen hetkeen, jolloin ohjelmat pystyisivät kukistamaan nimitetyt shakinpelaajat.

Erityistä huomiota tulee kiinnittää ihmisten ja tietokoneiden välisiin peleihin. Aivan ensimmäinen oli aiemmin mainittu Alik Glenyn peli ja Turing-ohjelma. Seuraava askel oli ohjelman luominen Los Alamosissa vuonna 1952. Hän pelasi 6x6-laudalla (ilman piispoja). Testi suoritettiin kahdessa vaiheessa. Ensimmäinen vaihe on peli vahvan shakinpelaajan kanssa, jonka seurauksena henkilö voitti 10 tunnin pelin jälkeen. Toinen vaihe oli peli tyttöä vastaan, joka vähän ennen koetta opetettiin pelaamaan shakkia. Tuloksena oli ohjelman voitto 23. siirrolla, mikä oli tuolloin kiistaton saavutus.

Vasta vuonna 1989 Deep Thought onnistui voittamaan kansainvälisen suurmestarin: Bent Larsenin. Samana vuonna pelattiin saman ohjelman ottelu Garry Kasparovin kanssa, jonka Kasparov voitti helposti. Tämän ottelun jälkeen hän sanoi:

Jos tietokone voi voittaa shakissa parhaiden parhaat, se tarkoittaa, että tietokone pystyy säveltämään parasta musiikkia, kirjoittamaan parhaita kirjoja. En voi uskoa sitä. Jos luodaan tietokone, jonka luokitus on 2800, eli sama kuin minun, pidän itse velvollisuuteni haastaa se otteluun ihmiskunnan suojelemiseksi.

Vuonna 1996 tietokone Deep Blue hävisi turnauksen Kasparoville, mutta voitti ensimmäistä kertaa historiassa pelin maailmanmestaria vastaan. Ja vasta vuonna 1997, ensimmäistä kertaa historiassa, tietokone voitti turnauksen maailmanmestaria vastaan ​​pistein 3,5:2,5.

Kasparovin otteluiden jälkeen monet FIDE-johtajat ilmaisivat toistuvasti ajatuksia sekaotteluiden järjestämisestä (mies vs. tietokoneohjelma) on sopimaton monista syistä. Tätä kantaa tukeessaan Garry Kasparov selitti: "Kyllä, tietokone ei tiedä mitä voittaminen tai häviäminen on. Mitä tämä minulle sopii?.. Miltä minusta tuntuu pelistä unettoman yön jälkeen, pelin vakavien virheiden jälkeen? Kaikki on tunteita. Ne asettavat valtavan taakan ihmispelaajalle, ja epämiellyttävin asia on, että ymmärrät: vastustajasi ei ole väsynyt tai muita tunteita alttiina».

Ja jos nyt shakissa etu on tietokoneiden puolella, niin sellaisissa kilpailuissa kuin Go-pelissä tietokone sopii pelaamiseen vain aloittelijoiden tai keskitason pelaajien kanssa. Syynä on se, että Go-pelissä on vaikea arvioida laudan tilaa: yksi siirto voi muuttaa selvästi hävinneen aseman voittajaksi. Tämän lisäksi täydellinen haku on käytännössä mahdotonta, koska ilman heuristista lähestymistapaa neljän ensimmäisen liikkeen täydellinen haku (kaksi toisella puolella ja kaksi toisella puolella) voi vaatia arviolta lähes 17 miljardia mahdollisia vaihtoehtoja layout.

Pokerin pelaaminen saattaa kiinnostaa samanlaista. Vaikeus tässä on, että tila ei ole täysin näkyvissä, toisin kuin Go ja Chess, joissa molemmat pelaajat näkevät koko laudan. Pokerissa tilanne on mahdollinen, kun vastustaja sanoo kippaa, mutta ei näytä korttejaan, mikä voi vaikeuttaa analyysiprosessia.

Joka tapauksessa, Mielipelejä ovat yhtä tärkeitä tekoälyn kehittäjille kuin hedelmäkärpäset geneetikoille. Tämä on kätevä testauskenttä, sekä teoreettisen että käytännön tutkimuksen kenttä. Tämä on myös osoitus tekoälytieteen kehityksestä.

Tekoälyn käyttö kaupallisiin tarkoituksiin

80-luvulla monet yritykset päättivät tekoälyn saavutuksista inspiroimana kokeilla uusia teknologioita. Kuitenkin vain suurimmilla yrityksillä oli varaa tällaisiin kokeiluihin.

Yksi ensimmäisistä yrityksistä, jotka pystyivät mukauttamaan tekoälyteknologiaa, oli DEC (Digital Equipment Corp). Hän pystyi toteuttamaan XSEL-asiantuntijajärjestelmän, joka auttoi konfiguroimaan laitekokoonpanoja ja valitsemaan vaihtoehtoja asiakkaille. Tämän seurauksena kolmen tunnin tehtävä lyheni 15 minuuttiin ja virheiden määrä 30 prosentista 1 prosenttiin. Yrityksen edustajien mukaan XSEL-järjestelmä teki mahdolliseksi ansaita 70 miljoonaa dollaria.

American Express päätti asiantuntijajärjestelmän avulla, myönnetäänkö asiakkaalle laina vai ei. Tämä järjestelmä tarjosi lainoja kolmanneksen todennäköisemmin kuin asiantuntijat. He sanovat, että hän ansaitsi 27 miljoonaa dollaria vuodessa.

Älykkäiden järjestelmien tarjoamat edut olivat usein hämmästyttäviä. Se oli samanlainen kuin siirtyminen kävelystä autolla matkustamiseen tai autolla matkustamisesta lentokoneella lentämään.

Kaikki ei kuitenkaan ollut niin yksinkertaista tekoälyn integroinnin kanssa. Ensinnäkin jokaista tehtävää ei voitu virallistaa sellaiselle tasolle, jolla tekoäly voisi selviytyä siitä. Toiseksi itse kehittäminen oli erittäin kallis ilo. Kolmanneksi järjestelmät olivat uusia, ihmiset eivät olleet tottuneet käyttämään tietokoneita. Jotkut olivat skeptisiä ja jotkut jopa vihamielisiä.

Mielenkiintoinen esimerkki on DuPont-yritys, joka pystyi käyttämään 10 000 dollaria ja yhden kuukauden pienen tukijärjestelmän luomiseen. Hän pystyi työskentelemään henkilökohtaisella tietokoneella ja antoi hänelle mahdollisuuden saada 100 000 dollarin lisävoittoa.

Kaikki yritykset eivät ole onnistuneet ottamaan käyttöön tekoälyteknologiaa. Tämä osoitti, että tällaisten teknologioiden käyttö vaatii laajan teoreettisen pohjan ja paljon resursseja: henkistä, aikaa ja materiaalia. Mutta jos onnistui, kustannukset olivat enemmän kuin takaisin.

Paradigman muutos

80-luvun puolivälissä ihmiskunta näki, että tietokoneet ja tekoäly pystyivät selviytymään vaikeista ongelmista ilman huonompi kuin mies ja monella tapaa vielä paremmin. Käsillä oli esimerkkejä onnistuneesta kaupallisesta käytöstä, pelialan edistymisestä ja kehitystä päätöksenteon tukijärjestelmissä. Ihmiset uskoivat, että jossain vaiheessa tietokoneet ja tekoäly pystyvät ratkaisemaan jokapäiväisiä ongelmia paremmin kuin ihmiset. Uskomus, jota on jäljitetty pitkään, ja tarkemmin sanottuna robotiikan kolmen lain luomisesta lähtien. Mutta jossain vaiheessa tämä usko siirtyi uudelle tasolle. Ja todisteeksi tästä voimme mainita toisen robotiikan lain, jota Isaac Asimov itse kutsui mieluummin "nollaksi" vuonna 1986:

"0. Robotti ei voi vahingoittaa ihmistä, ellei se todista, että se hyödyttää lopulta koko ihmiskuntaa."

Tämä on valtava muutos visiossa tekoälyn paikasta ihmiselämässä. Aluksi koneille annettiin heikkotahtoisen palvelijan paikka: uuden vuosisadan karja. Nähtyään sen mahdollisuudet ja mahdollisuudet ihmiset alkoivat kuitenkin pohtia, voisiko tekoäly hallita ihmisten elämää paremmin kuin ihmiset itse. Väsymätön, oikeudenmukainen, epäitsekäs, ei kateudessa ja haluissa, ehkä hän voisi järjestää ihmisten elämän toisin. Idea ei itse asiassa ole uusi, se esiintyi Kurt Vonnegutin vuonna 1952 ilmestyneessä romaanissa "Mekaaninen piano" tai "Utopia 14". Mutta sitten se oli fantastista. Nyt siitä on tullut mahdollinen mahdollisuus.

Tiedon louhinta

Tämän tiedon louhintasuuntauksen historia alkoi vuonna 1989 Grigory Pyatetsky-Shapiron seminaarin jälkeen. Hän pohti, oliko mahdollista saada hyödyllistä tietoa pitkästä joukosta näennäisesti merkityksettömiä tietoja. Tämä voi olla esimerkiksi tietokantakyselyiden arkisto. Jos voisimme sitä tarkastelemalla tunnistaa joitain kaavoja, se nopeuttaisi tietokannan työtä. Esimerkki: joka aamu klo 7.50-8.10 käynnistetään resurssiintensiivinen pyyntö luoda raportti edelliseltä päivältä, jolloin se voidaan tuolloin jo generoida muiden pyyntöjen väliin, joten tietokanta on enemmän tasaisesti täynnä pyyntöjä. Mutta kuvittele, että työntekijä tekee tämän pyynnön vasta uuden tiedon syöttämisen jälkeen. Tässä tapauksessa säännön pitäisi muuttua: heti kun tietty työntekijä on syöttänyt tiedot, voit aloittaa raportin laatimisen taustalla. Tämä esimerkki on erittäin yksinkertainen, mutta se osoittaa sekä tiedon louhinnan edut että siihen liittyvät vaikeudet.

Termillä tiedonlouhinta ei ole virallista käännöstä venäjäksi. Se voidaan kääntää "tiedon louhinnaksi", jolloin "louhinta" on samankaltaista kuin kaivoksissa: paljon raaka-ainetta voi löytää arvokkaan esineen. Itse asiassa samanlainen termi oli olemassa jo 1960-luvulla: Data Fishing tai Data Dredging. Se oli käytössä tilastotieteilijöiden keskuudessa, mikä tarkoitti tunnustettua huonoa käytäntöä etsiä malleja a priori hypoteesien puuttuessa. Itse asiassa termiä olisi voinut oikein kutsua Database Mining, mutta tämä nimi osoittautui tavaramerkiksi. Grigory Pyatetsky-Shapiro itse ehdotti termiä "Tietojen löytäminen tietokannoista", mutta nimi "Datan louhinta" jäi kiinni yritysympäristöön ja lehdistössä.

Ajatus, että käyttämällä tiettyä tietokantaa joistakin faktoista, voidaan ennustaa uusien tosiasioiden olemassaolo, ilmestyi kauan sitten ja kehittyi jatkuvasti tekniikan tason mukaisesti: 1700-luku - Bayesin lause, 1800-luku - taantumisanalyysi, 1930-luku - klusterianalyysi, 1940-luku - neuroverkot, 1950-luku - geneettiset algoritmit, 1960-luku - päätöspuut. Termi Data Mining ei yhdistä heitä sen periaatteen mukaan, miten he toimivat, vaan sillä, mikä heidän tavoitteensa on: tietyn tiedossa olevan datajoukon perusteella he voivat ennustaa, mitä dataa pitäisi saada seuraavaksi.

Tiedonlouhinnan tavoitteena on löytää "piilotettu tieto". Katsotaanpa tarkemmin mitä "piilotettu tieto" tarkoittaa. Ensinnäkin sen on oltava uutta tietoa. Esimerkiksi viikonloppuisin supermarketissa myytävien tavaroiden määrä kasvaa. Toiseksi, tieto ei saa olla triviaalia, ei rajoittua matemaattisen odotuksen ja varianssin löytämiseen. Kolmanneksi tämän tiedon on oltava hyödyllistä. Neljänneksi tieto, joka on helposti tulkittavissa.

Pitkään uskottiin, että tietokoneet pystyvät ennustamaan kaiken: pörssikurssit, palvelinkuormitukset, tarvittavat resurssit. Osoittautuu kuitenkin, että tiedon poimiminen datavedosta on usein erittäin vaikeaa. Jokaisessa erityistapauksessa on tarpeen säätää algoritmia, ellei se ole vain jonkinlainen regressio. Ihmiset uskoivat, että oli olemassa universaali algoritmi, joka voisi mustan laatikon tavoin imeä suuren määrän tietoa ja alkaa tehdä ennusteita.

Kaikista rajoituksista huolimatta tiedon louhintaa helpottavia työkaluja parannetaan vuosi vuodelta. Ja joka vuosi vuodesta 2007 lähtien Rexer Analytics on julkaissut asiantuntijoille tehdyn kyselyn tulokset olemassa olevista työkaluista. Vuoden 2007 kyselyssä oli 27 kysymystä, ja siihen osallistui 314 osallistujaa 35 maasta. Vuonna 2013 kyselyyn sisältyi jo 68 kysymystä, ja siihen osallistui 1 259 asiantuntijaa 75 maasta.

Tietojen louhintaa harkitaan edelleen lupaava suunta. Jälleen sen käyttö herättää uusia eettisiä kysymyksiä. Yksinkertainen esimerkki on tiedon louhintatyökalujen käyttö rikosten analysoinnissa ja ennustamisessa. Vastaavia tutkimuksia on tehty vuodesta 2006 lähtien eri yliopistoissa. Ihmisoikeusaktivistit vastustavat sitä väittäen, että tällä tavalla hankittu tieto voi johtaa hakuun, joka ei perustu tosiasioihin, vaan oletuksiin.

Recommender-järjestelmät ovat ylivoimaisesti konkreettisin tekoälyn kehityksen tulos. Saatamme kohdata sen vieraillessamme yhdessä suosituista verkkokaupoista. Suositusjärjestelmän tehtävänä on määrittää joidenkin havaittavien ominaisuuksien perusteella esimerkiksi luettelo tietyn käyttäjän katsomista tuotteista, jotta voidaan määrittää, mitkä tuotteet kiinnostavat käyttäjää eniten.

Suositusten löytämisen tehtävä tiivistyy myös koneen kouluttamiseen, kuten tiedon louhinnassa. Uskotaan, että suositusjärjestelmien kehityksen historia alkoi David Goldbergin Tapestry-järjestelmän käyttöönotosta Xerox Palo Alton tutkimuskeskuksessa vuonna 1992. Järjestelmän tarkoituksena oli suodattaa yrityspostia. Tästä tuli eräänlainen suositusjärjestelmän edeltäjä.

Päällä Tämä hetki Suositusjärjestelmiä on kaksi. David Goldberg ehdotti yhteiskäyttöön perustuvaan suodatukseen perustuvaa järjestelmää. Toisin sanoen suosituksen antamiseksi järjestelmä tarkastelee tietoja siitä, kuinka muut kohdekäyttäjän kaltaiset käyttäjät arvioivat kohteen. Näiden tietojen perusteella järjestelmä voi ennustaa, kuinka korkealle kohdekäyttäjä arvioi tietyn kohteen (tuotteen, elokuvan).

Toinen suositusjärjestelmätyyppi on sisältösuodattimet. Tarpeellinen ehto Jotta sisältösuodatin olisi olemassa, on olemassa tietty tietokanta, johon on tallennettava kaikkien objektien mittareita. Seuraavaksi useiden käyttäjän toimien jälkeen järjestelmä pystyy määrittämään minkä tyyppisistä objekteista käyttäjä pitää. Nykyisten mittareiden perusteella järjestelmä voi valita uusia objekteja, jotka ovat jollain tavalla samanlaisia ​​kuin jo katsellut. Tällaisen järjestelmän haittana on, että ensin on rakennettava suuri tietokanta mittareilla. Itse mittareiden luontiprosessi voi olla haaste.

Jälleen herää kysymys, eikö tällaisten järjestelmien käyttö ole rikkomus. Tässä on kaksi lähestymistapaa. Ensimmäinen, eksplisiittinen tiedonkeruu, edustaa tietojen keräämistä yksinomaan suositusjärjestelmän toimintakehyksen sisällä. Jos tämä on esimerkiksi verkkokaupan suositusjärjestelmä, se tarjoaa tuotteen arvioinnin, lajittelee tuotteet kiinnostuksen kohteisiin ja luo luettelon suosikkituotteista. Tämän tyypin kanssa kaikki on yksinkertaista: järjestelmä ei vastaanota tietoa käyttäjän toiminnasta rajojen ulkopuolella, vaan käyttäjä itse kertoo sille kaiken, mitä se tietää. Toinen tyyppi on implisiittinen tiedonkeruu. Tämä sisältää tekniikat, kuten muiden vastaavien resurssien tietojen käyttämisen, käyttäjien käyttäytymisen kirjaamisen ja käyttäjän tietokoneen sisällön tarkistamisen. Tämäntyyppinen tiedonkeruu suosittelujärjestelmiä varten herättää huolta.

Tällä alueella yksityisen tiedon käyttö aiheuttaa kuitenkin yhä vähemmän kiistaa. Esimerkiksi vuonna 2013 YAC (Yandex Another Conference) -konferenssissa ilmoitettiin Atom-järjestelmän luomisesta. Sen tarkoituksena on tarjota sivustojen omistajille tiedot, joita he saattavat tarvita suositusten laatimiseen. Yandex-palveluiden tulisi aluksi kerätä nämä tiedot. Eli tässä tapauksessa suoritetaan implisiittinen tiedonkeruu. Esimerkki: henkilö menee hakupalveluun löytääkseen Pariisin kiinnostavimmat paikat. Jonkin ajan kuluttua henkilö vierailee matkatoimiston verkkosivustolla. Ilman Atomia viraston olisi yksinkertaisesti näytettävä henkilölle suosituimmat matkat. Atom voisi neuvoa sivustoa näyttämään ensin käyttäjälle Pariisin kiertueen ja antamaan henkilökohtaisen alennuksen tästä kiertueesta erottaakseen sen muista. Näin ollen luottamukselliset tiedot eivät ylitä Atom-palvelun rajoja, sivusto tietää mitä neuvoa asiakasta ja asiakas on iloinen, että hän löysi nopeasti etsimänsä.

Nykyään suositusjärjestelmät ovat selkein esimerkki siitä, mitä tekoälyteknologiat voivat saavuttaa. Yhden tällaisen järjestelmän ansiosta voidaan tehdä työtä, jota kokonainen analyytikoiden armeija ei pystyisi käsittelemään.

Johtopäätös

Kaikella on alku, kuten Sancho Panza sanoi, ja tämän alun täytyy kuvata

pyrkiä johonkin sitä edeltävään. Hindut keksivät norsun, joka

ry piti maailmaa, mutta heidän täytyi laittaa se kilpikonnan päälle. Tarvitsee

Huomaa, että keksintö ei ole tyhjyydestä luomista, vaan luomista

kaaos: ensinnäkin sinun tulee huolehtia materiaalista...

Mary Shelley, Frankenstein

Tekoälyn kehitys koneiden luomisen tieteenä ja teknologiana alkoi hieman yli sata vuotta sitten. Ja tähän mennessä saavutetut saavutukset ovat hämmästyttäviä. Ne ympäröivät ihmistä melkein kaikkialla. Tekoälytekniikoilla on erityispiirre: ihminen pitää niitä vain aluksi älyllisinä, sitten niihin tottuu ja ne näyttävät hänelle luonnollisilta.

On tärkeää muistaa, että tekoälyn tiede liittyy läheisesti matematiikkaan, kombinatoriikkaan, tilastotieteeseen ja muihin tieteisiin. Mutta ne eivät vain vaikuta siihen, vaan tekoälyn kehitys antaa meille mahdollisuuden tarkastella jo luotua erilaista katsetta, kuten Logic Theorist -ohjelman tapauksessa.

Tietokoneiden kehityksellä on tärkeä rooli tekoälyteknologian kehittämisessä. On tuskin mahdollista kuvitella vakavaa tiedonlouhintaohjelmaa, joka vaatisi 100 kilotavua RAM-muistia. Tietokoneet antoivat teknologian kehittyä laajasti, kun taas teoreettinen tutkimus toimi intensiivisen kehityksen edellytyksenä. Voimme sanoa, että tekoälyn tieteen kehitys oli seurausta tietokoneiden kehityksestä.

Tekoälyn kehityksen historia ei ole ohi, sitä kirjoitetaan juuri nyt. Teknologioita kehitetään jatkuvasti, uusia algoritmeja luodaan ja uusia sovellusalueita avataan. Aika avaa jatkuvasti uusia mahdollisuuksia ja uusia kysymyksiä tutkijoille.

Tämä tiivistelmä ei keskity maihin, joissa tietyt tutkimukset on tehty. Koko maailma on osallistunut palasina alueeseen, jota nyt kutsumme tekoälyn tieteeksi.

Bibliografia

Myytit maailman kansoista. M., 1991-92. 2 osana T.2. s. 491,

Idel, Moshe (1990). Golem: Juutalaiset maagiset ja mystiset perinteet keinotekoisessa antropoidissa. Albany, New York: State University of New York Press. ISBN 0-7914-0160-X. sivu 296

Asimov, Isaac. Essee nro 6. Robotiikan lait // Robottien unelmat V . M.: Eksmo, 2004. P. 781784. ISBN 5-699-00842- X

Katso Nonn. Dionysoksen teot XXXII 212. Klemens. Protrepticus 57, 3 (viittaus Philostephanukseen).

Robert J. Sawyer. Asimovista kolme robotiikan lakia (1991).

Turing, Alan (lokakuu 1950), "Tietokonelaitteet ja älykkyys", Mind LIX (236): 433460

McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (1955)Ehdotus Dartmouthin kesätutkimusprojektille tekoälystä

Crevier 1993, s. 4648.

Smith, Reid (8. toukokuuta 1985). "Tietopohjaisten järjestelmien käsitteet, tekniikat, esimerkit"

Alan Turing, "Digitaaliset tietokoneet sovellettu peleihin." n.d. AMT:n panos "Faster than think", toim. B.V. Bowden, Lontoo 1953. Julkaisija Pitman Publishing. TS MS-korjauksilla. R.S. 1953b

Kaissa - Maailmanmestari. Journal "Science and Life", tammikuu 1975, s. 118-124

Gik, E. Suurmestari "Syvä ajatus" // Tiede ja elämä. M., 1990. V. 5. P. 129130.

F. Hayes-Roth, N. Jacobstein. Tietoon perustuvien järjestelmien tila. ACM:n tiedonannot, maaliskuu 1994, v.37, n.3, s. 27-39.

Karl Rexer, Paul Gearan ja Heather Allen (2007); 2007 Data Miner Survey Summary, esitelty SPSS Directions Conferencessa lokakuussa. 2007 ja Oracle BIWA Summit, lokakuu. 2007.

Karl Rexer, Heather Allen ja Paul Gearan (2013); 2013 Data Miner Survey Summary, esitelty Predictive Analytics Worldissa lokakuussa. 2013.

Shyam Varan Nath (2006). "Crime Pattern Detection using Data Mining", WI-IATW "06 Proceedings of 2006 IEEE/WIC/ACM International Conference on Web Intelligence and Intelligent Agent Technology, sivut 41-44

David Goldberg, David Nichols, Brian M. Oki ja Douglas Terry (2006). "Yhteistyösuodatuksen käyttäminen informaatiokudoksen kutomiseen", Communications of the ACM, joulukuu 1992, vol. 35, n12, s. 61-71

Muita vastaavia teoksia, jotka saattavat kiinnostaa sinua.vshm>

14280. Käsitys tekoälyjärjestelmistä ja niiden toimintamekanismeista 157,75 kt
Älykkäiden järjestelmien rakenteen ja toimintamekanismien tarkastelu vaatii toisaalta yksityiskohtaisen esittelyn, jossa otetaan huomioon sovellusten erityispiirteiden vaikutus, ja toisaalta edellyttää käyttöön otettujen käsitteiden, rakenteiden ja mekanismien yleistämistä ja luokittelua. .
609. 12,42 kt
Yritysten valaistukseen tarkoitetuissa valaistusasennuksissa valonlähteinä käytetään laajasti kaasupurkauslamppuja ja hehkulamppuja. Valonlähteiden pääominaisuuksia ovat: nimellisjännite V; sähköteho W; valovirta yam: valoteho lm W tämä parametri on pääominaisuus valonlähteen tehokkuus; käyttöikä h. Valonlähteen tyyppi yrityksissä valitaan ottaen huomioon tekniset ja taloudelliset indikaattorit sekä tuotannon erityispiirteet...
6244. IVY:n kehityksen historia 154,8 kt
On huomattava, että minkä tahansa tyyppinen järjestelmä sisältää aikaisemman tyyppisiä järjestelmiä. Tämä tarkoittaa, että kaikentyyppiset järjestelmät elävät rauhanomaisesti rinnakkain nykyään. Yleinen CIS-järjestelmäarkkitehtuurin malli Viime aikoihin asti tietojärjestelmien luomisteknologiaa hallitsi perinteinen lähestymistapa, jolloin koko tietojärjestelmän arkkitehtuuri rakennettiin ylhäältä alas sovellustoiminnallisuudesta järjestelmäteknisiin ratkaisuihin ja tietojärjestelmän ensimmäiseen komponenttiin. oli kokonaan peräisin toisesta. Aluksi tämän tason järjestelmät perustuivat...
17626. Uinnin kehityksen historia 85,93 kt
Veden valtava merkitys primitiivisen ihmisen elämässä, tämän epätavallisen ympäristön teollisen kehittämisen tarve edellytti hänen kykyä uida, jotta hän ei kuolisi ankarassa olemassaolon taistelussa. Poliittisen järjestelmän syntyessä uimataito tuli erityisen tarpeelliseksi työ- ja sotilasasioissa.
9769. Etnopsykologian kehityshistoria 19,47 kt
Etnopsykologian kehityksen historia Päätelmä. Niinpä Hippokrates kirjoitti työssään On Airs, Waters and Localities, että kaikki kansojen väliset erot, myös psykologiassa, määräytyvät maan sijainnin, ilmaston ja muiden luonnontekijöiden perusteella. Seuraava syvän kiinnostuksen vaihe etniseen psykologiaan alkaa 1700-luvun puolivälissä. Montesquieu ilmaisi ehkä täydellisimmin tuon ajanjakson yleisen metodologisen lähestymistavan etnisten erojen olemukseen psykologian hengessä.
9175. Luonnontieteen kehityshistoria 21,45 kt
Luonnontieteellisten vallankumousten joukosta voidaan erottaa seuraavat tyypit: globaali, joka kattaa koko luonnontieteen ja aiheuttaa paitsi perustavanlaatuisten uusien maailmakäsitysten, uuden näkemyksen maailmasta, myös uuden tieteen loogisen rakenteen syntymisen, uusi ajattelutapa tai -tyyli; paikallinen yksittäisissä perustieteissä jne. Uuden...
9206. Mekatroniikan kehityksen historia 7,71 kt
SISÄÄN viime vuosikymmen paljon huomiota kiinnitetään mekatronisten moduulien luomiseen uuden sukupolven teknisten laitteiden nykyaikaisiin autoihin työstökoneet rinnakkaisilla kinemaattisilla roboteilla älykkäällä mikrokoneiden ohjauksella uusin tietokone ja toimistolaitteet. Ensimmäiset vakavat tulokset luomisessa ja käytännön sovellus Neuvostoliiton robotit ovat peräisin 1960-luvulta. Modernin ensimmäiset teolliset mallit teollisuusrobotit paikkaohjauksella varustetut laitteet luotiin vuonna 1971 Leningradin ammattikorkeakoulussa...
11578. Tietotekniikan kehityksen historia 41,42 kt
Tietojenkäsittelytieteen ja viestinnän alan tieteellisen ja soveltavan tutkimuksen tulokset ovat luoneet vahvan pohjan uuden tietoteollisuuden osaamisen ja tuotannon haaran syntymiselle. muodostaa infrastruktuurin ja tietotilan yhteiskunnan informatisoinnin toteuttamiselle. Syntymis- ja kehitysvaiheet tietotekniikka Heti tilanteen alussa henkilö tarvitsi koodattuja viestintäsignaaleja suoritettavien vaikutteiden synkronoimiseksi. Tiedon esittäminen ajattelee kahden kohteen itsehallintaa: tiedon lähteen ja...
3654. Epäorgaanisen kemian kehityksen historia 29,13 kt
Kemia tieteenä sai alkunsa muinaisesta Egyptistä ja sitä käytettiin pääasiassa soveltavana tieteenä: sellaisten aineiden ja tuotteiden saamiseksi, joilla on uusia ominaisuuksia, joita monille ihmisille ei vielä tiedetä. Papit Muinainen Egypti käytti kemian tietämystä keinotekoisten korujen valmistukseen, balsamoi ihmisiä
14758. Genetiikan kehityksen historia perustieteenä 942,85 kt
Genetiikan kehityksen historia perustieteenä. Ihmisgenetiikan tutkimusmenetelmät. Genetiikan kehityksen historia perustieteenä.2 Genetiikan kehityksen päävaiheet: klassinen ajanjakso.

Luento 1

Johdanto. Tietojärjestelmän ja teknologian käsite, älykäs tietojärjestelmä (IIS). Signaalien esittämis- ja käsittelymenetelmien kehittämisen historiallisia näkökohtia, menetelmät signaalinkäsittelyjärjestelmien rakentamiseen ja niiden älyllistämiseen. Ero IIS:n ja perinteisten tietojärjestelmien välillä. Älykkäiden järjestelmien tyypit ja ominaisuudet. Älykkään ohjauksen käsite ja tyypit. Lähestymistavat älykkäiden tietojärjestelmien rakentamiseen. IIS:n pääluokat. Jokaisen luokan erityispiirteet.

Nykymaailmassa ohjelmoijan tuottavuuden kasvu saavutetaan käytännössä vain tapauksissa, joissa tietokoneet ottavat osan älyllisestä kuormituksesta. Yksi keino saavuttaa maksimaalista edistystä tällä alueella on "tekoäly", jolloin tietokone ei vain suorita samanlaisia, toistuvia toimintoja, vaan voi myös oppia itse. Lisäksi täysimittaisen "tekoälyn" luominen avaa ihmiskunnalle uusia kehitysnäkymiä.

Ennen kuin alamme pohtia tehokkaiden älykkäiden tietojärjestelmien rakentamisen kysymyksiä, siirrytään aiheen määritelmiin ja peruskäsitteisiin.

Tiedot– tietoa esineistä, ilmiöistä ja tapahtumista, ympäröivän maailman prosesseista, välitettynä suullisesti, kirjallisesti tai muutoin ja vähentäen niitä koskevan tiedon epävarmuutta.

Tiedon tulee olla luotettavaa, täydellistä, riittävää, ts. oltava tietyllä tasolla merkityksellisiä, ytimekkäitä, selkeästi ilmaistuja, ajankohtaisia ​​ja arvokkaita.

Järjestelmä– joukko elementtejä, joita yhdistävät niiden väliset yhteydet ja joilla on tietty eheys. Eli järjestelmä on joukko vuorovaikutuksessa olevia toisiinsa liittyviä elementtejä, joita yhdistää tietty tavoite ja yleiset (tarkoitetut) suhteiden säännöt.

Automaattiset tietojärjestelmät suorittaa kaikki tietojenkäsittelytoiminnot ilman ihmisen osallistumista.

Automatisoidut tietojärjestelmät mukaan sekä ihmisten että teknisten välineiden osallistuminen tietojenkäsittelyprosessiin ja päärooli määritetty tietokoneelle. Nykyisessä tulkinnassa termi "tietojärjestelmä" sisältää välttämättä käsitteen automatisoitu järjestelmä. On tarpeen tehdä ero tietojärjestelmän ja tietotekniikan käsitteiden välillä.

Tietotekniikka– tekniikat, menetelmät ja menetelmät tietotekniikan käyttämiseksi tietojen keräämisen, tallennuksen, käsittelyn ja käytön toiminnoissa (GOST 34.003-90 mukaisesti).

Tietojärjestelmä– organisatorisesti järjestetyt asiakirjat ja tietotekniikat, mukaan lukien tietotekniikkaa ja tietoprosesseja toteuttavan viestinnän käyttö.

Tämä tietojärjestelmän ymmärtäminen edellyttää tietokoneiden ja viestintävälineiden käyttöä tärkeimpänä teknisenä tiedonkäsittelyn, tietoprosessien toteuttamisen ja minkä tahansa alan tehtävien päätöksenteossa tarvittavan tiedon luovuttamisen keinoina.

InfSyst on ympäristö, jonka rakenneosia ovat tietokoneet, tietokoneverkot, ohjelmistotuotteet, tietokannat, ihmiset, erilaiset laitteisto- ja ohjelmistoviestintätyypit jne. Vaikka ajatus tietojärjestelmistä ja jotkin niiden organisoinnin periaatteet syntyivät kauan ennen tietokoneiden tuloa, tietokoneistaminen on lisännyt tietojärjestelmien tehokkuutta kymmeniä ja satoja kertoja ja laajentanut niiden sovellusaluetta.

termillä " järjestelmä" Ymmärretään esineenä, jota pidetään samanaikaisesti sekä yhtenä kokonaisuutena että yhtenä kokonaisuutena toimivien, toisiinsa liittyvien heterogeenisten elementtien joukona, jotka yhdistyvät asetettujen tavoitteiden saavuttamiseksi. Järjestelmät eroavat merkittävästi toisistaan ​​sekä koostumukseltaan että päätavoitteiltaan. Tämä kokonaisuus saa jonkin ominaisuuden, joka puuttuu yksittäisistä elementeistä.

Järjestelmällisyyden merkkejä kuvataan kolmella periaatteella:

    Ulkoinen eheys - järjestelmän eristäminen tai suhteellinen eristäminen ympäröivässä maailmassa;

    Sisäinen eheys - järjestelmän ominaisuudet riippuvat sen elementtien ominaisuuksista ja niiden välisistä suhteista. Näiden suhteiden rikkominen voi johtaa siihen, että järjestelmä ei pysty suorittamaan toimintojaan;

    Hierarkia - järjestelmässä voidaan erottaa erilaisia ​​osajärjestelmiä, toisaalta järjestelmä itse voi olla myös jonkin toisen suuremman järjestelmän tai osajärjestelmän alijärjestelmä.

Tietojenkäsittelytieteessä käsite "järjestelmä" on laajalle levinnyt ja sillä on monia semanttisia merkityksiä. Useimmiten sitä käytetään suhteessa sarjaan teknisiä keinoja ja ohjelmia. Tietokoneen laitteistoa voidaan kutsua järjestelmäksi. Järjestelmää voidaan pitää myös ohjelmien sarjana tiettyjen sovellusongelmien ratkaisemiseksi, joita täydennetään dokumentaation ylläpitoon ja laskelmien hallintaan liittyvillä menettelyillä.

Sovellusalueesta riippuen IS voi vaihdella suuresti toimintojensa, arkkitehtuurinsa ja toteutuksensa suhteen. Voimme korostaa tärkeimpiä ominaisuuksia, jotka ovat yhteisiä kaikille IS:ille :

    tietojärjestelmän rakenteen ja toiminnallisen tarkoituksen tulee vastata asetettuja tavoitteita;

    IS käyttää verkkoja tiedon siirtämiseen;

    Koska mikä tahansa tietojärjestelmä on suunniteltu keräämään, tallentamaan ja käsittelemään tietoa, minkä tahansa tietojärjestelmän perustana on ympäristö tietojen tallentamiseen ja pääsyyn. Ja koska IS:n tehtävänä on tuottaa luotettavaa, luotettavaa, oikea-aikaista ja systematisoitua tietoa tietokantojen, asiantuntijajärjestelmien ja tietokantojen käyttöön, sen on tarjottava vaadittu tallennusluotettavuus ja pääsytehokkuus, joka vastaa IS:n laajuutta. sovellus;

    IP:n on oltava ihmisten hallinnassa, ymmärrettävä ja käytettävä yritysstandardin tai muun IP-standardin muodossa toteutettujen ydinperiaatteiden mukaisesti. IS-käyttöliittymän tulee olla helposti ymmärrettävä intuitiivisella tasolla.

Tietojärjestelmien ja IS-kehittäjien päätehtävät:

    Sellaisen tiedon etsiminen, käsittely ja tallentaminen, joka kertyy pitkään ja jonka katoaminen on korjaamatonta. Tietokoneistetut IC:t on suunniteltu käsittelemään tietoa nopeammin ja luotettavammin, jotta ihmiset eivät hukkaa aikaa, välttämään inhimillisiä satunnaisia ​​virheitä, säästämään kustannuksia ja tekemään ihmisten elämästä mukavampaa;

    Erilaisten rakenteiden tietojen tallennus. Ei ole kehitettyä tietojärjestelmää, joka toimisi yhden homogeenisen datatiedoston kanssa. Lisäksi kohtuullinen vaatimus tietojärjestelmälle on, että se voi kehittyä. Saattaa ilmestyä uusia toimintoja, jotka vaativat lisätietoa uudella rakenteella. Tässä tapauksessa kaikki aiemmin kertyneet tiedot on säilytettävä. Teoriassa tämä ongelma voidaan ratkaista käyttämällä useita ulkoisia muistitiedostoja, joista jokainen tallentaa tietoja kiinteällä rakenteella. Tiedostonhallintajärjestelmän käyttötavasta riippuen tämä rakenne voi olla tiedostotietuerakenne tai sitä tukee erillinen kirjastotoiminto, joka on kirjoitettu erityisesti järjestelmää varten. Tiedossa on esimerkkejä todella toimivista tietojärjestelmistä, joissa tiedon tallennus oli suunniteltu tiedostopohjaiseksi. Useimpien järjestelmien kehityksen tuloksena niihin tunnistettiin erillinen komponentti, joka on eräänlainen tietokannan hallintajärjestelmä (DBMS);

    Erilaisten ja yhteiskunnassa liikkuvien tietovirtojen analysointi ja ennustaminen. Virtoja tutkitaan tavoitteena minimoida, standardoida ja mukauttaa ne tehokkaaseen käsittelyyn tietokoneissa sekä eri tiedonlevityskanavien kautta kulkevien tietovirtojen ominaisuuksia;

    Tiedon esittämistapojen ja tallennustapojen tutkimus, erikoiskielien luominen erityyppisten tietojen muodolliseen kuvaukseen, erityisten tekniikoiden kehittäminen tiedon pakkaamiseen ja koodaamiseen, suurien asiakirjojen merkitsemiseen ja yhteenvetoon. Tämän suunnan puitteissa kehitetään suuria tietopankkeja, jotka tallentavat tietoa eri osaamisaloista tietokoneiden käytettävissä olevassa muodossa;

    Menettelyjen ja teknisten välineiden rakentaminen niiden toteuttamiseen, joiden avulla voit automatisoida tiedon poimimisen asiakirjoista, joita ei ole tarkoitettu tietokoneille, mutta jotka keskittyvät ihmisten havaitsemiseen;

    Sellaisten tiedonhakujärjestelmien luominen, jotka pystyvät vastaanottamaan kyselyitä luonnollisella kielellä muotoiltuihin tietovarastoihin, sekä erityisten kyselykielien luominen tämän tyyppisille järjestelmille;

    Tietojen tallennus-, käsittely- ja siirtoverkkojen luominen, mukaan lukien tietotietopankit, päätelaitteet, käsittelykeskukset ja viestintälaitteet.

Tietyt tehtävät, jotka tietojärjestelmän tulee ratkaista, riippuvat sovellusalueesta, jolle järjestelmä on tarkoitettu. Tietosovellusten käyttöalueet ovat monipuoliset: pankkitoiminta, teollisuusjohtaminen, lääketiede, liikenne, koulutus jne. Otetaan käyttöön käsite "aihealue" - ympäröivästä maailmasta eristettyä fragmenttia kutsutaan osaamisalueeksi tai aihealue. On myös monia tehtäviä ja ongelmia, jotka on ratkaistava käyttämällä tämän aihealueen kokonaisuuksia ja suhteita, joten käytetään laajempaa käsitettä - ongelmaympäristö on aihealue + ratkaistavat ongelmat.

Tarkastellaan lähemmin kahdenlaisia ​​tietojärjestelmiä. Nämä ovat asiantuntevia ja älykkäitä järjestelmiä.

Asiantuntijajärjestelmät(Expert System) – tietokonsultointi- ja/tai päätöksentekojärjestelmät, jotka perustuvat jäsenneltyihin, usein huonosti formalisoituihin menettelyihin, joissa käytetään kokemusta, intuitiota, ts. asiantuntijatyötä tukevat tai mallintavat henkiset ominaisuudet; järjestelmiä käytetään sekä pitkän että lyhyen tähtäimen toiminnan ennustamisessa ja johtamisessa.

Älykkäät järjestelmät tai tietopohjaiset järjestelmät (Knowleadge Based System) - järjestelmät päätöksentekotehtävien tukemiseen monimutkaisissa järjestelmissä, joissa on tarpeen käyttää tietoa melko laajasti, erityisesti huonosti formalisoiduissa ja huonosti jäsennellyissä järjestelmissä, sumeissa järjestelmissä ja epäselvissä päätöksenteossa. kriteerien laatiminen; Nämä järjestelmät ovat tehokkaimpia ja niitä käytetään vähentämään pitkän aikavälin strategisen johtamisen ongelmat taktisiksi ja lyhytaikaisiksi ongelmiksi, lisäämään hallittavuutta erityisesti monikriteeriolosuhteissa. Toisin kuin asiantuntijajärjestelmät, tietoon perustuvien järjestelmien tulisi usein välttää asiantuntija- ja heuristisia menettelyjä ja turvautua kognitiivisiin menetelmiin riskin minimoimiseksi. Tässä henkilöstön ammattitaidon vaikutus on merkittävämpi, koska tällaisten järjestelmien kehittämisessä yhteistyö ja keskinäinen ymmärrys ovat välttämättömiä paitsi kehittäjien, myös käyttäjien ja esimiesten kesken, ja itse kehitysprosessi tapahtuu pääsääntöisesti iteratiivisesti, iteratiiviset parannukset, proseduuritiedon (miten tehdä) asteittainen muuntaminen (siirtyminen) ei-proseduuriksi, deklaratiiviseksi (mitä tehdä).

Tarkastellaan nyt kysymystä tietojärjestelmien älykkyydestä.

Termi älykkyyttä(äly) tulee latinan sanasta intellectus, joka tarkoittaa "mieli, järki, mieli; ihmisen ajattelukyky". Vastaavasti tekoäly (tekoäly) - Tekoäly tulkitaan yleensä automaattisten järjestelmien ominaisuudeksi ottaa tiettyjä ihmisälyn toimintoja, esimerkiksi valita ja tehdä optimaalisia päätöksiä aiemmin hankitun kokemuksen ja ulkoisten vaikutusten rationaalisen analyysin perusteella. Sen voi sanoa älykkyys on aivojen kyky ratkaista (älyllisiä) ongelmia hankinnan, muistin ja tarkoituksenmukaisen muuntamisen avulla tietoa kokemuksesta oppimisen ja erilaisiin olosuhteisiin sopeutumisprosessin aikana. Itse termiä "tekoäly" ehdotettiin vuonna 1956 Dartsmouth Collegessa (USA) järjestetyssä seminaarissa. Sana äly tarkoittaa itse asiassa "kykyä järkeillä älykkäästi" eikä ollenkaan "älyä", jolle on olemassa termi äly.

Vuonna 1950 brittiläinen matemaatikko Alan Turing julkaisi Mind-lehdessä teoksensa "The Computing Machine and Intelligence", jossa hän kuvaili testiä ohjelman älykkyyden testaamiseksi. Hän ehdotti, että tutkija ja ohjelma sijoitettaisiin eri huoneisiin ja kunnes tutkija päättää kuka on seinän takana - henkilö vai ohjelma, pitää ohjelman käyttäytymistä kohtuullisena. Tämä oli yksi ensimmäisistä älykkyyden määritelmistä, toisin sanoen A. Turing ehdotti älykkään ihmisen käyttäytymistä mallintavan ohjelman kutsumista älykkääksi. Sittemmin älykkäille järjestelmille (InS) ja tekoälylle (AI) on ilmestynyt monia määritelmiä. Esitetään joitain näistä määritelmistä. 1. AI määritellään tietojenkäsittelytieteen alaksi, joka liittyy älykkään käyttäytymisen tutkimiseen ja automatisointiin. 2. toinen määritelmä: " AI- tämä on yksi tietojenkäsittelytieteen osa-alueista, jonka tavoitteena on kehittää laitteisto- ja ohjelmistotyökaluja, joiden avulla ei-ohjelmoija käyttäjä voi esittää ja ratkaista omia, perinteisesti pidettyjä älyllisiä ongelmiaan kommunikoimalla tietokoneen kanssa rajoitetussa osajoukossa. luonnollinen kieli." 3. IS on mukautuva järjestelmä, joka mahdollistaa tarkoituksenmukaisten toimintaohjelmien rakentamisen niille annettujen tehtävien ratkaisemiseksi ympäristön kulloisenkin tilanteen perusteella. Jossa mukautuva järjestelmä määritellään järjestelmäksi, joka pysyy toimintakuntoisena, jos ohjattavan kohteen ominaisuuksissa, ohjaustavoitteissa tai ympäristössä tapahtuu odottamattomia muutoksia muuttamalla toiminta-algoritmia, käyttäytymisohjelmaa tai etsimällä optimaalisia, joissain tapauksissa yksinkertaisesti tehokkaita ratkaisuja ja tiloja. Perinteisesti sopeutumismenetelmään perustuen erotetaan itsesäätyviä, itseoppivia ja itseorganisoituvia järjestelmiä.

Joten älykkäiden järjestelmien avulla ihminen ratkaisee älyllisiä ongelmia. Jotta voidaan määrittää ero yksinkertaisen tehtävän ja älyllisen tehtävän välillä, on tarpeen ottaa käyttöön algoritmin käsite. Alla algoritmi ymmärtää tarkat ohjeet operaatiojärjestelmän suorittamiseksi tietyssä järjestyksessä ratkaistaksesi minkä tahansa ongelman tietystä tehtäväluokasta (tehtäväjoukosta). Termi "algoritmi" tulee uzbekistanin matemaatikon Al-Khorezmin nimestä, joka ehdotti yksinkertaisimpia aritmeettisia algoritmeja jo 800-luvulla. Matematiikassa ja kybernetiikassa tietyntyyppisten tehtävien luokka katsotaan ratkaistuksi, kun sen ratkaisemiseksi on muodostettu algoritmi. Algoritmien löytäminen on luonnollinen tavoite ihmisille erilaisten tehtävien ratkaisemisessa. Algoritmin löytäminen tietyn tyyppisille ongelmille vaatii hienovaraista ja monimutkaista päättelyä, joka vaatii suurta kekseliäisyyttä ja korkeaa taitoa. On yleisesti hyväksyttyä, että tällainen toiminta edellyttää ihmisälyn osallistumista. Ongelmia, jotka liittyvät algoritmin löytämiseen tietyntyyppisten tehtävien luokan ratkaisemiseksi, kutsutaan älyllisiksi. Nuo. älylliset tehtävät ovat monimutkaisia, huonosti formalisoituja tehtäviä, jotka edellyttävät alkuperäisen ratkaisualgoritmin rakentamista tietystä tilanteesta riippuen, jolle voi olla ominaista lähtötietojen ja -tiedon epävarmuus ja dynaamisuus.

Eri tutkijat määrittelevät tekoälyn tieteeksi eri tavalla näkemyksensä mukaan ja pyrkivät luomaan järjestelmiä, jotka:

    ajattele kuin ihmiset;

    ajattele rationaalisesti;

    toimia kuin ihmiset;

    toimia rationaalisesti.

Älykkään päättelyn ja toiminnan luomisessa on tiettyjä vaikeuksia. Ensinnäkin, useimmissa tapauksissa henkilö ei ole tietoinen suorittaessaan jotakin toimintoa, kuinka hän sen tekee; tarkkaa menetelmää, menetelmää tai algoritmia tekstin ymmärtämiseen, kasvojen tunnistamiseen, lauseiden todistamiseen, ongelmien ratkaisemiseen, runouden säveltämiseen jne. tiedossa. Toiseksi tietokone on nykyisellä kehitystasolla liian kaukana ihmisen osaamistasosta ja toimii eri periaatteilla.

Tekoäly on aina ollut monitieteinen tiede, joka on sekä tiedettä että taidetta, teknologiaa ja psykologiaa. Tekoälyn menetelmiä on monenlaisia. Niitä lainataan aktiivisesti muilta tieteiltä, ​​mukautetaan ja muutetaan sopimaan ratkaistavaan ongelmaan. Älykkään järjestelmän luomiseksi on tarpeen houkutella asiantuntijoita soveltavalta alalta, joten tekoälyn puitteissa kielitieteilijät, neurofysiologit, psykologit, taloustieteilijät, tietojenkäsittelytieteilijät, ohjelmoijat jne. tekevät yhteistyötä.

Tekoälyn kehityksen historia

Ajatus ihmisen keinotekoisen kaltaisen luomisesta monimutkaisten ongelmien ratkaisemiseksi ja ihmismielen simuloimiseksi on ollut ilmassa muinaisista ajoista lähtien. Niinpä muinaisessa Egyptissä luotiin "herää henkiin" mekaaninen patsas jumala Amunista. Homeroksen Iliadissa jumala Hephaestus takoi humanoidiolentoja.

Tekoäly on tietyssä mielessä tulevaisuuden tiedettä, jossa ei ole tiukkaa aluejakoa ja yksittäisten tieteenalojen välinen yhteys, joka heijastaa vain tiettyä tietämystä, näkyy selvästi.

Aristoteles (384-322 eKr.) muotoili tarkan joukon lakeja, jotka ohjaavat ajattelun rationaalista osaa. Tekoälyn perustajana pidetään kuitenkin keskiaikaista espanjalaista filosofia, matemaatikkoa ja runoilijaa Raymond Lullia, joka jo 1200-luvulla yritti luoda mekaanisen koneen erilaisten ongelmien ratkaisemiseksi hänen kehittämäänsä yleismaailmalliseen käsitteiden luokitteluun. 1700-luvulla Leibniz ja Descartes jatkoivat itsenäisesti tätä ajatusta ehdottaen universaaleja kieliä kaikkien tieteiden luokitteluun. Näiden tutkijoiden töitä voidaan pitää ensimmäisinä teoreettisina töinä tekoälyn alalla. Peliteoria ja päätösteoria, tiedot aivojen rakenteesta, kognitiivinen psykologia - kaikesta tästä on tullut rakennusmateriaali tekoälylle. Mutta tekoälyn lopullinen synty tieteellisenä suunnana tapahtui vasta tietokoneiden luomisen jälkeen 1900-luvun 40-luvulla ja Norbert Wienerin perusteosten julkaisemisen jälkeen. uutta tiedettä– kybernetiikka.

Keinotekoisen muodostuminenälykkyyttä miten tiede tapahtui 1956 D. McCarthy, M. Minsky, K. Shannon ja N. Rochester järjestivät Dartmouthissa kahden kuukauden seminaarin amerikkalaisille tutkijoille, jotka työskentelivät automaattien, hermoverkkojen ja älykkyyden teorian parissa. Vaikka tämän alan tutkimusta tehtiin jo aktiivisesti, niin tässä seminaarissa ilmaantui termi ja erillinen tiede - tekoäly.

Yksi tekoälyteorian perustajista on kuuluisa englantilainen tiedemies Alan Turing, joka julkaisi vuonna 1950 artikkelin "Computing Machines and Mind" (käännetty venäjäksi otsikolla "Can a Machine Think?"). Siinä kuvattiin nyt klassikko "Turingin testi", jonka avulla voidaan arvioida tietokoneen "älyä" sen kyvyn perusteella käydä mielekästä vuoropuhelua henkilön kanssa.

Tekoälyn kehityksen ensimmäiset vuosikymmenet (1952-1969) olivat täynnä menestystä ja innostusta. A. Newell, J. Shaw ja G. Simon loivat shakin pelaamista varten ohjelman, joka perustui K. Shannonin vuonna 1950 ehdottamaan menetelmään, jonka A. Turing on formalisoinut ja simuloinut manuaalisesti. Työhön osallistui ryhmä A. de Grootin johtamia hollantilaisia ​​psykologeja, jotka tutkivat erinomaisten shakinpelaajien pelityyliä. Vuonna 1956 tämä ryhmä loi IPL1-ohjelmointikielen, käytännössä ensimmäisen symbolisen kielen luetteloiden käsittelyyn, ja kirjoitti ensimmäisen Logic-Theorist-ohjelman, jonka tarkoituksena oli todistaa lauseet automaattisesti lauselaskussa. Tätä ohjelmaa voidaan pitää yhtenä ensimmäisistä saavutuksista tekoälyn alalla.

Vuonna 1960 sama ryhmä kirjoitti GPS-ohjelman (General Problem Solver) - yleisen ongelmanratkaisijan. Hän pystyi ratkaisemaan useita arvoituksia, laskea epämääräisiä integraaleja ja ratkaista joitain muita ongelmia. Tulokset herättivät tietojenkäsittelytieteilijöiden huomion, ja ilmestyi ohjelmia planimetrian lauseiden automaattiseen todistamiseen ja algebrallisten ongelmien ratkaisemiseen.

Vuodesta 1952 lähtien A. Samuel kirjoitti useita tammiohjelmia, jotka pelasivat hyvin koulutetun amatöörin tasolla, ja yksi heistä oppi pelaamaan paremmin kuin sen tekijä.

Vuonna 1958 D. McCarthy määritteli uuden korkean tason kielen, Lisp, josta tuli hallitseva tekoälyn kieli.

Ensimmäiset neuroverkot ilmestyivät 50-luvun lopulla. Vuonna 1957 F. Rosenblatt yritti luoda järjestelmän, joka simuloi ihmissilmää ja sen vuorovaikutusta aivojen kanssa - perceptronin.

Ensimmäinen kansainvälinen tekoälyn konferenssi (IJCAI) pidettiin vuonna 1969 Washingtonissa.

Vuonna 1963 D. Robinson otti käyttöön lauseiden automaattisen todistamismenetelmän, jota kutsutaan "resoluutioperiaatteeksi", ja tämän menetelmän pohjalta luotiin looginen ohjelmointikieli Prolog vuonna 1973. .

Ensimmäiset kaupalliset tietopohjaiset järjestelmät ilmestyivät Yhdysvalloissa - asiantuntijajärjestelmät. Tekoälyä kaupallistetaan. Vuotuinen sijoitus ja korko itseoppivia järjestelmiä, teollisuuden asiantuntijajärjestelmiä ollaan luomassa. Tiedon esittämisen menetelmiä kehitetään.

Ensimmäisen asiantuntijajärjestelmän loi E. Feigenbaum vuonna 1965. Mutta kaupallinen voitto oli vielä kaukana. Pelkästään vuonna 1986 DEC:n ensimmäinen kaupallinen R1-järjestelmä saavutti noin 40 miljoonan dollarin säästöt yhdessä vuodessa. Vuoteen 1988 mennessä DEC oli ottanut käyttöön 40 asiantuntijajärjestelmää. Du Pont käytti 100 järjestelmää ja säästi noin 10 miljoonaa vuodessa.

Vuonna 1981 Japani aloitti viidennen sukupolven tietopohjaisen tietokoneen kehittämisen osana 10-vuotista suunnitelmaa kehittää Prologiin perustuvia älykkäitä tietokoneita. Vuosi 1986 oli uuden kiinnostuksen vuosi hermoverkkoja kohtaan.

Vuonna 1991 Japani lopetti viidennen sukupolven tietokoneprojektin rahoituksen ja aloitti hankkeen kuudennen sukupolven tietokoneen – neurotietokoneen – luomiseksi.

Vuonna 1997 Deep Blue -tietokone voitti maailmanmestari G. Kasparovin shakkipelissä, mikä osoitti mahdollisuuden, että tekoäly voi verrata tai ylittää ihmisen useissa älyllisissä tehtävissä (tosin rajoitetuissa olosuhteissa).

Akateemikot A. I. Berg ja G. S. Pospelov näyttelivät valtavaa roolia taistelussa tekoälyn tunnustamisesta Neuvostoliitossa.

Vuosina 1954-1964. Erillisiä ohjelmia luodaan ja tutkimusta etsitään ratkaisuja loogisiin ongelmiin. Luodaan ALPEV LOMI -ohjelma, joka todistaa lauseet automaattisesti. Se perustuu Maslovin alkuperäiseen käänteiseen johdannaiseen, joka on samanlainen kuin Robinsonin resoluutiomenetelmä. Kotimaisten tutkijoiden 60-luvulla saavuttamien merkittävimpien tulosten joukossa on mainittava M. M. Bongardin "Cora"-algoritmi, joka mallintaa ihmisen aivojen toimintaa hahmontunnistuksessa. Erinomaiset tutkijat M. L. Tsetlin, V. N. Pushkin, M. A. Gavrilov, joiden opiskelijat olivat tämän tieteen pioneereja Venäjällä, antoivat suuren panoksen venäläisen tekoälyn koulun kehitykseen.

Vuonna 1964 ehdotettiin menetelmää lauseiden todisteiden automaattiseen etsimiseen predikaattilaskennassa, nimeltään "käänteinen Maslovin menetelmä".

Vuosina 1965-1980 syntyi uusi suunta - tilannejohtaminen (länsimaisessa terminologiassa se vastaa tiedon esitystapaa). Tämän tieteellisen koulun perustaja oli professori D. A. Pospelov.

Moskovan valtionyliopistossa vuonna 1968 V. F. Turchin loi symbolisen tietojenkäsittelykielen REFAL.

1 Kirjallisuuskatsaus.


  1. Lyhyt historia tekoälyn kehityksestä.

Tekoäly (AI) on tieteiden risteyksessä oleva tutkimusala, jossa tällä alalla työskentelevät asiantuntijat yrittävät ymmärtää, mitä käyttäytymistä pidetään älykkäänä (analyysi) ja luoda siitä toimivia malleja (synteesi). Käytännön tavoitteena on luoda "älyn" ohjelmointiin ja sen siirtämiseen tietokoneisiin (VM) ja niiden kautta kaikenlaisiin järjestelmiin ja välineisiin tarvittavia menetelmiä ja teknologiaa.

1950-luvulla tekoälytutkijat yrittivät rakentaa älykkäitä koneita jäljittelemällä aivoja. Nämä yritykset epäonnistuivat sekä laitteiston että ohjelmiston täydellisen sopimattomuuden vuoksi.

60-luvulla yritettiin löytää yleisiä menetelmiä laajan luokan ongelmien ratkaisemiseksi mallintamalla monimutkaista ajatteluprosessia. Yleismaailmallisten ohjelmien kehittäminen osoittautui liian vaikeaksi ja hedelmättömäksi. Mitä laajemman ongelmaluokan yksi ohjelma pystyy ratkaisemaan, sitä heikommat sen mahdollisuudet tietyn ongelman ratkaisemisessa ovat.

1970-luvun alussa tekoälyasiantuntijat keskittyivät kehittämään ohjelmointimenetelmiä ja tekniikoita, jotka soveltuvat erikoisempien ongelmien ratkaisemiseen: esitysmenetelmiin (tapoja muotoilla ratkaistava ongelma tietokonetekniikalla (CT)) ja hakumenetelmiin (tapoja hallita edistymistä). ratkaisu, jotta se ei vaadi liikaa muistia ja aikaa).

Ja vasta 70-luvun lopulla se hyväksyttiin periaatteessa uusi konsepti, mikä johtuu siitä, että älykkään ohjelman luomiseksi se on varustettava paljon korkealaatuisella erikoistiedolla jostain aihealueesta. Tämän suunnan kehitys johti asiantuntijajärjestelmien (ES) luomiseen.

80-luvulla tekoäly koki uudestisyntymisen. Sen suuri potentiaali sekä tutkimuksessa että tuotannon kehittämisessä tunnustettiin laajasti. Ensimmäiset kaupalliset ohjelmistotuotteet ilmestyivät osana uutta teknologiaa. Samaan aikaan koneoppimisen ala alkoi kehittyä. Tähän asti asiantuntijan tiedon siirtäminen koneohjelmaan oli työlästä ja aikaa vievää toimenpidettä. Sellaisten järjestelmien luominen, jotka automaattisesti parantavat ja laajentavat heurististen (epämuodollisten, intuitiivisiin näkökohtiin perustuvien) sääntöjen kokoelmaansa, on viime vuosien tärkein vaihe. Vuosikymmenen alussa käynnistettiin eri maissa tiedonkäsittelyn historian suurimmat kansalliset ja kansainväliset tutkimushankkeet, jotka kohdistuivat "viidennen sukupolven älykkäisiin virtuaalikoneisiin".

Tekoälytutkimus luokitellaan usein sen laajuuden perusteella kuin erilaisten teorioiden ja koulukuntien perusteella. Jokainen näistä alueista on kehittänyt omat ohjelmointimenetelmänsä ja formalisminsa vuosikymmenten aikana; Jokaisella niistä on omat perinteensä, jotka voivat poiketa huomattavasti viereisen opiskelualan perinteistä. Tekoälyä sovelletaan tällä hetkellä seuraavilla alueilla:


  1. luonnollisen kielen käsittely;

  2. asiantuntijajärjestelmät (ES);

  3. symboliset ja algebralliset laskelmat;

  4. todisteet ja logiikkaohjelmointi;

  5. pelien ohjelmointi;

  6. signaalinkäsittely ja kuviontunnistus;

  7. jne.

1.2 AI-ohjelmointikielet.

1.2.1 Kielten ja ohjelmointityylien luokittelu.
Kaikki ohjelmointikielet voidaan jakaa proseduuri- ja deklaratiivisiin kieliin. Suurin osa tällä hetkellä käytetyistä ohjelmointikielistä (C, Pascal, BASIC jne.) ovat proseduurikieliä. Merkittävimmät deklaratiivisten kielten luokat ovat toiminnalliset (Lisp, Logo, APL jne.) ja loogiset (Prolog, Planner, Coniver jne.) kielet (kuva 1).

Käytännössä ohjelmointikielet eivät ole puhtaasti menettelyllisiä, toiminnallisia tai loogisia, vaan sisältävät erityyppisten kielten ominaisuuksia. Usein on mahdollista kirjoittaa toiminnallinen ohjelma tai osa toiminnallista ohjelmaa proseduurikielellä ja päinvastoin. Ehkä olisi tarkempaa puhua ohjelmointityylistä tai -menetelmästä kielityypin sijaan. Luonnollisesti eri kieliä tuetaan erilaisia ​​tyylejä vaihtelevassa määrin.

Proseduuriohjelma koostuu joukosta lauseita ja lauseita, jotka ohjaavat niiden suoritusjärjestystä. Tyypillisiä operaattoreita ovat osoitus- ja siirtooperaattorit, input/output-operaattorit ja erityiset lausekkeet silmukalle. Niitä voidaan käyttää ohjelmafragmenttien ja aliohjelmien luomiseen. Proseduuriohjelmointi sisältää muuttujan arvon ottamisen, toiminnon suorittamisen sille ja uuden arvon tallentamisen määritysoperaattorilla, kunnes haluttu lopullinen arvo on saatu (ja mahdollisesti tulostettu).

OHJELMOINTIKIELET

PROCEDURAL LANGUAGES DEKLARATIIVIKIELET

Pascal, C, Fortran...

LOOGISET KIELET TOIMINNALLISET KIELET

Prologi, Mandala... Lisp, Logo, ARL, ...

Kuva 1 Ohjelmointikielten luokitus
Logiikkaohjelmointi on tietojenkäsittelytieteen lähestymistapa, joka käyttää ensimmäisen asteen predikaattilogiikkaa Horn-lauseiden muodossa korkean tason kielenä. Ensimmäisen asteen predikaattilogiikka on universaali abstrakti kieli, joka on suunniteltu edustamaan tietoa ja ratkaisemaan ongelmia. Sitä voidaan pitää yleinen teoria suhteita. Looginen ohjelmointi perustuu ensimmäisen asteen predikaattilogiikkaan, mutta se on yhtä laaja. Loogisen ohjelmoinnin avulla ohjelmoija voi kuvata tilanteen predikaattilogiikan kaavoilla ja sitten käyttää automaattista ongelmanratkaisijaa (eli jotain menettelyä) tehdäkseen johtopäätöksiä näistä kaavoista. Logiikkaohjelmointikieltä käytettäessä keskitytään sovellusongelman rakenteen kuvaamiseen sen sijaan, että tietokoneelle opastetaan, mitä sen pitäisi tehdä. Logiikkaohjelmia käyttämällä voidaan kuvata (ja siksi toteuttaa) myös muita tietojenkäsittelytieteen käsitteitä sellaisilta alueilta kuin relaatiotietokantateoria, ohjelmistosuunnittelu ja tiedon esittäminen.

Toiminnallinen ohjelma koostuu joukosta funktiomääritelmiä. Funktiot puolestaan ​​ovat kutsuja muille funktioille ja lauseille, jotka ohjaavat kutsujen järjestystä. Laskenta alkaa kutsulla funktiolle, joka puolestaan ​​kutsuu sen määritelmään sisältyviä funktioita ja niin edelleen määrittelyhierarkian ja ehtolauseiden rakenteen mukaan. Funktiot usein joko suoraan tai epäsuorasti kutsuvat itseään.

Jokainen kutsu palauttaa jonkin arvon sitä kutsuneelle funktiolle, jonka arviointi jatkuu sitten; tätä prosessia toistetaan, kunnes laskennan aloittanut funktio palauttaa lopputuloksen käyttäjälle.

"Puhdas" toiminnallinen ohjelmointi ei tunnista toimeksiantoja tai ohjauksen siirtoja. Laskelmien haarautuminen perustuu argumenttien käsittelymekanismiin ehdollinen lause. Toistetut laskutoimitukset suoritetaan rekursiolla, joka on toiminnallisen ohjelmoinnin päätyökalu.


  1. Tekoälykielten vertailuominaisuudet.

Tekoälyn kehityksen ensimmäisessä vaiheessa (50-luvun lopulla - 60-luvun alkupuolella) ei ollut kieliä tai järjestelmiä, jotka olisi keskittynyt erityisesti tietoalueisiin. Siihen mennessä ilmestyneet universaalit ohjelmointikielet näyttivät olevan sopiva työkalu minkä tahansa (mukaan lukien älykkäiden) järjestelmien luomiseen, koska näissä kielissä on mahdollista erottaa deklaratiiviset ja proseduaaliset komponentit. Näytti siltä, ​​että mitä tahansa malleja ja tiedon esitysjärjestelmiä voitiin tulkita tämän perusteella. Mutta tällaisten tulkintojen monimutkaisuus ja työvoimavaltaisuus osoittautui niin suureksi, että toteutussovellusjärjestelmiä ei ollut saatavilla. Tutkimukset ovat osoittaneet, että ohjelmoijan tuottavuus pysyy vakiona riippumatta siitä, millä välinekielen tasolla hän työskentelee, ja alkuperäisen ja tuloksena olevan ohjelman pituuden suhde on noin 1:10. Siten riittävän instrumentaalisen kielen käyttö lisää järjestelmän kehittäjän tuottavuutta suuruusluokkaa, ja tämä on yksivaiheisella käännöksellä. Älykkäiden järjestelmien ohjelmointiin tarkoitetut kielet sisältävät hierarkkisia (monitasoisia) kääntäjiä ja lisäävät työn tuottavuutta 100-kertaisesti. Kaikki tämä vahvistaa asianmukaisten työkalujen käytön tärkeyden.


  1. Kielet symbolisen tiedon käsittelyyn.

Lisp-kieli kehitettiin Stanfordissa J. McCarthyn johdolla 60-luvun alussa. Alkuperäisten suunnitelmien mukaan sen piti sisältää kaikkien Fortranin ominaisuuksien ohella työkalut matriisien, osoittimien ja osoittimien rakenteiden jne. kanssa työskentelyyn. Mutta tällaiseen projektiin ei riittänyt varoja. Lopulta muodostuneet periaatteet Lisp-kielen taustalla: yhden listaesityksen käyttö ohjelmille ja datalle; lausekkeiden käyttö funktioiden määrittämiseen; kielen hakasulkeissa oleva syntaksi.

Lisp on matalan tason kieli, jota voidaan pitää luettelorakenteiden kanssa työskentelyyn suuntautuneena assemblerina. Siksi koko kielen olemassaolon ajan on yritetty monia yrityksiä parantaa sitä ottamalla käyttöön muita perusprimitiivejä ja ohjausrakenteita. Mutta kaikista näistä muutoksista ei yleensä tullut itsenäisiä kieliä. Uusissa painoksissaan Lisp omaksui nopeasti kaikki kilpailijoidensa arvokkaat keksinnöt.

Tehokkaiden Lisp-järjestelmien McLisp Interlispin luomisen jälkeen 70-luvun alussa yritykset luoda tekoälykieliä, jotka poikkesivat Lispistä, mutta samalla perusteella, epäonnistuivat. Kielen jatkokehitys kulkee toisaalta sen standardointia (Standard-Lisp, Franz-Lisp, Common Lisp) pitkin ja toisaalta kohti käsitteellisesti uusien kielten luomista tiedon esittämiseen ja manipulointiin. Lisp-ympäristössä. Tällä hetkellä Lisp on toteutettu kaikissa tietokoneluokissa henkilökohtaisista tietokoneista korkean suorituskyvyn laskentajärjestelmiin.

Lisp ei ole ainoa tekoälytehtävissä käytetty kieli. Jo 60-luvun puolivälissä kehitettiin kieliä, jotka tarjosivat erilaisia ​​käsitteellisiä puitteita. Tärkeimmät niistä symbolisen tiedonkäsittelyn alalla ovat SNOBOL ja Refal.


SNOBALLI.

Tämä on merkkijonojen käsittelykieli, jossa kuviohaun käsite ilmestyi ensimmäisen kerran ja se toteutettiin melko täydellisesti. SNOBOL-kieli oli yksi ensimmäisistä kehitetyn tuotantojärjestelmän käytännön toteutuksista. Tunnetuin ja kiinnostavin versio tästä kielestä on Snoball-4. Tässä näytteiden määrittely ja niiden kanssa työskentelytekniikka on ylittänyt huomattavasti harjoittelun tarpeet. Pohjimmiltaan se pysyi "omistettuna" ohjelmointikielenä, vaikka SNOBOL-konseptit varmasti vaikuttivat Lispiin ja muihin tekoälyn ohjelmointikieliin.


Refal.

Refal-kieli on rekursiivisten funktioiden algoritminen kieli. Turchin loi sen metakieleksi, joka on tarkoitettu kuvaamaan erilaisia, mukaan lukien algoritmisia kieliä ja tällaisten kielten erilaista käsittelyä. Tämä merkitsi myös Refalin käyttöä metakielenä itsensä yli. Käyttäjälle tämä on symbolisen tiedon käsittelyn kieli. Siksi se on löytänyt algoritmisten kielten semantiikan kuvauksen lisäksi muitakin sovelluksia. Tämä on hankalia analyyttisten laskelmien toteuttamista teoreettinen fysiikka Ja soveltava matematiikka, ohjelmointikielten tulkinta ja kokoaminen, lauseiden todistaminen, tavoitteellisen käyttäytymisen mallintaminen ja viime aikoina tekoälytehtävät. Kaikille näille sovelluksille yhteistä ovat monimutkaiset muunnokset joissakin formalisoiduissa kielissä määriteltyjen objektien yli.

Refal-kieli perustuu mielivaltaisten symbolisten lausekkeiden joukolle määritetyn rekursiivisen funktion käsitteeseen. Tämän kielen perustietorakenne on luettelot, mutta ei yksittäin linkitetty, kuten Lispissä, vaan kaksisuuntainen. Symbolien käsittely on lähempänä tuotantoparadigmaa. Samaan aikaan käytetään aktiivisesti SNOBOLille ominaista mallihaun käsitettä.

Refalilla kirjoitettu ohjelma määrittelee tietyn joukon funktioita, joilla jokaisella on yksi argumentti. Funktiokutsu on suljettu funktion sulkeisiin.

Monissa tapauksissa on välttämätöntä kutsua muilla kielillä kirjoitettuja ohjelmia Refalilla kirjoitetuista ohjelmista. Tämä on yksinkertaista, sillä Refalin näkökulmasta ensisijaiset funktiot (Toiminnot, joita ei ole kuvattu Refalissa, mutta joita voidaan kuitenkin kutsua tällä kielellä kirjoitetuista ohjelmista.) ovat yksinkertaisesti joitain tämän ohjelman ulkopuolisia toimintoja, joten kun kun kutsut funktiota, et ehkä edes tiedä, että se on ensisijainen funktio.

Refal-ohjelman semantiikkaa kuvataan abstraktin Refal-koneen avulla. Riuttakoneessa on muistikenttä ja näkökenttä. Ohjelma sijoitetaan Refal-koneen muistikenttään ja sen avulla käsiteltävät tiedot sijoitetaan näkökenttään, eli ennen työn aloittamista syötetään muistikenttään kuvaus toimintosarjasta. , ja käsiteltävä lauseke syötetään näkökenttään.

Usein on kätevää jakaa Refal-ohjelma osiin, jotka Refal-kääntäjä voi käsitellä toisistaan ​​riippumatta. Refal-ohjelman pienintä osaa, jonka kääntäjä voi käsitellä muista riippumatta, kutsutaan moduuliksi. Refalin lähdemoduulin kääntämisen tuloksena on objektimoduuli, joka ennen Refal-ohjelman suorittamista on yhdistettävä muihin Refalista tai muista kielistä kääntämällä saatuihin moduuleihin; tämä yhdistäminen suoritetaan linkkieditorilla ja latausohjelmilla. Yksityiskohdat riippuvat käyttämästäsi käyttöjärjestelmästä.

Siten Refal omaksui 60-luvun mielenkiintoisimpien symbolisten tiedonkäsittelykielten parhaat ominaisuudet. Tällä hetkellä Refal-kieltä käytetään automatisoimaan kääntäjien, analyyttisten muunnosjärjestelmien rakentamista sekä Lispin tapaan työkaluympäristönä tiedon esityskielten toteuttamiseen.


Prologi.

70-luvun alussa ilmestyi uusi kieli, joka kilpaili Lispin kanssa tietolähtöisten järjestelmien toteutuksessa - Prolog. Tämä kieli ei tarjoa uusia supertehokkaita ohjelmointityökaluja Lispiin verrattuna, mutta se tukee erilaista mallia laskelmien järjestämiseen. Sen vetovoima käytännön näkökulmasta on se, että aivan kuten Lisp piilotti tietokoneen muistirakenteen ohjelmoijalta, Prolog antoi hänen olla välittämättä ohjelman ohjauksesta.

Prolog on eurooppalainen kieli, joka kehitettiin Marseillen yliopistossa vuonna 1971. Mutta se alkoi saada suosiota vasta 80-luvun alussa. Tämä johtuu kahdesta syystä: ensinnäkin tämän kielen looginen perusta oli perusteltu ja toiseksi japanilaisessa viidennen sukupolven laskentajärjestelmien projektissa se valittiin perustaksi yhdelle keskeiselle komponentille - päättelymoottorille.

Prolog-kieli perustuu rajoitettuun joukkoon mekanismeja, mukaan lukien kuvioiden täsmäys, tietorakenteiden puuesitys ja automaattinen paluu. Prolog sopii erityisen hyvin objektien ja niiden välisten suhteiden ongelmien ratkaisemiseen.

Prologissa on tehokkaat työkalut, joiden avulla voit hakea tietoa tietokannoista, ja siinä käytetyt tiedonhakumenetelmät poikkeavat olennaisesti perinteisistä. Prolog-tietokantojen teho ja joustavuus sekä niiden laajentamisen ja muokkaamisen helppous tekevät tästä kielestä erittäin kätevän kaupallisiin sovelluksiin.

Prologia käytetään menestyksekkäästi seuraavilla alueilla: relaatiotietokannat (kieli on erityisen hyödyllinen luotaessa relaatiotietokannan käyttöliittymiä); automaattinen ongelmanratkaisu; luonnollisen kielen ymmärtäminen; ohjelmointikielten käyttöönotto; tiedon edustaminen; asiantuntijajärjestelmät ja muut tekoälytehtävät.

Prologin teoreettinen perusta on predikaattilaskenta. Prologilla on useita ominaisuuksia, joita perinteisillä ohjelmointikielillä ei ole. Näihin ominaisuuksiin kuuluvat haku-ja-palautus-päätelmämekanismi ja sisäänrakennettu kuvioiden sovitusmekanismi. Prologille on ominaista ohjelmien ja tietojen yhtenäisyys. Ne ovat vain erilaisia ​​näkökulmia Prolog-objekteihin. Kielessä ei ole osoittimia, osoitusoperaattoreita tai ehdottomia hyppyoperaattoreita. Luonnollinen ohjelmointimenetelmä on rekursio.

Prolog-ohjelma koostuu kahdesta osasta: tietokannasta (joukko aksioomia) ja joukosta kohdelausekkeita, jotka kuvaavat yhdessä todistettavan lauseen negaatiota. Main perustavanlaatuinen ero Prolog-ohjelman tulkinta ensimmäisen asteen predikaattilaskennan lauseen todistamismenettelystä on, että tietokannan aksioomit ovat järjestykseen ja niiden esiintymisjärjestys on erittäin merkittävä, koska itse algoritmi, Prolog-ohjelman toteuttama, perustuu tähän. Toinen Prologin merkittävä rajoitus on se, että rajoitetun luokan kaavoja käytetään loogisina aksioomeina - ns. Horn-lauseita. Useita käytännön ongelmia ratkaistaessa tämä kuitenkin riittää riittävän tiedon esittämiseen. Hornen lauseissa yhtä päätelmää seuraa nolla tai useampi ehto.

Todistukseen "hyödyllisten" kaavojen löytäminen on kombinatorinen ongelma, ja aksioomien määrän kasvaessa johtamisvaiheiden määrä kasvaa katastrofaalisen nopeasti. Siksi todellisissa järjestelmissä käytetään kaikenlaisia ​​sokeahakua rajoittavia strategioita. Prolog-kieli toteuttaa lineaarisen resoluutiostrategian, joka ehdottaa, että jokaisessa vaiheessa käytetään lauseen tai sen "jälkeläisen" negaatiota yhtenä verratuista kaavoista ja yhtä aksioomista toisena. Tässä tapauksessa yhden tai toisen aksiooman valinta vertailuun voi johtaa välittömästi tai useiden vaiheiden jälkeen "umpikujaan". Tämä pakottaa sinut palaamaan siihen kohtaan, jossa valinta tehtiin, jotta voit kokeilla uutta vaihtoehtoa jne. Vaihtoehtoisten aksioomien katselujärjestys ei ole mielivaltainen - sen asettaa ohjelmoija järjestämällä aksioomit tietokannassa tietty järjestys. Lisäksi Prolog tarjoaa varsin kätevän "sisäänrakennetun" keinon estää paluu tiettyyn pisteeseen tiettyjen ehtojen täyttymisestä riippuen. Näin ollen Prologin todistusprosessi on yksinkertaisempi ja keskittyneempi kuin perinteisessä resoluutiomenetelmässä.

Prolog-kieliohjelman merkitys voidaan ymmärtää joko deklaratiivisen lähestymistavan tai menettelytavan näkökulmasta.

Ohjelman deklaratiivinen merkitys määrittää sen tämä tavoite tosi (saavutettavissa) ja jos on, millä muuttujien arvoilla se saavutetaan. Se korostaa suhteiden staattista olemassaoloa. Osatavoitteiden järjestys säännössä ei vaikuta tämän säännön deklaratiiviseen merkitykseen. Deklaratiivinen malli on lähempänä predikaattilogiikan semantiikkaa, mikä tekee Prologista tehokkaan kielen tiedon esittämiseen. Deklaratiivisessa mallissa ei kuitenkaan voida esittää riittävästi niitä lauseita, joissa osatavoitteiden järjestys on tärkeä. Tällaisten lauseiden merkityksen selittämiseksi on tarpeen käyttää menettelytapaa.

Prolog-ohjelman proseduaalisessa tulkinnassa ei määritetä vain loogisia yhteyksiä lauseen pään ja sen rungon tavoitteiden välillä, vaan myös järjestys, jossa näitä tavoitteita käsitellään. Mutta prosessimalli ei sovellu selittämään sellaisten lauseiden merkitystä, jotka aiheuttavat ohjaussivuvaikutuksia, kuten kyselyn suorittamisen pysäyttämistä tai lauseen poistamista ohjelmasta.

Tosielämän tekoälyongelmien ratkaiseminen vaatii koneita, joiden on ylitettävä valon nopeus, ja tämä on mahdollista vain rinnakkaisissa järjestelmissä. Siksi sarjatoteutuksia tulisi pitää ohjelmistotyöasemina tuleville korkean suorituskyvyn rinnakkaisille järjestelmille, jotka pystyvät suorittamaan satoja miljoonia johtopäätöksiä sekunnissa. Tällä hetkellä on olemassa kymmeniä malleja logiikkaohjelmien rinnakkaiseen suorittamiseen yleensä ja Prolog-ohjelmiin erityisesti. Usein nämä ovat malleja, jotka käyttävät perinteistä lähestymistapaa rinnakkaisen laskennan järjestämiseen: monia rinnakkaisia ​​käynnissä olevia ja vuorovaikutuksessa olevia prosesseja. Viime aikoina on kiinnitetty paljon huomiota nykyaikaisempiin rinnakkaislaskennan järjestämiseen - suoratoistomalleihin. Samanaikaisuusmalleissa otetaan huomioon perinteinen Prolog ja sen luontaiset samanaikaisuuden lähteet.

Prologin tehokkuuteen vaikuttavat suuresti ajallisesti ja paikallisesti rajalliset resurssit. Tämä johtuu siitä, että tietokoneiden perinteinen arkkitehtuuri ei pysty toteuttamaan Prolog-menetelmää ohjelmien suorittamiseksi, mikä edellyttää tavoitteiden saavuttamista tietystä luettelosta. Se, aiheuttaako tämä vaikeuksia käytännön sovelluksissa, riippuu ongelmasta. Aikatekijällä ei ole käytännössä merkitystä, jos useita kertoja päivässä suoritettava Prolog-ohjelma kestää yhden sekunnin ja vastaava ohjelma toisella kielellä 0,1 sekuntia. Mutta tehokkuusero tulee merkittäväksi, kun molemmat ohjelmat vaativat 50 ja 5 minuuttia.

Toisaalta monissa Prologin sovelluksissa se voi lyhentää merkittävästi ohjelman kehitysaikaa. Prolog-ohjelmia on helpompi kirjoittaa, ymmärtää ja korjata kuin perinteisillä kielillä kirjoitettuja ohjelmia, eli Prolog on houkutteleva yksinkertaisuutensa vuoksi. Prolog-ohjelmat ovat helppolukuisia, mikä auttaa parantamaan ohjelmoinnin tuottavuutta ja ylläpidettävyyttä. Koska Prolog perustuu Horn-lauseisiin, konekohtaiset ominaisuudet vaikuttavat Prolog-ohjelmien lähdekoodiin paljon vähemmän kuin muilla kielillä kirjoitettujen ohjelmien lähdekoodiin. Lisäksi Prolog-kielen eri versiot ovat yleensä yhdenmukaisia, joten yhdelle versiolle kirjoitettu ohjelma voidaan helposti muuntaa ohjelmaksi toiselle kielen versiolle. Lisäksi Prolog on helppo oppia.

Kun valittiin Prolog-kieli perusohjelmointikieleksi japanilaisessa viidennen sukupolven laskentajärjestelmien hankkeessa, yksi sen puutteista oli kehittyneen ohjelmointiympäristön puute ja Prologin kyvyttömyys luoda suuria ohjelmistojärjestelmiä. Nyt tilanne on hieman muuttunut, vaikka on ennenaikaista puhua aidosti logiikkaohjelmointilähtöisestä ympäristöstä.

Kielten joukossa, joiden myötä syntyi uusia ideoita älykkäiden järjestelmien toteuttamisesta, on tarpeen korostaa ohjelmointihakutehtäviin suuntautuneita kieliä.


  1. Ohjelmointikielet älykkäille ratkaisejille.

Joukko kieliä, joita voidaan kutsua älykkäiden ratkaisijoiden kieliksi, keskittyy pääasiassa sellaiseen tekoälyn osa-alueeseen kuin ongelmanratkaisu, jolle on tunnusomaista toisaalta melko yksinkertaiset ja hyvin formalisoidut ongelmamallit, ja toisaalta kehittyneillä menetelmillä ratkaisujen löytämiseksi. Siksi näiden kielten painopiste oli tehokkaiden ohjausrakenteiden käyttöönotossa tiedon esittämisen sijaan. Nämä ovat kieliä, kuten Planer, Coniver, KyuA-4, KyuLisp.


Suunnittelija.

Tämä kieli on synnyttänyt voimakasta kielenluovuutta tekoälyn alalla. Kieli kehitettiin Massachusetts Institute of Technologyssa vuosina 1967-1971. Aluksi se oli Lisp-lisäosa; tässä muodossa kieli toteutettiin MacLispissä nimellä Micro Planer. Myöhemmin Planneria laajennettiin merkittävästi ja se muutettiin itsenäiseksi kieleksi. Neuvostoliitossa se toteutettiin nimillä Pleiner-BESM ja Pleiner-Elbrus. Tämä kieli toi monia uusia ideoita ohjelmointikieliin: automaattinen haku taaksepäin, tiedon haku kuvion mukaan, menettelyjen kutsuminen kuvion mukaan, deduktiivinen menetelmä jne.

Planer sisältää osajoukkona lähes kaiken Lispin (joillakin muokkauksilla) ja säilyttää suurelta osin erityispiirteensä. Tietojen rakenne (lausekkeet, atomit ja listat), ohjelmien syntaksi ja säännöt niiden laskemiseen Plannerissa ovat samanlaisia ​​kuin Lispissä. Tietojen käsittelyyn Plannerissa käytetään pääasiassa samoja työkaluja kuin Lispissä: rekursiivisia ja lohkofunktioita. Lähes kaikki sisäänrakennetut Lisp-toiminnot, mukaan lukien EVAL-toiminto, sisältyvät Planneriin. Uudet funktiot määritellään samalla tavalla. Kuten Lispissä, atomeihin voi liittyä ominaisuusluetteloita.

Mutta Lispin ja Plannerin välillä on myös eroja. Huomioikaa joitakin niistä. Lispissä muuttujaa käytettäessä ilmoitetaan vain sen nimi, esimerkiksi X, kun taas atomi itse annettuna on 'X. Planner käyttää käänteistä merkintää: atomit viittaavat itseensä, ja muuttujiin viitattaessa niiden nimen eteen laitetaan etuliite. Tässä tapauksessa etuliite osoittaa, kuinka muuttujaa tulee käyttää. Myös kutsujen funktioiden syntaksi eroaa Lispin syntaksista, joka Plannerissa on kirjoitettu luettelon muodossa hakasulkeilla pyöreän hakasulkeiden sijaan.

Planner käyttää tietojen käsittelyyn funktioiden lisäksi myös kuvioita ja täsmääjiä.

Esimerkit kuvaavat tiedon analysoinnin ja hajotuksen säännöt ja siksi niiden käyttö helpottaa ohjelmien kirjoittamista ja lyhentää niiden tekstejä.

Vastaajat määritellään samalla tavalla kuin funktiot, vain niiden määrittävä lauseke alkaa avainsanalla ja runko määritellään mallina. Niiden suoritus ei koostu minkään arvon laskemisesta, vaan sen tarkistamisesta, onko lausekkeella siihen verrattuna tietty ominaisuus.

Tarkasteltua Plannerin osajoukkoa voidaan käyttää muista osistaan ​​riippumatta: se on tehokas ohjelmointikieli, joka on kätevä erilaisten symbolisten käsittelyjärjestelmien toteuttamiseen. Loput Plannerin osat suuntaavat sen tekoälyn alaan tarjoamalla työkaluja ongelmien kuvaamiseen (alkutilanteet, sallitut toiminnot, tavoitteet), joiden ratkaisuja on etsittävä Planerissa toteutetusta tekoälyjärjestelmästä sekä työkaluja, jotka yksinkertaistaa menettelyjen täytäntöönpanoa ratkaisujen löytämiseksi näihin ongelmiin.

Pleinnerissä voit ohjelmoida kuvailemalla, mitä on saatavilla ja mitä on hankittava, ilman että kerrot erikseen, miten se tehdään. Vastuun ratkaisun löytämisestä kuvattuun ongelmaan ottaa kieleen sisäänrakennettu deduktiivinen mekanismi (automaattisen tavoitteiden saavuttamisen mekanismi), joka perustuu lauseiden kutsumiseen mallin mukaan. Pelkkä lauseiden kutsuminen kuvion mukaan ei kuitenkaan riitä tällaiselle mekanismille. Tarvitaan raa'an voiman mekanismi, ja tällainen mekanismi - paluutila - tuodaan kieleen.

Ohjelman suorittaminen paluutilassa on sen tekijälle kätevää siinä mielessä, että kieli ottaa vastuun haarukoiden ja niissä olevien jäljellä olevien vaihtoehtojen muistamisesta, niihin palaamisesta ja ohjelman edellisen tilan palauttamisesta - kaikki tämä tapahtuu automaattisesti. Mutta tällainen automatisointi ei aina ole hyödyllistä, koska yleensä se johtaa "sokeaan" etsintään. Ja voi käydä niin, että lauseita soitettaessa sopivin kutsutaan viimeiseksi, vaikka ohjelman kirjoittaja tietää etukäteen sen ansioista. Tämän huomioon ottaen Planer tarjoaa ohjaimia paluumoodille.


Coniver.

Coniver-kieli kehitettiin vuonna 1972, ja se otettiin käyttöön McLisp-kielen lisäosana. Coniver-kielen kirjoittajat kritisoivat joitain Planer-kielen ideoita. Se liittyi pääasiassa automaattiseen palautustilaan, joka yleensä johtaa tehottomuuteen ja hallitsemattomiin ohjelmiin, varsinkin jos sen ovat kääntäneet taitamattomat käyttäjät. Koniverin kirjoittajat luopuivat automaattisesta palautustilasta uskoen, että kieleen ei saisi olla sisäänrakennettuja kiinteitä ohjausoppeja (paitsi yksinkertaisimmat - silmukat, rekursiot) ja että ohjelman tekijän on itse järjestettävä tarvitsemansa ohjauskurssit ja Tämä kielen tulee avata omansa käyttäjien hallintarakenteelle ja tarjota työkaluja sen kanssa työskentelyyn. Tämä konsepti toteutettiin Coniverissa seuraavasti.

Proseduuria kutsuttaessa varataan muistiin paikka, johon sen toimintaan tarvittava tieto tallennetaan. Täällä sijaitsevat erityisesti paikalliset proseduurimuuttujat, pääsyosoittimet (linkki proseduuriin, jonka muuttujat ovat käytettävissä tästä) ja paluuosoittimet (linkki proseduuriin, johon ohjaus on palautettava). Yleensä tämä tieto on piilotettu käyttäjältä, mutta Coniver-kielessä tällainen muistin osa (kehys) on avoin: käyttäjä voi tarkastella ja muuttaa kehyksen sisältöä. Tässä kielessä kehykset edustavat erityistä datatyyppiä, jota käytetään osoittimien avulla.

Kielen haittana on, että vaikka käyttäjä saa joustavat ohjaukset, hän joutuu samanaikaisesti vaikean ja huolellisen korkeaa pätevyyttä vaativan työn eteen. Coniver-kieli ei ole hyvä monimutkaisten järjestelmien toteuttamiseen, vaan pohjaksi, jonka perusteella pätevät ohjelmoijat valmistelevat tarvittavat ohjausmekanismit muille käyttäjille.

Ohjaustieteenalojen toteuttamisen monimutkaisuuden vuoksi kielen kirjoittajat joutuivat sisällyttämään joukkoon kiinteitä ohjausmekanismeja, haarukkamenettelyjen analogeja ja Planner-kielen lauseita. Mutta toisin kuin Planer, jossa ero haarukan vaihtoehdon valinnan ja sen analysoinnin ja tarvittaessa epäonnistumisen kehittymisen välillä voi olla mielivaltaisen suuri, Coniver-kielessä tämä aukko pienennetään minimiin. Tällä Koniver pääsee eroon epäonnistumisen aiheuttamista globaalien tuottojen negatiivisista seurauksista, kun lähes koko ohjelman aikaisempi työ on peruutettava.