Annabella Peng

Kunnollisen johdannon antamiseksi Gaussin ytimiin tämän viikon postaus alkaa hieman tavallista abstraktimmin. Tämä abstraktiotaso ei ole ehdottoman välttämätön sen ymmärtämiseksi, miten Gaussin ytimet toimivat, mutta abstrakti näkökulma voi olla erittäin hyödyllinen intuition lähteenä, kun yritetään ymmärtää todennäköisyysjakaumia yleensä. Yritän siis rakentaa abstraktiotasoa hitaasti, mutta jos joskus eksyt toivottomasti tai et vain jaksa enää, voit siirtyä otsikkoon, jossa lukee lihavoituna ”Käytännön osuus” – Siellä siirryn konkreettisempaan kuvaukseen Gaussin ytimen algoritmista. Lisäksi, jos sinulla on vielä ongelmia, älä huolehdi liikaa – Suurin osa tämän blogin myöhemmistä viesteistä ei edellytä, että ymmärrät Gaussin ytimiä, joten voit vain odottaa ensi viikon viestiä (tai hypätä siihen, jos luet tätä myöhemmin).

Muista, että ydin on tapa sijoittaa data-avaruus korkeampiulotteiseen vektoriavaruuteen niin, että data-avaruuden ja korkeampiulotteisen avaruuden hypertasojen risteyskohdat määrittävät monimutkaisemmat, kaarevammat päätöksentekorajaukset data-avaruudessa. Tärkein tarkastelemamme esimerkki oli ydin, joka lähettää kaksiulotteisen data-avaruuden viisiulotteiseen avaruuteen lähettämällä jokaisen pisteen, jonka koordinaatit ovat (x,y), viisiulotteiseen pisteeseen, jonka koordinaatit ovat (x,y,x^2, y^2, x^y). Jos haluaisimme antaa itsellemme vielä enemmän joustavuutta, voisimme valita vielä korkeampiulotteisemman ytimen, esimerkiksi lähettämällä pisteen (x,y) pisteeseen (x,y,x^2, y^2, x^y, x^3, x^2y, xy^2, y^3) yhdeksänulotteisessa avaruudessa.

Tällä viikolla siirrymme korkeampiulotteisten vektoriavaruuksien yläpuolelle äärettömän ulottuvuuksisiin vektoriavaruksiin. Voit nähdä, kuinka yllä oleva yhdeksänulotteinen ydin on viisiulotteisen ytimen laajennus – olemme periaatteessa vain lisänneet neljä ulottuvuutta loppuun. Jos jatkamme ulottuvuuksien lisäämistä tällä tavoin, saamme yhä korkeampiulotteisempia ytimiä. Jos jatkaisimme tätä ”ikuisesti”, meillä olisi lopulta äärettömän monta ulottuvuutta. Huomaa, että voimme tehdä tämän vain abstraktisti. Tietokoneet voivat käsitellä vain äärellisiä asioita, joten ne eivät voi tallentaa ja käsitellä laskutoimituksia äärettömän moniulotteisissa vektoriavaruuksissa. Teeskentelemme kuitenkin hetken, että pystymme siihen, jotta näemme, mitä tapahtuu. Sitten käännetään asiat takaisin äärelliseen maailmaan.

Tässä hypoteettisessa ääretönulotteisessa vektoriavaruudessa voimme lisätä vektoreita samalla tavalla kuin tavallisia vektoreita, vain lisäämällä vastaavat koordinaatit. Tässä tapauksessa meidän on kuitenkin lisättävä äärettömän monta koordinaattia. Vastaavasti voimme kertoa skalaareilla kertomalla jokaisen (äärettömän monen) koordinaatin tietyllä luvulla. Määrittelemme äärettömän polynomin ytimen lähettämällä jokaisen pisteen (x,y) äärettömään vektoriin (x,y,x^2, y^2, x^y, x^3, x^2y, xy^2, y^3, x^4,\ldots). Erityisesti jokainen muuttujien x ja y monomi, kuten x^7y^42 tai y^{10,000}, esiintyy jossakin tämän ytimen merkinnöistä, mahdollisesti hyvin kaukana sarjan loppupäässä.

Palataksemme takaisin laskentamaailmaan voimme palauttaa alkuperäisen viisiulotteisen ytimemme unohtamalla kaikki muut paitsi viisi ensimmäistä merkintää. Itse asiassa alkuperäinen viisiulotteinen avaruus sisältyy tähän ääretönulotteiseen avaruuteen. (Alkuperäinen viisiulotteinen ydin on se, mitä saamme projisoimalla äärettömän polynomin ytimen tähän viisiulotteiseen avaruuteen.)

Hengitä nyt syvään, sillä menemme vielä askeleen pidemmälle. Miettikää hetki, mikä on vektori. Jos olet joskus käynyt matemaattisen lineaarialgebran kurssin, saatat muistaa, että vektorit määritellään virallisesti niiden yhteen- ja kertolaskuominaisuuksien perusteella. Mutta aion jättää sen väliaikaisesti huomiotta (pahoittelut kaikille matemaatikoille, jotka lukevat tätä). Tietojenkäsittelymaailmassa ajattelemme yleensä vektorin olevan lista numeroita. Jos olet lukenut tähän asti, olet ehkä valmis antamaan tuon listan olla ääretön. Haluan kuitenkin, että ajattelet vektorin olevan numeroiden kokoelma, jossa jokainen numero on osoitettu tietylle asialle. Esimerkiksi tavanomaisessa vektorityypissämme jokainen numero on osoitettu yhteen koordinaattiin/ominaisuuteen. Yhdessä äärettömässä vektorissamme jokainen numero on osoitettu johonkin kohtaan äärettömän pitkässä luettelossamme.

Mutta entäpä tämä: Mitä tapahtuisi, jos määrittelisimme vektorin osoittamalla numeron jokaiselle pisteelle (äärellisulotteisessa) tietoavaruudessamme? Tällainen vektori ei valitse yksittäistä pistettä data-avaruudessa; pikemminkin, kun olet valinnut tämän vektorin, jos osoitat mihin tahansa pisteeseen data-avaruudessa, vektori kertoo sinulle numeron. No, itse asiassa meillä on jo nimi sille: Jokin, joka antaa numeron jokaiselle data-avaruuden pisteelle, on funktio. Itse asiassa olemme tarkastelleet funktioita paljon tässä blogissa todennäköisyysjakaumia määrittelevien tiheysfunktioiden muodossa. Mutta pointtina on, että voimme ajatella näitä tiheysfunktioita vektoreina äärettömän moniulotteisessa vektoriavaruudessa.

Miten funktio voi olla vektori? No, voimme laskea yhteen kaksi funktiota yksinkertaisesti lisäämällä niiden arvot kussakin pisteessä. Tämä oli ensimmäinen järjestelmä, jota käsittelimme jakaumien yhdistämiseen viime viikon postauksessa seosmalleista. Kahden vektorin (Gaussin pötköjen) tiheysfunktiot ja niiden yhteenlaskun tulos on esitetty alla olevassa kuvassa. Voimme vastaavalla tavalla kertoa funktion jollakin luvulla, jolloin tuloksena on kokonaistiheyden muuttaminen vaaleammaksi tai tummemmaksi. Itse asiassa nämä molemmat ovat operaatioita, joita olet luultavasti harjoitellut paljon algebran tunneilla ja laskennassa. Emme siis tee vielä mitään uutta, ajattelemme vain asioita eri tavalla.

addvectors

Seuraavaksi määrittelemme ytimen alkuperäisestä data-avaruudestamme tähän äärettömän moniulotteiseen avaruuteen, ja tässä meillä on paljon vaihtoehtoja. Yksi yleisimmistä vaihtoehdoista on Gaussin blob-funktio, jonka olemme nähneet muutaman kerran aiemmissa viesteissä. Tätä kerneliä varten valitsemme Gaussin blobien vakiokoon, eli kiinteän arvon poikkeamalle \sigma. Sitten lähetämme jokaiselle datapisteelle Gaussin funktion, jonka keskipiste on kyseisessä pisteessä. Muistakaa, että ajattelemme kutakin näistä funktioista vektorina, joten tämä ydin tekee sen, mitä kaikki ytimet tekevät: Se sijoittaa jokaisen pisteen alkuperäisessä data-avaruudessamme korkeampiulotteiseen (itse asiassa äärettömään) vektoriavaruuteen.

Nyt tässä on ongelma: Palauttaaksemme asiat takaisin laskennalliseen maailmaan meidän on poimittava äärellisen ulottuvuuden vektoriavaruus, joka istuu tässä äärettömän ulottuvuuden vektoriavaruudessa, ja ”projisoitava” äärettömän avaruuden äärellisen avaruuden osa-avaruuteen. Valitsemme äärellisulotteisen avaruuden valitsemalla (äärellisen) määrän pisteitä data-avaruudessa ja ottamalla sitten vektoriavaruuden, jonka keskipisteenä olevat Gaussin pisteet kattavat. Tämä vastaa edellä esitettyä äärettömän polynomin ytimen viiden ensimmäisen koordinaatin määrittelemää vektoritahtia. Näiden pisteiden valinta on tärkeää, mutta palaamme siihen myöhemmin. Toistaiseksi kysymys on, miten projisoimme?

Finite-ulotteisille vektoreille yleisin tapa määritellä projektio on käyttää pistetuotosta: Tämä on luku, jonka saamme kertomalla kahden vektorin vastaavat koordinaatit ja laskemalla ne sitten yhteen. Esimerkiksi kolmiulotteisten vektoreiden (1,2,3) ja (2,.5,4) pistetuotto on 1 \cdot 2 + 2 \cdot .5 + 3 \cdot 4 = 15.

Voisimme tehdä jotakin vastaavaa funktioiden kanssa kertomalla ne arvot, jotka ne ottavat vastaavissa pisteissä aineistossa. (Toisin sanoen, kerromme kaksi funktiota yhteen.) Mutta emme voi sitten laskea kaikkia näitä lukuja yhteen, koska niitä on äärettömän paljon. Sen sijaan otamme integraalin! (Huomaa, että sivuutan tässä paljon yksityiskohtia, ja pyydän vielä kerran anteeksi kaikilta matemaatikoilta, jotka lukevat tätä). Hienoa tässä on se, että jos kerromme kaksi Gaussin funktiota ja integroimme, luku on yhtä suuri kuin Gaussin funktio keskipisteiden välisestä etäisyydestä. (Tosin uudella Gaussin funktiolla on erilainen poikkeama-arvo.)

Muulla sanoen, Gaussin ydin muuttaa pisteen tulon äärettömän moniulotteisessa avaruudessa Gaussin funktioksi pisteiden välisestä etäisyydestä data-avaruudessa: Jos data-avaruuden kaksi pistettä ovat lähellä toisiaan, niitä kernel-avaruudessa edustavien vektoreiden välinen kulma on pieni. Jos pisteet ovat kaukana toisistaan, niin vastaavat vektorit ovat lähellä ”kohtisuoraa”.

Käytännöllinen osa

Katsotaan siis vielä kerran, mitä meillä on tähän mennessä: Määritelläksemme N-ulotteisen Gaussin ytimen, valitsemme ensin N pistettä data-avaruudessa. Sen jälkeen voimme laskea minkä tahansa data-avaruuden pisteen kernelin koordinaatit laskemalla sen etäisyyden kuhunkin näistä valituista datapisteistä ja ottamalla etäisyyksien Gaussin funktion.

Ymmärtääksemme paremmin, miten tämä kernel toimii, selvitetään, miltä hyperitason ja data-avaruuden leikkauspiste näyttää. (Näin kerneleiden kanssa tehdään joka tapauksessa useimmiten.) Muistetaan, että taso määritellään yhtälöllä, joka on muotoa a_1 x_1 + a_2 x_2 + \cdots + a_N x_N = b, jossa (x_1,\ldots,x_N) ovat pisteen koordinaatit (ylempiulotteisessa kernel-avaruudessa) ja a_1,\ldots,a_N parametrit, jotka määrittelevät hypertason. Jos käytämme Gaussin ydintä, niin pistetuoton versiomme ansiosta arvot (x_1,\ldots,x_N) mittaavat etäisyyksiä N valitsemiimme pisteisiin. Päätösraja on siis niiden pisteiden joukko, joiden etäisyyksien Gaussin funktio näihin N pisteisiin täyttää tämän yhtälön.

Tätä on vielä aika vaikea purkaa, joten tarkastellaan esimerkkiä, jossa jokainen arvo a_1,\ldots,a_K on joko 1 tai -1. Silloin jokaisen datapisteen lähellä, jolla on merkintä a_i = 1, arvo x_i on hyvin lähellä 1, kun taas muut arvot x_j ovat pieniä, joten summa a_1 x_1 + a_2 x_2 + \cdots + a_N x_Non positiivinen. Vastaavasti lähellä pistettä, jossa a_i = -1, summa on negatiivinen. Jos siis b = 0, niin päätösraja erottaa positiiviset pisteet negatiivisista pisteistä. Itse asiassa se hahmottaa alueen, joka muistuttaa Gaussin palloja, jotka määrittelevät ytimen. Yksi esimerkki on esitetty vasemmalla alla olevassa kuvassa, jossa värit osoittavat, ovatko kertoimet positiivisia vai negatiivisia. Kuten näet, tulos näyttää jotakuinkin sileältä versiolta lähimpien naapureiden algoritmista.

gaussianclassif

Jos säädämme parametreja a_1,\ldots,a_K, tämä vaikuttaa siten, että pisteiden ympärillä olevien Gaussin pallojen koot muuttuvat, ja näin ollen päätösraja siirtyy kohti tai poispäin pisteistä, kuten kuvan oikealla puolella. Jos kerroin vaihtuu positiivisesta negatiiviseksi, päätösraja siirtyy pisteen toiselta puolelta toiselle. Jos meillä on merkitty data-aineisto (joka voi olla tai olla olematta yhteneväinen Gaussin ytimen määrittelevien N pisteiden kanssa), lineaarisen luokittelualgoritmin (kuten SVM:n tai logistisen regression) kouluttaminen kernel-avaruudessa vastaa tämän päätöksentekorajan liikuttamista edellä määriteltyjen rajoitusten rajoissa siten, että maksimoidaan se, kuinka moni data-aineiston pisteistä on oikealla puolella.

Tämä antaa meille siis enemmän joustavuutta päätöksentekorajan valintaan (tai ainakin erilaista joustavuutta), mutta lopputulos on hyvin riippuvainen N valitsemistamme vektoreista. Jos valitsemme liian monta (esimerkiksi jos annamme ytimen määrittelevien N-pisteiden olla samoja kuin datapisteet), vaarana on ylisovitus, samaan tapaan kuin lähimmän naapurin algoritmilla on taipumus johtaa ylisovitukseen. Haluamme oikeastaan pienen määrän pisteitä, jotka ovat jakautuneet tasaisesti koko joukkoon, mieluiten niin, että jokainen N piste on lähellä enimmäkseen samaan luokkaan kuuluvia pisteitä.

Tällaisen pistekokoelman löytäminen on hyvin erilainen ongelma kuin se, mihin olemme keskittyneet tämän blogin tähänastisissa viesteissä, ja se kuuluu kategoriaan valvomaton oppiminen/kuvaava analytiikka. (Ytimien yhteydessä sitä voidaan ajatella myös ominaisuuksien valintana/tekniikkana). Seuraavissa viesteissä vaihdamme vaihteita ja alamme tutkia näitä ajatuksia.

Vastaa

Sähköpostiosoitettasi ei julkaista.