Digitalt hukommelsestap: Machine unlearning
Avlæring er vanskelig. Unaturlig. Vi sliter med å 'slette' vaner, komme ut av gamle spor. Maskiner har det enda verre: Er 'machine unlearning' mulig?
Det kan høres ut som en spøk, men er høyst alvorlig. Vår egen avlæring, en del av utfordringen vi diskuterte i Audit your mindset nylig, er krevende nok. Maskin-avlæring er om mulig enda verre. Og egentlig lett å forestille seg: Maskinlæring er store datasett, presumptivt godt forberedt for oppgaven av profesjonelle data-spesialister, og deretter lang tids 'tygging' via tunge algoritmer. Så fortsetter maskinen - som vi - å lære av livet. Erfaringer, nye data, etc.
Så kommer utfordringen: Noen av dataelementene i den opprinnelige læringen var feil – kanskje ufullstendige, ubalanserte eller på andre måter forstyrrende i forhold til oppgaven. Hva gjør vi?
Vi bør ane uråd. Riktignok ansetter vi forutinntatte mennesker med de underligste meninger og oppfatninger hver eneste dag, og ingen skal si noe annet enn at de (det er deg og meg) påvirker resultatet, leveransen, produktet, tjenesten eller hva vi leverer. Det kommer i kategorien 'slik er det bare', og er en implisitt del av virkeligheten. For maskiner gjelder andre krav - eller i alle fall forventninger: Hvis deler av basis-dataene for læreprosessen er feil, kan det ha påvirket all læring fra starten av. Hvis det er datelementer fra senere 'i livet' som må korrigeres eller erstattes, blir det enda vanskeligere å finne hva som skal endres og hvordan. Og om det i det hele tatt er mulig.
Det lettvinte - og nærliggende - svaret er å trykke på reset-knappen, starte med blanke ark. Da er vi sikre. Men sikre på hva? At én eller kanskje noen få feil er borte? Hva med neste feil, og neste deretter? Og hvor mange uker eller måneder og kilowattimer tar det å gjennomføre en ny læreprosess? Dessuten, hva med underveis-læringen - maskinens 'livs-læring', skal vi bare kaste den?
Dette høres komplisert eller i alle fall krevende ut, og er akkurat det. En rekke akademiske miljøer – pluss Google, Apple, Microsoft og flere – jobber med utfordringene som var gjenstand for en interessant diskusjon i Wired Magazine nylig: Now That Machines Can Learn, Can They Unlearn? Artikkelen trekker blant annet frem noen mindre innlysende utfordringer i tilknytning til bruk av spesielt persondata, som ofte er et element i ML-ligningen:
Ingen har svarene og ingen ser løsningene – enda, men mange tror smart matematikk er selve fundamentet. Dessuten – og i første omgang like viktig – synes det å herske generell konsensus om at en løsning må finnes, ellers stopper utviklingen av etiske årsaker.
Sett utenfra fungerer problemstillingen som en betimelig påminnelse om at avansert ML fortsatt er høyt opp og langt frem, utover smale anvendelser som allerede finnes. Og som også tidvis er utsatt for avlæringsbehov, men som (oftest) er enkle nok til at 'reset'-metoden fungerer. Våre forventninger må bli deretter – ML (som mange liker å kalle AI) er viktig og mulig i små porsjoner for smale anvendelser (det er ikke tilfeldig at begrepet 'narrow AI' nylig dukket opp - det skal vi komme tilbake til). Forventningene må skaleres deretter.
Legg igjen kommentar
Du må være innlogget for å kunne kommentere.