Artificiell intelligens blir allt smartare, men dagens teknik är inte perfekt. För att träna mjukvaran till att bemästra en enda funktion krävs enorma datamängder. Men kanske finns det en lösning, skriver Wired.

Många av de senaste årens framsteg inom AI bygger på något som kallas artificiella neuronnät. Det är en teknik för att få mjukvara att ”minnas” på ett sätt som påminner om hur vår egen hjärna fungerar.

Sådana neuronnät tränas upp genom maskininlärning – när mjukvaran får analysera stora datamängder för att lära sig se mönster – och kan sedan användas till att känna igen ansikten, styra självkörande bilar eller att spöa mänskligheten i brädspel.

Teknikens stora förkämpe har under många årtionden varit datavetaren Geoff Hinton. Han var en av de forskare som för några år sedan visade hur neuronnäten kunde göra maskininlärning otroligt mycket mer effektivt. Kort därefter anställdes den nu 69-årige forskaren av Google.

Läs ocksåStudie: Sverige långt efter med maskininlärning

Men han är inte helt nöjd med tekniken som får självkörande bilar och mobiltelefoner med ansiktsigenkänning att ”se” sin omgivning.

– Jag tror att sättet vi gör datorseende på är helt fel. Det fungerar bättre än något annat i dagsläget, men det betyder inte att det är rätt, säger Geoff Hinton i en intervju med Wired.

Därför har han i veckan publicerat två nya forskningsrapporter som kretsar kring en teknik som kallas ”capsule networks”, vilket kanske enklast översätts till kapselnätverk på svenska. Precis som neuronnät är det en gammal teori, som aldrig fungerat bra i praktiken. Förrän nu.

I två experiment har Geoff Hinton och hans kollegor använt kapselnätverk för att träna AI som blivit minst lika smart som mjukvara som tränats med neuronnät.

Han har använt sig av två standardtest för artificiell intelligens. Ett för att känna igen handskrivna siffror, ett annat för att känna igen leksaker som fotats ur olika vinklar. I det första experimentet tangerade AI:n som tränats med kapselnätverk världsrekordet. I det andra hade det nästan hälften så få fel som marknadens bästa mjukvara.

– Intuitivt har det här känts rätt för mig väldigt länge, det har bara inte fungerat ordentligt. Nu har vi äntligen något som fungerar bra, säger Geoff Hinton som började grubbla över kapselnätverken redan på 70-talet.

Läs ocksåNu kommer Microsofts Hololens till Sverige

Kapselnätverk är en slags fortsättning på de artificiella neuronnäten. De bygger på att små grupper neuroner – kapslar – som organiseras i flera lager. I bildanalys får varje kapsel i uppdrag att analysera en viss detalj i bilden för att sedan skicka resultaten vidare i nätverket. När tillräckligt många kapslar granskat sin del kan nätverket göra en samlad bedömning.

Fördelen mot dagens AI är att när kapselnätverket analyserar detaljerna för sig får det lättare att exempelvis känna igen ett motiv i ny miljö.

Enkelt förklarat kan AI:n känna igen en golden retriever oavsett om den poserar i ett snöigt vinterlandskap eller går i koppel i en folkmassa. Dagens neuronnät skulle förmodligen behöva analysera en rad bilder i båda miljöerna innan det kunde konstatera att jo, det är faktiskt samma jycke oavsett vad som finns runt omkring.

Det är för tidigt att säga om Geoff Hintons kapselnätverk är lösningen, det erkänner han till och med själv. Tekniken är fortfarande i sin linda och det går långsamt att använda den för att träna AI. Men det kan vara en väg till ytterligare genombrott inom artificiell intelligens.