Med jämna mellanrum upptäcks det nya säkerhetsluckor och sårbarheter i mjukvaror, tjänster och system, men även i hårdvara som till exempel fallet med Meltdown och Intels processorer, och vanligtvis brukar dessa näst intill omgående börja användas för intrång och andra typer av cyberbrott. Traditionellt har dessa upptäckter gjorts med hjälp av djup kunskap och manuellt utforskande, men detta har skiftat de senare åren. Artificiell intelligens som djupinlärning och maskininlärning har börjat användas i all större utsträckning för att hitta sårbarheter, och denna trend kommer att fortsätta enligt en enig skara experter.

Säkerhetsforskare och dito företag använder samtidigt allt oftare maskininlärning och AI för att upptäcka intrång och andra kriminella aktiviteter, inte minst eftersom dessa verktyg är bra på att hitta mönster i stora mängder data. Risken är annars att de som nås av alla säkerhetslarm blir överbelastade och inte kan hitta de verkliga riskerna. I förlängningen kan det bli så att IT-säkerhet kommer handla om en kamp mellan en AI och en annan AI på varsin planhalva i den ständiga kampen om it-säkerheten. Maskin mot maskin.
En av de forskare som hävdar att så blir fallet, eller egentligen att vi redan ser detta idag, är Fred Streefland som till vardags arbetar som CSO på it-säkerhetsföretaget Palo Alto Networks.
TW: På vilket sätt kan cyberkriminella dra nytta av AI-tekniken i syfte att skapa attacker?
FS: Om vi ska vara noga bör vi betrakta AI som en samlingsterm för tekniker som även inbegriper big data-analys och maskininlärning. Maskininlärning skiljer sig från AI i att det förra är en teknik för mjukvaruutveckling som används för att lära en dator att utföra en uppgift utan att explicit tala om för datorn vad den ska göra, medan termen AI borde reserveras för mjukvara som blir medveten om sin egen existens och kan ta medvetna beslut.
Med det sagt, cyberkriminella använder maskininlärning på flera olika sätt. För det första används tekniken som ändamål för inläsning, genom att låta algoritmer arbeta med stora mängder data för att hitta sårbarheter. Maskininlärning används också för att automatisera attacker med hjälp av flexibla attack-verktyg med dynamisk nyttolast.
I tillägg till dessa ändamål används maskininlärning för att undvika upptäckt, detta såg vi redan med Stuxnet 2010 där mjukvaran kunde ligga lågt under lång tid och vänta på rätt ögonblick att slå till och börja agera. Det är ett exempel på att AI-tekniker använts under ganska lång tid redan, men tekniken börjar användas i fler fall idag.
TW: Varför är AI-tekniker attraktiva för cyberkriminella, vad kan AI göra som inte går att göra med traditionella metoder?
Den största fördelen för de cyberkriminella är snabbhet och flexibilitet. Ett AI-system är extremt kapabelt för snabba beräkningar på ett automatiserat sätt. En människa som vill designa en ny sorts attack måste först hitta sårbarheter, vilket tar lång tid, och när en sårbarhet blir upptäckt och stängs, måste de cyberkriminella börja om från början.
Om en attack utförs på ett automatiserat sätt blir den mycket snabbare och mer effektiv, den kan reagera på förändringar i spelplanen utan mänsklig intervention.
TW: Kan man säga att AI-drivna attacker är farligare än icke AI-drivna attacker, och så fall på vilket sätt?
FS: De är farligare just på grund av snabbheten och flexibiliteten. Sannolikheten att hitta en sårbarhet är större med AI, därför blir sannolikheten för framgång större.
Samtidigt använder vi ju maskininlärning även för att upptäcka attacker, vilket gör oss betydligt snabbare på att upptäcka dem. Att upptäcka sårbarheter gå fortare eftersom vi samlar in så mycket data vi bara kan få tag på, inklusive data från dem av våra kunder som tillåter att vi samlar in data från dem. Kunderna har enorma mängder sensorer i sina it-miljöer, vilket till exempel kan innebära att när en ny typ av hot upptäcks hos en kund i Singapore kan vi analysera det väldigt fort och inom fem minuter skicka ut information till alla andra kunder i hela världen. Allt detta utan någon mänsklig inblandning.
TW: Varför tror du att just 2019 blir året då AI-drivna hot tar fart?
FS: För att tekniken utvecklas väldigt snabbt. Det vi ser idag är maskininlärning, som egentligen har använts av cyberkriminella sen 2006. Idag är tekniken allmänt tillgänglig och attack-verktygen är i många fall publicerade med öppen källkod.
Det vi inte sett hittills, men som sannolikt kommer att dyka upp i närtid är mer avancerade typer av AI som är kapabel att fatta fler autonoma beslut. Det är inte långt bort mot vad vi ser i dagens attacker.
Det vi kommer ställas inför är cyberkriminella som har djupa kunskaper, har ägnat sig åt mycket forskning och har gott om tid. Om de dessutom är aktörer som backas upp av stater har de stora resurser. De kommer garanterat att utveckla sina tekniker och detta kommer medföra fler AI-drivna attacker under 2019 än vi sett hittills.
TW: Vilka typer av attacker ser du kommer att komma i närtid?
FS: Allt möjligt. Hittills har attackerna fokuserat på att undvika upptäckt och antivirus.
De mest imponerande artificiella intelligenserna idag är saker som klår människor i spel som schack, go och jeopardy. Men dessa är exempel på väldefinierade, regelbaserade situationer som en AI är väl utrustad för att hantera. I framtiden kommer vi att få se en typ av AI som är bättre anpassade för cyberattacker, vilket involverar förmågan att hitta lösningar i mer ogynnsamma och kaotiska miljöer. Man kan ju bara tänka sig hur mycket skada ett botnät skulle kunna ställa till med om det kunde på egen hand hitta en sårbarhet och utifrån detta konstruera sin egen attack. Som tur är vore samma teknik lika användbar för cybersäkerheten så vi kan använda den nya tekniken för att skydda oss.
TW: Att en AI "slåss” mot en annan AI skapar intressanta bilder, men under vilka omständigheter kan det bli realistiskt?
FS: Båda sidor har automatiserat så mycket att man kan säga att vi redan lever i den fasen. Det handlar mer om huruvida vi ska kalla det maskin mot maskin eller automatisering mot automatisering.
Det vi kommer att få se från och med nu är gradvisa framsteg på bägge sidor, och det finns fortfarande gott om utrymme för framsteg. Frågan är vem som kommer få övertaget? Vi på Palo Alto Networks har använt maskininlärning sedan 2012 och vi blir bättre varje månad. Men det blir även de cyberkriminella, och detta kommer bli ett race som kommer fortsätta för lång tid framöver.
Läs också:
Uppmaningen till Jeff Bezos: Sälj inte ansiktsigenkänning till staten
Massiv ökning av artificiell intelligens på företagen – det ställer nya krav på cio:n