AI & cybersäkerhet | nytt IT-hot eller verktyg för cybersäkerhet

AI påverkar cybersäkerhet både positivt genom att effektivisera cybersäkerheten med hjälp av AI-tjänster och negativt genom nya hot mot informationssäkerheten inte minst från hackers.

AI bjuder på både hot och möjligheter för cybersäkerhet
AI bjuder på både hot och möjligheter för cybersäkerhet (foto: cottonbro studio on Pexels.com)

AI som hot mot cybersäkerhet

Det finns ett flertal prognoser som visar att AI ökar hoten mot cybersäkerheten. Enligt Statista förväntas kostnaderna förorsakade av cyberbrott med en AI-bakgrund att växa från 24 miljarder dollar år 2023 till 134 miljarder dollar år 2030.

Tyska federala polisen Bundeskriminalamt rapporterar att antal cyberbrott mellan 2022 och 2023 har stigit med 28 % i Tyskland samtidigt som endast 32,2 % av cyberbrotten löses.

Även MSB rapporterade att under 2023 ökade antalet försök till cyberangrepp mot statliga myndigheter och leverantörer av samhällsviktiga tjänster kraftigt i Sverige.

Centrum för cybersäkerhet på RISE, ett oberoende statligt ägt forskningsinstitut, har tagit fram rapporten AI och cybersäkerhet (pdf) för att belysa möjligheter och risker som AI medför inom cybersäkerheten. Rapporten vänder sig speciellt till chefer och beslutsfattare inom både privata och offentliga sektorn.

SENASTE NYHETER OM AI & CYBERSÄKERHET

AI som hot mot konfidentialitet

När du använder AI för att t.ex. få rekommendationer som bygger på mönster i din data så finns det risken att du bryter mot en av principerna i CIA-triaden för informationssäkerhet, nämligen konfidentialitet.

Många AI-tjänster som ChatGPT är idag inte on prem, dvs. de är lagrade på externa servrar. Som medarbetare frestas du säkert av att använda dessa AI-tjänster för att bara testa eller för att öka produktiviteten. När du gör det utan att AI-tjänsten har riskbedömts och godkänds så blir du en avvändare av s.k. dark AI.

Du utsätter då din organisation för risken att bryta mot konfidentialiteten när

  • Din data transporteras till de externa servrarna
  • Din data mellanlagras, analyseras och bearbetas på de externa servrarna
  • De av AI framtagna rekommendationerna transporteras från de externa servrarna till dig
  • Din data och de framtagna rekommendationerna inte raderas från de externa servrarna
  • Din data och de framtagna rekommendationerna kanske till och med används för att ta fram rekommendationer för en annan användare av AI-tjänster

Om du vill använda AI så kan du mildra risken att bryta mot konfidentialiteten genom att

  • Alltid göra en riskbedömning först
  • Bara dela publik alltså inte skyddsvärd information och data med externa AI-tjänster
  • Bara använda dig av AI-tjänster on prem, alltså på dina servrar där du kan utesluta att obehöriga får tillgång. Exempelvis Microsofts Copilot in Edge istället för ChatGPT.
AI ger hackers, sabotörer och spioner nya möjligheter att hota cybersäkerheten
AI ger hackers, sabotörer och spioner nya möjligheter att hota cybersäkerheten

AI som hot mot integritet

En annan risk mot cybersäkerheten när du använder AI är att du bryter mot en annan princip i CIA-triaden för informationssäkerhet, nämligen integritet eller riktighet.

Oavsett om du använder externa eller interna AI-tjänster så är risken att rekommendationerna som du får utifrån din data, andras data eller en kombination är felaktiga eller inte fullständiga. Det kan bero på

  • Svagheter eller fel i AI:s tankemodell
  • att någon med flit manipulerar AI-tjänsten och dess output

Om du vill använda AI så kan du mildra risken att bryta mot integriteten genom att

  • Alltid göra en riskbedömning först
  • Kontrollera kvalitén i AI-tjänsten
  • Kontrollera kvalitén och riktigheten i rekommendationerna. Ett känt problem är exempelvis risken för att AI-tjänsten utvecklar fördomar (AI bias) – något som vid ansiktsigenkänning kan leda till falska identifieringar eller rentav diskriminering.
  • Inte använda AI för verksamhetskritiska rekommendationer
  • Ha en handlingsplan för hur du hanterar brott mot integriteten när du upptäcker det

AI används av hackers mot cybersäkerhet

AI används inte bara för cybersäkerhet utan även av hackers, sabotörer, spioner m.fl. för att utveckla avancerade hot mot informationssäkerheten. Mer kända exempel är realistiska e-mail för phishing / nätfiske och övertygande deep fake video, bilder och ljud.

Men det finns även mer avancerade metoder som använder sig av artificiell intelligens, däribland:

  • Evasionsattacker (evasion attacks) – hackers matar din AI-tjänst med ett motstridigt exempel (adversarial example), alltså data som ser ut som och känns som korrekt data men som kan omkullkasta hela AI-modellen och då ge felaktiga rekommendationer
  • Dataförgiftning (data poisoning) – hackers manipulerar din data som du skickar till en AI-tjänst för att på det sättet manipulera de av AI-tjänsten framtagna rekommendationerna
  • Stöld av AI-modeller (AI model stealing) – den av dig mödosamt framtagna AI-modellen stjäls / dupliceras av en konkurrent
  • Modellinversion (model inversion) – hackers använder din AI-tjänsts utdata för att extrahera din originaldata som användes för att träna modellen
  • Bakdörrar inbakade i AI-modeller (AI backdoors) – hackers gör ändringar på AI-modellen när den fortfarande håller på att formas / tränar för att på det sättet manipulera de av AI-tjänsten framtagna rekommendationerna

Ett annat IT-hot som använder sig av AI är WormGPT. Med det verktyget som finns tillgängligt på dark web kan hackers utan större resurser och expertis producera skadlig programvara för cyberattacker.

AI som möjlighet för cybersäkerhet

AI för cybersäkerhet är olika metoder för att använda artificiell intelligens för att upptäcka IT-hot. I motsats till konventionella metoder som t.ex. virusprogram kan AI för cybersäkerhet

  • utifrån säkerhetspersonalens kriterier för cyberhot
  • automatiserat
  • och på kortare tid
  • analysera och korrelera
  • stora mängder data
  • från flera källor

för att med stor precision upptäcka potentiella sårbarheter eller verkliga cyberattacker och därmed ge säkerhetspersonal handlingsbara insikter för att omgående agera eller undersöka ytterligare.

Det har delvis gjorts från och med tidigt 2000-talet. Skillnaden är att om du använder dig av generativ AI så kan säkerhetspersonal mycket naturligare interagera med AI-tjänsten i form av allt från enkla säkerhetsvarningar till mer utförliga texter, men också grafik, bilder och hela rapporter.

Det vill säga att AI för cybersäkerhet i form av t.ex. färdiga AI-tjänster som Microsoft Copilot for Security, maskininlärningsalgoritmer, naturlig språkbearbetning etc. kan höja kvalitén i att upptäcka cyberattacker men också spara tid och resurser.