Öppna kurser

AI- och LLM-baserade system ställer helt nya krav på säkerhet. Lär dig identifiera riskerna och bygga säkra lösningar från grunden utan att bromsa innovationstakten.

AI förändrar hur vi utvecklar system men också hur de kan angripas. Till skillnad från traditionella applikationer är AI-lösningar dynamiska, datadrivna och delvis oförutsägbara. Det skapar nya attackytor, som prompt injection, dataläckage och modellmanipulation.

Den här kursen ger dig en praktisk och strukturerad introduktion till säker utveckling av AI- och LLM-baserade applikationer. Du får förståelse för de nya hotbilderna och konkreta metoder för att bygga in säkerhet genom hela livscykeln – från kravställning och design till test, driftsättning och uppföljning. Under en intensiv dag varvas teori med praktiska exempel, övningar och diskussioner. Fokus ligger på hur säkerhet integreras i moderna arbetssätt som DevOps, CI/CD och MLOps/LLMOps.

Utbildningsmål

Efter kursen har du:

  • Förståelse för hur säkerhet i AI- och LLM-system skiljer sig från traditionell applikationssäkerhet
  • Kunskap om de vanligaste hoten, inklusive prompt injection, dataläckage och modellrelaterade attacker
  • Förmåga att formulera säkerhetskrav för AI-baserade lösningar
  • Insikt i hur skyddsmekanismer designas och implementeras från början
  • Grundläggande kunskap om hur säkerhet kan automatiseras i utvecklings- och leveransprocesser
  • Metoder för att testa, verifiera och övervaka säkerheten i dynamiska AI-system
  • En helhetsbild av hur man etablerar en hållbar och kontinuerlig säkerhetsprocess för AI

Målgrupp

Kursen riktar sig till yrkesverksamma inom:

  • Mjukvaruutveckling
  • Systemarkitektur
  • Test och kvalitetssäkring
  • Kravanalys
  • Projektledning och teknisk ledning
  • Personer som arbetar med eller planerar att införa AI- eller LLM-baserade lösningar och vill säkerställa en trygg implementation.

Förkunskaper

Grundläggande förståelse för IT-systemutveckling samt översiktlig kunskap om AI eller maskininlärning rekommenderas.

Innehåll

AI/LLM – ett nytt säkerhetsparadigm

  • Hur AI-system skiljer sig från traditionella applikationer
  • Nya risker kopplade till datadrivna och probabilistiska system

Hotbild för LLM-applikationer

  • Genomgång av OWASP Top 10 för LLM
  • Praktiska exempel på sårbarheter och attacker

Genererad kod och kodningsagenter

  • Vanliga säkerhetsbrister i AI-genererad kod
  • Risker vid användning av kodassistenter och agenter

Säkerhetsanalysverktyg

  • Introduktion till SAST och DAST i AI-kontext
  • Hur traditionella verktyg kan användas och kompletteras

Tredjepartsberoenden

  • Hantering av bibliotek, API:er och externa modeller
  • Riskbedömning och kontrollstrategier

Hotmodellering för AI-system

  • Identifiera och strukturera hot i AI-lösningar
  • Anpassning av etablerade metoder till nya användningsfall

AI-agenter och autonoma system

  • Nya typer av attackytor
  • Säkerhetsutmaningar i agentbaserade lösningar

Testning av AI-säkerhet

  • Metoder för att testa robusthet och tillförlitlighet
  • Introduktion till ramverk och standarder för AI-testning