Öppna kurser
AI- och LLM-baserade system ställer helt nya krav på säkerhet. Lär dig identifiera riskerna och bygga säkra lösningar från grunden utan att bromsa innovationstakten.
AI förändrar hur vi utvecklar system men också hur de kan angripas. Till skillnad från traditionella applikationer är AI-lösningar dynamiska, datadrivna och delvis oförutsägbara. Det skapar nya attackytor, som prompt injection, dataläckage och modellmanipulation.
Den här kursen ger dig en praktisk och strukturerad introduktion till säker utveckling av AI- och LLM-baserade applikationer. Du får förståelse för de nya hotbilderna och konkreta metoder för att bygga in säkerhet genom hela livscykeln – från kravställning och design till test, driftsättning och uppföljning. Under en intensiv dag varvas teori med praktiska exempel, övningar och diskussioner. Fokus ligger på hur säkerhet integreras i moderna arbetssätt som DevOps, CI/CD och MLOps/LLMOps.
Utbildningsmål
Efter kursen har du:
- Förståelse för hur säkerhet i AI- och LLM-system skiljer sig från traditionell applikationssäkerhet
- Kunskap om de vanligaste hoten, inklusive prompt injection, dataläckage och modellrelaterade attacker
- Förmåga att formulera säkerhetskrav för AI-baserade lösningar
- Insikt i hur skyddsmekanismer designas och implementeras från början
- Grundläggande kunskap om hur säkerhet kan automatiseras i utvecklings- och leveransprocesser
- Metoder för att testa, verifiera och övervaka säkerheten i dynamiska AI-system
- En helhetsbild av hur man etablerar en hållbar och kontinuerlig säkerhetsprocess för AI
Målgrupp
Kursen riktar sig till yrkesverksamma inom:
- Mjukvaruutveckling
- Systemarkitektur
- Test och kvalitetssäkring
- Kravanalys
- Projektledning och teknisk ledning
- Personer som arbetar med eller planerar att införa AI- eller LLM-baserade lösningar och vill säkerställa en trygg implementation.
Förkunskaper
Grundläggande förståelse för IT-systemutveckling samt översiktlig kunskap om AI eller maskininlärning rekommenderas.
Innehåll
AI/LLM – ett nytt säkerhetsparadigm
- Hur AI-system skiljer sig från traditionella applikationer
- Nya risker kopplade till datadrivna och probabilistiska system
Hotbild för LLM-applikationer
- Genomgång av OWASP Top 10 för LLM
- Praktiska exempel på sårbarheter och attacker
Genererad kod och kodningsagenter
- Vanliga säkerhetsbrister i AI-genererad kod
- Risker vid användning av kodassistenter och agenter
Säkerhetsanalysverktyg
- Introduktion till SAST och DAST i AI-kontext
- Hur traditionella verktyg kan användas och kompletteras
Tredjepartsberoenden
- Hantering av bibliotek, API:er och externa modeller
- Riskbedömning och kontrollstrategier
Hotmodellering för AI-system
- Identifiera och strukturera hot i AI-lösningar
- Anpassning av etablerade metoder till nya användningsfall
AI-agenter och autonoma system
- Nya typer av attackytor
- Säkerhetsutmaningar i agentbaserade lösningar
Testning av AI-säkerhet
- Metoder för att testa robusthet och tillförlitlighet
- Introduktion till ramverk och standarder för AI-testning