1306 shaares
Les recommandations de l'ANSSI en matière de sécurité autour de la GenAI.
Ils s'attardent sur 3 catégories d'attaques:
- Attaques par manipulation: c'est l'injection de prompt
- Attaques par infection: injecter de fausses données d'entrainement pour fausser le système plus tard
- Attaques par exfiltration: récupérer des données d'entrainements ou les paramètres du modèle
Sinon c'est de la sécurité assez classique au final, DevSecOps, confidentialité, hébergement de confiance, etc.
Concernant les LLMs, ils conseillent de
- filtrer les entrées / sorties du système d'IA
- limiter les actions automatiques des Agents