Audit d'un système dit "Intelligence Artificielle" (IA)
Détecter et démontrer l'existence de vulnérabilités au sein d’un système d’intelligence artificielle.
Les audits visant à évaluer le niveau de sécurité d’un système d’intelligence artificielle s’articulent autour de 3 thématiques :
- Sécurité du processus d’apprentissage/entraînement et de mise à jour afin de garantir que les données ne peuvent pas corrompre le modèle d’IA ;
- Sécurité des données sensibles/confidentielles et du modèle d’IA afin de prévenir l’exfiltration de ces données ;
- Sécurité de l’API et des IHM permettant d’interagir avec l’IA afin de prévenir des attaques classiques d’environnement Web.
Approche & Méthodologie
- Intervention en binôme systématique, basée sur l'ISO 19011
- Approche humaine avec prise en compte par nos consultants des risques métiers réels et de la logique business du périmètre audité
- Une maitrise totale des outils (internes et externes)
- Des rapports clairs et didactiques
Livrables
- Nous accordons une attention particulière à la qualité de nos livrables, fruit de notre investissement et de nos engagements.
- Chaque rapport est soigneusement rédigé, structuré de manière claire, validé par un second regard expert, et pensé pour être compréhensible aussi bien par des profils techniques que non techniques.