Site version bêta
Site version bêta
Site version bêta
Site version bêta
Besoin de vous protéger ?

Audit d'un système dit "Intelligence Artificielle" (IA)

Détecter et démontrer l'existence de vulnérabilités au sein d’un système d’intelligence artificielle.

Les audits visant à évaluer le niveau de sécurité d’un système d’intelligence artificielle s’articulent autour de 3 thématiques :

  • Sécurité du processus d’apprentissage/entraînement et de mise à jour afin de garantir que les données ne peuvent pas corrompre le modèle d’IA ;
  • Sécurité des données sensibles/confidentielles et du modèle d’IA afin de prévenir l’exfiltration de ces données ;
  • Sécurité de l’API et des IHM permettant d’interagir avec l’IA afin de prévenir des attaques classiques d’environnement Web.
Approche & Méthodologie
  • Intervention en binôme systématique, basée sur l'ISO 19011
  • Approche humaine avec prise en compte par nos consultants des risques métiers réels et de la logique business du périmètre audité
  • Une maitrise totale des outils (internes et externes)
  • Des rapports clairs et didactiques
Livrables
  • Nous accordons une attention particulière à la qualité de nos livrables, fruit de notre investissement et de nos engagements.
  • Chaque rapport est soigneusement rédigé, structuré de manière claire, validé par un second regard expert, et pensé pour être compréhensible aussi bien par des profils techniques que non techniques.
Envie de rejoindre l'aventure ?
Contactez-nous