Agenda
Matin : Paysage des menaces & modélisation
- Pourquoi l’IA applique les patterns de sécurité de manière incohérente — et pourquoi c’est dangereux
- Nouveaux vecteurs d’attaque : prompt injection, packages hallucinés, context window poisoning
- STRIDE étendu aux agents IA : traiter l’agent comme une trust boundary
- Exercice 1 : Prompter un formulaire de connexion sans exigences de sécurité — analyser les failles
- Exercice 2 : Construire un modèle de menace pour un workflow agentique
Après-midi : Guardrails, architecture & automatisation
- Specs de sécurité et instructions globales pour les agents (
security-policy.md,CLAUDE.md) - Gates automatisées : SAST, SCA, secrets scanning dans CI/CD
- Secure-by-design : middleware, ORM et typage comme guardrails structurels
- Moindre privilège pour les agents : système de fichiers, réseau, outils, scope
- Exercice 3 : Construire des guardrails et configurer un reviewer agent comme security gate automatisé
- Exercice 4 : Définir une architecture sécurisée — guardrails structurels plutôt que correctifs ponctuels
- Exercice 5 : Simulation Secure Dark Factory — run complet avec Semgrep, npm audit et Gitleaks
Méthode
Hands-on toute la journée : la fonctionnalité de connexion de l’Exercice 1 est construite sans guardrails, sécurisée étape par étape, et conclue par une simulation Secure Dark Factory complète avec Semgrep, npm audit et Gitleaks.
Prérequis
- Plusieurs années de développement logiciel professionnel
- Expérience active avec au moins un assistant de codage IA (Claude Code, Cursor, GitHub Copilot ou équivalent)
- Aucune connaissance préalable en sécurité requise — les bases sont abordées de manière pratique pendant le cours
FAQ
Quel outil dois-je apporter ? Aucun. Tous les exercices se déroulent dans GitHub Codespaces — vous avez uniquement besoin d’un navigateur et d’un compte GitHub. Semgrep, Gitleaks et npm audit sont préconfigurés.
Je n’ai aucune expérience en sécurité. Est-ce un problème ? Non. Les connaissances préalables en sécurité ne sont pas un prérequis — le cours construit les bases pertinentes de manière pratique. Ce qui est requis : de l’expérience en développement et l’utilisation active d’un assistant de codage IA.
Que se passe-t-il si le pilot n’atteint pas le nombre minimum de participants ? Le prix pilote de 200 CHF est intégralement remboursé si le cours ne peut pas avoir lieu. Vous serez notifié en temps utile.
Le cours est-il pertinent pour des projets greenfield ou des codebases legacy ? Les deux. Les patterns présentés — specs de sécurité, guardrails, gates automatisées — s’appliquent indépendamment de l’âge du projet. Dans les codebases legacy, le risque lié au code généré par IA de manière non contrôlée est souvent encore plus élevé.
Quand a lieu le cours régulier ? Le prix pilote s’applique exclusivement à la première session. Le cours régulier sera proposé à 1'200 CHF / personne ensuite. Inscrivez-vous sur la liste d’attente si vous manquez le pilot.