Formateur(s)
Prochaines sessions
Nom de la session | Dates | Places disponibles | |
---|---|---|---|
Novembre 2025 | Voir les dates | 12 |
IA et IA Act : Comment gérer les risques ?
Contexte
L’Intelligence Artificielle transforme notre manière de travailler, de décider et d’innover. Mais son développement rapide s’accompagne de nouveaux défis en matière de conformité, d’éthique et de gestion des risques. Quelles sont les obligations réglementaires actuelles et à venir ? Comment anticiper les risques juridiques et opérationnels liés à l’IA ?
Le règlement européen sur l’intelligence artificielle, connu sous le nom d’AI Act, est entré en vigueur le 1er août 2024. Ses dispositions s’appliquent progressivement mais, depuis le 2 février 2025, certaines pratiques d’IA interdites sont effectives et les employeurs doivent s’assurer que leur personnel dispose de connaissances suffisantes en matière d’IA.
Cette formation a pour objectif de vous apporter une compréhension claire du cadre législatif posé par l’IA Act, et des meilleures pratiques pour assurer une IA responsable et sécurisée. À travers des études de cas et des outils concrets, vous apprendrez à identifier, évaluer et maîtriser les risques liés à l’IA dans votre organisation.
Objectifs
Comprendre les principes fondamentaux de l’IA Act et son impact sur les entreprises.
Identifier les obligations de conformité et les catégories de risques des systèmes d’IA.
Savoir documenter et analyser les systèmes d’IA pour répondre aux exigences du règlement.
Public cible
Toute personne ou entreprise désireuse d’en savoir plus sur l’IA ACT, responsables de conformité, risk managers, DPO, auditeurs et dirigeants souhaitant maîtriser la gouvernance éthique et réglementaire de l’IA dans leur organisation.
Conditions d’accès
Aucune.
Équipement requis
Cette formation ne nécessite aucun matériel particulier.
Contenu
Introduction générale au règlement IA ACT
Contexte et objectifs du règlement.
Quelles entreprises et quels systèmes d’IA sont concernés ?
Liens avec d’autres régulations (RGPD, ISO 42001, NIS2).
Structure et classification des systèmes d’IA
Définition des catégories de risque.
Étude de cas.
Exigences pour les systèmes à risque élevé
Gouvernance et gestion des risques liés à l’IA.
Obligations en matière de documentation et d’auditabilité.
Rôles et responsabilités des entreprises (développeurs, fournisseurs, utilisateurs).
Étude de cas.
Mise en conformité d’un système d’IA.
Mise en conformité et documentation
Élaboration d’un dossier technique.
Définition d’une politique d’évaluation et de suivi des systèmes d’IA.
Gestion de la transparence et des droits des utilisateurs.
Étude de cas.
Structurer une documentation conforme à l’IA Act.
Plan d’action pour les entreprises
Évaluation interne des systèmes d’IA existants.
Planification des audits et des mises à jour des systèmes.
Coordination avec les autorités et certification volontaire.
Exercice de mise en situation.
Établir une feuille de route pour une entreprise.
Conclusion et échanges
Récapitulation des points clés.
Questions et réponses sur les prochaines étapes.
Méthodes pédagogiques
Cette formation alterne exposés théoriques et réflexions de groupe afin de permettre un partage adéquat des connaissances et une meilleure compréhension du contexte dans lequel l’intelligence artificielle se développe.
Matériel
L’apport est dispensé sous forme d’un diaporama largement commenté.
Syllabus
Une synthèse des notes de cours sera remise aux participants.
Moyens d’évaluation
Évaluation continue en cours de formation, par le biais d’un retour des apprenants sur les cas d’études proposés.
Attestation
Une attestation de participation sera envoyée par email :
- après la formation ;
- si vous y avez participé intégralement ;
- et après paiement de la facture qui y est relative.
Subsides et interventions
Non agréée chèques formation
Cette formation n'est pas agréée dans le cadre des chèques formation de la région wallonne.