La
Chaire Numérique et Citoyenneté, dirigée par
Diane Galbois-Lehalle, ouvre une nouvelle formation spécifiquement conçue pour les professionnels du droit (avocats, juristes, notaires, délégués à la protection des données, etc.) souhaitant renforcer leurs compétences sur les problématiques juridiques liées à l’intelligence artificielle.
Ce nouveau
Diplôme universitaire Droit de l’intelligence artificielle est placé sous la responsabilité de
Mehdi El Arrak, docteur en droit privé de l’Université Paris, titulaire du Certificat d'aptitude à la profession d'avocat (CAPA) et actuellement juriste senior en droit des affaires au sein du groupe La Poste. Mehdi nous parle de cette nouvelle formation.
Pourquoi avoir décidé d'ouvrir ce DU Droit de l'IA ?
En parallèle de mes engagements professionnels, je codirige avec Diane Galbois-Lehalle, le
Master Droit de l'intelligence artificielle (FASSED), proposé exclusivement en formation initiale.
Les thématiques abordées dans ce cursus répondent à de
nombreux enjeux auxquels sont aujourd’hui confrontés les professionnels du droit. Toutefois, les contraintes d’emploi du temps inhérentes à une formation universitaire classique rendaient ce parcours difficilement compatible avec une activité professionnelle exercée à temps plein.
C’est de ce constat qu’est née l’idée d’ouvrir une
formation spécifiquement destinée aux professionnels.
Le
Diplôme universitaire Droit de l’intelligence artificielle se déroulera
de janvier à juin, à raison de deux vendredis et samedis par mois, pour un total de 90 heures d’enseignement.
Le programme couvre les
fondements juridiques de l’intelligence artificielle, les
notions techniques essentielles à la compréhension des modèles, le droit des données, les chartes et standards éthiques, ainsi que la gestion des risques juridiques, de cybersécurité et de propriété intellectuelle.
Des enseignements optionnels permettront également d’approfondir des secteurs particulièrement exposés aux usages de l’IA, tels que la santé ou la banque-assurance.
Pourquoi les professionnels du droit doivent-ils aujourd’hui maîtriser les enjeux et le cadre réglementaire de l’intelligence artificielle ?
L’intelligence artificielle possède désormais sa propre histoire, marquée par quelques dates décisives. En 1950, Alan Turing propose de déplacer le débat, plutôt que de demander si une machine « pense », il suggère d’évaluer si son comportement peut être distingué de celui d’un humain, dont les premières réponses furent encourageantes.
En 1997, le match remporté par l’ordinateur
Deep Blue face au champion du monde d’échecs Garry Kasparov marque un tournant.
En 2012, une avancée majeure du
deep learning révolutionne la reconnaissance d’images lors du concours ImageNet.
En 2017, l’architecture
Transformer, fondée sur le mécanisme d’attention, ouvre la voie aux modèles de langage de très grande envergure. À partir de 2022, l’IA générative s’installe dans les usages quotidiens de tous.
Cette montée en puissance a fait de l’
IA un domaine du droit à part entière, comparable au droit des affaires ou au droit de la propriété intellectuelle.
Le cadre juridique s’est donc densifié : aux côtés du RGPD et des autres textes européens en matière numérique, l’
AI Act, entré en vigueur le 1er août 2024, établit un dispositif harmonisé au sein de l’Union européenne. Fondé sur une approche par les risques, il prévoit une mise en application progressive.
Concrètement, les organisations doivent désormais
recenser leurs cas d’usage, qualifier leurs systèmes,
définir une gouvernance adaptée et maintenir une documentation de conformité à jour. Autant d’exigences qui rendent
indispensable une montée en compétences des professionnels du droit.
Quelles compétences supplémentaires les participants acquièrent-ils ?
Les participants apprennent à
analyser les systèmes d’IA et à
assurer leur conformité juridique, en intégrant différents domaines comme la gouvernance, la qualité des données, la gestion des risques...
Ils acquièrent également des bases techniques pour
dialoguer avec les équipes data, IT et sécurité, et devenir forces de proposition pour mettre en conformité les pratiques.
Ils savent
conseiller les organisations,
intégrer les enjeux éthiques (protection des données, biais, équité, explicabilité, impact durable,...) et
anticiper l’évolution du droit de l’IA.
Enfin, ils apprennent à
utiliser de façon maîtrisée des IA, qu’elles soient générales ou juridiques, en tenant compte des exigences de confidentialité, de sécurité et de déontologie.