Le règlement européen sur l’intelligence artificielle (IA) : ce que les entrepreneurs doivent savoir
Le règlement européen sur l’intelligence artificielle, plus communément appelé AI Act, vient d’être publié au Journal officiel de l’Union européenne. C’est la première législation globale au monde qui encadre l’ensemble du cycle de vie des systèmes d’intelligence artificielle, depuis leur développement jusqu’à leur utilisation. Ce texte ambitieux vise à garantir que l’IA se développe dans un cadre respectueux de la santé publique, de la sécurité des personnes, et des droits fondamentaux, tout en laissant place à l’innovation.
Une approche basée sur les risques
Le règlement adopte une approche innovante basée sur la gestion des risques que peuvent poser les systèmes d’IA. Il classe ces systèmes en quatre catégories principales, en fonction de leur niveau de risque :
- Risque inacceptable : Ce niveau regroupe des pratiques jugées contraires aux valeurs fondamentales de l’Union européenne. Par exemple, la notation sociale, où les individus sont évalués et classés en fonction de leur comportement ou de leurs caractéristiques personnelles, est strictement interdite. De même, l’exploitation des vulnérabilités, l’utilisation de techniques subliminales, ou encore la reconnaissance émotionnelle sur le lieu de travail sont des pratiques prohibées.
- Haut risque : Certains systèmes d’IA, en raison de leur potentiel impact sur la sécurité ou les droits des individus, sont soumis à des exigences rigoureuses. Ces systèmes doivent passer des évaluations de conformité, disposer d’une documentation technique détaillée, et intégrer des mécanismes de gestion des risques. Par exemple, cela concerne les systèmes biométriques, les IA utilisées dans le recrutement, ou celles déployées dans des contextes répressifs.
- Risque spécifique en matière de transparence : Cette catégorie concerne les systèmes d’IA qui, bien que n’étant pas intrinsèquement dangereux, peuvent manipuler les utilisateurs. Les exemples incluent les chatbots, qui doivent clairement indiquer qu’ils ne sont pas humains, ou les générateurs de contenu artificiel, qui doivent informer les utilisateurs de la nature générée des contenus.
- Risque minimal : La grande majorité des systèmes d’IA utilisés en Europe tombent sous cette catégorie. Pour ces systèmes, aucune obligation spécifique n’est imposée par le règlement, ce qui laisse une large marge de manœuvre pour leur développement et leur déploiement.
Une attention particulière aux modèles d’IA à usage général
Un point crucial du règlement concerne les modèles d’IA dits « à usage général », tels que ceux utilisés pour l’IA générative. Ces modèles, comme les grands modèles de langage (LLM) proposés par des entreprises comme Mistral AI ou OpenAI, sont particulièrement puissants et polyvalents. Le règlement impose des exigences spécifiques pour ces systèmes, allant de la transparence minimale à des évaluations de risques approfondies. En effet, ces modèles, en raison de leur capacité à accomplir une multitude de tâches, présentent des risques importants, comme des accidents majeurs ou des biais systémiques.
Une gouvernance structurée à deux niveaux
Pour assurer une application cohérente et efficace du règlement, une gouvernance est mise en place à deux niveaux :
- Au niveau européen : Le Comité européen de l’IA, composé de représentants des États membres, supervisera la mise en œuvre du règlement. Ce comité sera épaulé par un forum consultatif, rassemblant divers acteurs du secteur, et un groupe scientifique d’experts indépendants, qui fourniront des conseils éclairés.
- Au niveau national : Chaque État membre désignera une ou plusieurs autorités compétentes pour surveiller la mise en œuvre du règlement sur son territoire. Ces autorités auront un rôle clé dans la régulation des systèmes d’IA, et devront collaborer étroitement avec les autres États membres ainsi qu’avec la Commission européenne.
Un calendrier d’application progressif
Le règlement sur l’IA entrera progressivement en application à partir du 1er août 2024. Les premières mesures, concernant les interdictions de systèmes d’IA présentant des risques inacceptables, seront effectives dès février 2025. L’application complète du règlement, notamment pour les systèmes à haut risque, est prévue pour août 2027. Ce calendrier progressif vise à laisser le temps aux entreprises de s’adapter aux nouvelles exigences, tout en garantissant une protection accrue pour les utilisateurs.
En résumé
Le règlement européen sur l’intelligence artificielle marque une étape importante dans l’encadrement des technologies d’IA en Europe. Pour les entrepreneurs, il est essentiel de se familiariser avec ces nouvelles règles, car elles influenceront le développement et l’utilisation des systèmes d’IA dans de nombreux secteurs. Bien que contraignantes, ces régulations sont conçues pour favoriser une innovation responsable et sécurisée, tout en renforçant la confiance du public dans ces technologies émergentes.
0 Comment