L'Union européenne (UE) a franchi une étape importante dans la définition du futur de l'intelligence artificielle (IA) en rédigeant la "Proposition de règlement établissant des règles harmonisées concernant l'intelligence artificielle" (EU AI Act), qui constitue le premier cadre complet au monde consacré à la réglementation de l'utilisation de l'IA. Le Luxembourg Institute of Science and Technology (LIST) est engagé dans une démarche de sensibilisation par le biais de ses recherches scientifiques dans le domaine auprès de ses partenaires et du public afin de se conformer à la législation de l'UE sur l'IA, qui devrait être approuvée d'ici la fin de 2023 et entrer en vigueur en 2026.
Avec les avancées fulgurantes de la technologie de l'IA, l'UE reconnaît l'importance de maintenir des normes éthiques et de préserver les droits et la sécurité de ses citoyens. Le réglement sur l'IA devrait établir un cadre solide visant à trouver un équilibre entre la promotion de l'innovation et la garantie d'un développement responsable de l'IA. Cette législation novatrice fixe des règles et des obligations claires pour les systèmes d'IA, dans des domaines essentiels tels que la transparence, la responsabilité, la gouvernance des données et les droits fondamentaux. Pour ce faire, la loi s'appuie sur une approche fondée sur les risques, classant les systèmes d'IA selon différents niveaux de risque.
Le règlement européen sur l'IA s'appliquera à tous les fournisseurs et utilisateurs de systèmes d'IA, qu'ils soient établis à l'intérieur ou à l'extérieur de l'UE, dès lors que les résultats produits par le système sont utilisés dans l'Union ou ont une incidence sur les citoyens de l'UE. Plusieurs niveaux de risque sont visés. Les systèmes d'IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. Il s'agit par exemple de la manipulation cognitive du comportement de personnes ou de groupes vulnérables spécifiques, de la notation sociale et des systèmes d'identification biométrique en temps réel et à distance. Les systèmes d'IA à haut risque sont ceux qui peuvent présenter un risque significatif d'atteinte à la santé, à la sécurité ou aux droits fondamentaux, en particulier lorsque ces systèmes fonctionnent comme des composants numériques de produits.
Samuel Renault, Head of AI & Data Analytics lab ad interim au LIST, explique:
"Le règlement européen sur l'IA fixe des exigences strictes pour les systèmes d'IA à haut risque en ce qui concerne la qualité des ensembles de données utilisés, la documentation technique et l'archivage, la transparence et la fourniture d'informations aux utilisateurs, la supervision humaine, la robustesse, la précision et la cybersécurité. Au sein du LIST, nous développons des méthodes et des technologies pour aider les organisations à répondre à ces critères."
Compte tenu de la nature des systèmes d'IA et des risques pour la sécurité et les droits fondamentaux qui peuvent être associés à leur utilisation, la loi sur l'IA prévoit également des responsabilités spécifiques pour les utilisateurs de systèmes à haut risque. Il s'agit par exemple d'informer le fournisseur ou le distributeur de tout risque ou incident lié à l'utilisation de systèmes d'IA et de suspendre l'utilisation du système ou d'utiliser ces systèmes conformément aux instructions.
Dans le cas du ChatGPT, les IA génératives devront se conformer aux exigences de transparence.
Et Samuel Renault d'ajouter :
“Les modèles génératifs devront indiquer que le contenu a été généré par l'IA, concevoir le modèle de manière à éviter qu'il ne produise des contenus illégaux et publier des résumés des données protégées par le droit d'auteur utilisées pour la formation. Cela représente un défi pour les concepteurs de systèmes d'IA que le LIST peut aider à relever.”
Enfin, les systèmes d'IA à risque limité devront se conformer à des exigences minimales en matière de transparence. Ces modèles comprennent les systèmes d'IA qui génèrent ou manipulent du contenu image, audio ou vidéo, par exemple les "deepfakes".
L'AI Act vise à promouvoir une IA centrée sur l'humain et fiable, en introduisant des obligations pour les fournisseurs et ceux qui déploient des systèmes d'IA, tout en proposant d'interdire toute utilisation intrusive, manipulatrice et discriminatoire de la technologie.
Alexandru Tantar, Responsable du groupe de recherche Trustworthy AI au LIST, indique :
“L'IA fiable fait référence au développement et au déploiement de systèmes conçus pour fonctionner de manière fiable, responsable, transparente et éthique, dans le but de gagner et de conserver la confiance des utilisateurs et du grand public. Le texte souligne l'importance du contrôle humain et de la surveillance des systèmes d'IA, tout en faisant appel à des dimensions telles que la résilience et l'explicabilité. Elle reconnaît que les individus doivent avoir le pouvoir de décision final et que l'IA doit être conçue pour augmenter les capacités humaines et non pour remplacer le jugement humain.”
Dans ces conditions, les systèmes d'IA doivent être transparents et explicables, afin que les utilisateurs et les personnes concernées puissent comprendre le fonctionnement de l'IA et le raisonnement qui sous-tend ses décisions. Le LIST a plusieurs projets en cours et à venir qui portent sur l'explicabilité des modèles d'IA.
Nous avons tous des préjugés qui influencent subtilement notre façon de penser. Les processus de recrutement traditionnels peuvent être influencés par plusieurs partis pris, tels que les biais inconscients liés aux origines, au genre, à l'âge et à d'autres critères sociaux, ainsi que le biais d'affinité, qui nous incite à rechercher des personnes qui nous ressemblent, qui pensent et qui agissent de la même manière que nous. Un intérêt croissant se manifeste pour de nouveaux moyens de réduire les préjugés. Ainsi, l'utilisation de l'IA est de plus en plus répandue. Cependant, dans leur forme et leur développement actuels, ces outils ne peuvent pas être formés pour identifier uniquement les caractéristiques liées à un poste et éliminer les discriminations du processus d'embauche. Récemment, certaines entreprises ont constaté que ces outils pouvaient détecter le genre dans les CV et exercer une discrimination à l'encontre des candidates.
Si les outils d'IA actuellement utilisés pour le recrutement présentent de nombreuses lacunes, celles-ci peuvent être corrigées. L'avantage de l'IA, c'est que nous pouvons la configurer de manière à ce qu'elle réponde à certaines spécifications utiles. C'est le cas, par exemple, d'Amanda, récemment mis au point par la LIST.
Marie Gallais, Leader du groupe Human Modelling and Knowledge & Engineering au LIST, commente :
“La technologie unique de LIST permet non seulement de décomposer les risques de biais en identifiant leurs éléments constitutifs à l'aide de modèles dits FAIR, mais aussi de donner à tous les utilisateurs finaux les moyens de prendre des décisions éclairées grâce à une solution d'IA explicable innovante, donnant un retour d'information détaillé sur les résultats obtenus. Cette évolution vers des technologies plus éthiques et inclusives sera dévoilée à travers le cas d'usage des processus de recrutement de masse.”
Comme précédemment avec le Règlement général sur la protection des données (RGPD), pour lequel le LIST a joué un rôle actif dans la sensibilisation et la mise en place d'outils, les entreprises devront se conformer à cette prochaine réglementation de l'UE liée à leur utilisation de systèmes assistés par l'IA. Le LIST s'engage à soutenir les acteurs luxembourgeois en les sensibilisant par le biais de formations dédiées ou en développant des technologies qui répondent aux exigences de ce règlement dans le cadre de projets collaboratifs avec des entreprises partenaires.