Alors que l’intelligence artificielle s’impose dans tous les pans de la société, Francesco Ferrero plaide pour une approche éthique, frugale et centrée sur l’humain. Entretien.
Quels sont aujourd’hui les principaux défis pour développer et déployer l’IA de manière responsable ?
L’IA transforme la société à une vitesse sans précédent : emploi, éducation, créativité, régulation… tout est concerné. Sur le marché du travail, les tâches routinières et répétitives sont de plus en plus automatisées, tandis que de nouveaux métiers apparaissent dans la supervision, la créativité ou la prise de décision.
Le véritable enjeu est d’adopter une approche de copilote, où l’IA assiste l’humain plutôt que de le remplacer.
L’éducation évolue elle aussi. Les outils d’IA générative modifient les méthodes d’enseignement et d’apprentissage, mais une dépendance excessive pourrait nuire à la créativité et à l’esprit critique. Or, la créativité, l’empathie et le lien humain demeurent des qualités proprement humaines ; l’IA doit les renforcer, non les éclipser.
Autre défi majeur : la compréhension et la confiance du public. Le rythme fulgurant du progrès technologique peut susciter la peur. Pour que l’IA réussisse, il faut que la société la comprenne, l’accepte et s’y engage de manière sûre et éthique.
Comment les politiques publiques et les cadres éthiques peuvent-ils suivre le rythme de l’innovation ?
Faire évoluer la régulation au même rythme que la technologie est un défi permanent, qui demande agilité et coopération. L’AI Act, par exemple, a dû être ajusté rapidement après l’apparition de ChatGPT.
L’approche européenne reste néanmoins singulière : elle cherche à trouver le juste équilibre entre innovation et régulation. L’IA est trop puissante pour être laissée sans garde-fous. Avec l’AI Act et le RGPD, l’objectif est de promouvoir une intelligence artificielle éthique, fiable et centrée sur l’humain.
La priorité désormais est la mise en œuvre concrète : transparence, traçabilité et accompagnement pratique sont essentiels. Des environnements de confiance, comme les data spaces ou les AI sandboxes, permettent de traduire ces principes dans la réalité.
L’IA a-t-elle un coût environnemental sous-estimé ?
Oui. Les grands modèles d’IA consomment énormément d’énergie et d’eau, notamment dans les centres de données. Et le manque de transparence complique l’évaluation : peu de grands acteurs publient des données détaillées sur leur empreinte énergétique ou carbone, rendant toute comparaison indépendante difficile.
La logique du « plus grand, c’est mieux » — celle des modèles géants à usage général — n’est ni financièrement ni écologiquement soutenable. L’avenir réside dans des modèles plus petits, spécialisés, capables d’offrir des performances similaires pour une empreinte bien moindre.
Cette approche de « frugal AI » n’est pas seulement écologique : elle est aussi économiquement rationnelle, réduisant les coûts pour les entreprises comme pour les administrations publiques.
Quels atouts ou enjeux spécifiques le Luxembourg présente-t-il dans la construction d’un écosystème d’IA ?
Le Luxembourg bénéficie d’un ensemble d’atouts remarquables pour développer une IA responsable. Ses infrastructures de pointe — supercalculateurs MeluXina (bientôt MeluXina-AI), centres de données performants, connectivité haut débit — offrent un terrain idéal pour la recherche et l’innovation.
La taille compacte du pays constitue un avantage : elle permet de tester et déployer rapidement de nouvelles solutions dans des conditions réelles, en toute sécurité. Cette échelle favorise aussi la collaboration étroite entre chercheurs, régulateurs et industriels, gage d’agilité et de réactivité.
Enfin, le Luxembourg mise stratégiquement sur des secteurs où l’IA peut apporter à la fois une valeur économique et sociétale, un équilibre rare en Europe.
Quels projets du LIST illustrent cette vision d’une IA éthique et centrée sur l’humain ?
Au LIST, chaque projet s’inscrit dans une démarche de transparence, de frugalité et d’ouverture. L’un des exemples phares est l’AI Sandbox, un environnement où les entreprises peuvent tester leurs modèles sur le plan technique, réglementaire et éthique : détection des biais, analyse des hallucinations, inclusion linguistique, etc.
Nous avons notamment collaboré avec la Banque Internationale à Luxembourg (BIL) pour évaluer ses chatbots bancaires, afin d’en garantir la fiabilité, l’équité et la supervision humaine.
Autre axe majeur : la démocratisation de l’accès à l’IA. Grâce à des plateformes low-code et no-code comme BESSER, nous permettons à des utilisateurs non techniques de créer leurs propres applications d’IA, accélérant ainsi la transformation numérique des PME et startups.
Le LIST est également partenaire fondateur de la Luxembourg AI Factory, aux côtés de LuxProvide, LuxInnovation, l’Université du Luxembourg, le LNDS et d’autres acteurs. Cofinancée par la Commission européenne et le gouvernement luxembourgeois, cette structure accompagne les entreprises tout au long de leur parcours en IA — de la conception au déploiement — en leur offrant expertise, formation et accompagnement sur mesure.
Comment imaginez-vous l’évolution de l’IA dans les cinq prochaines années ?
L’IA continuera d’évoluer à une vitesse vertigineuse. Nous pourrions bientôt atteindre un point où les modèles deviendront capables d’auto-amélioration, accélérant le progrès d’une manière difficile à prévoir. Cette perspective est prometteuse, mais elle comporte aussi des risques majeurs, tant sur le plan social qu’économique.
Ce qui m’inquiète le plus, c’est que le développement de l’IA est aujourd’hui dominé par un petit nombre d’acteurs privés ou étatiques, dont les objectifs ne coïncident pas toujours avec l’intérêt collectif.
Notre ambition, au LIST, n’est donc pas de créer plus d’IA, mais de créer une meilleure IA — éthique, transparente, durable et bénéfique pour la société.



