L'IA : entre révolution et menace - un point de vue du recteur de l'Université du Luxembourg

Steve Johnson, Unsplash
L'intelligence artificielle est aujourd'hui une tendance technologique majeure. Cependant, le terme "IA" est tellement utilisé qu'il en perd parfois son sens. Jens Kreisel, recteur de l'Université du Luxembourg, donne l'exemple d'une brosse à dents annoncée comme "pilotée par l'IA". Pour lui, il s'agit d'un cas typique de matraquage publicitaire.
Néanmoins, l'impact de l'IA sur la science et la société est évident. En 2023, les prix Nobel de chimie et de physique ont été décernés pour des recherches liées à l'IA, soulignant son importance dans les découvertes modernes. L'IA n'est plus l'apanage d'un cercle restreint de spécialistes, elle est à la portée de tous. Grâce à ChatGPT ou à d'autres outils, nous interagissons avec de puissants superordinateurs et analysons de grandes quantités de données.
L'idée de l'IA existe depuis les années 1950, mais elle est longtemps restée une discipline essentiellement académique. Dans les années 1980, le développement s'est arrêté - cette période est même appelée "l'hiver de l'IA" en raison des réductions de financement. La percée s'est produite lorsque l'IA a fusionné avec l'informatique haute performance et l'analyse des données massives (big data). Les algorithmes modernes d'apprentissage automatique, tels que l'apprentissage profond, ont appris à traiter d'énormes quantités d'informations et à faire des prédictions précises.
Il y a vingt ans, les spécialistes de l'IA, du calcul intensif et de l'analyse de données travaillaient en vase clos. Aujourd'hui, ces trois domaines ont fusionné en un seul continuum numérique qui est devenu un outil indispensable pour la science et les entreprises.
Auparavant, la recherche dans ce domaine était financée par des fonds publics, mais la situation a changé. De grands modèles linguistiques tels que ChatGPT sont désormais développés dans le secteur privé. Dans la liste des 100 personnes les plus influentes dans le domaine de l'IA publiée par Time, presque toutes sont issues du monde de l'entreprise. Il y a vingt ans, la plupart d'entre elles auraient été des universitaires.
Malgré la prédominance du secteur privé, la frontière entre la science et l'entreprise s'estompe. Par exemple, Jeffrey Hinton, lauréat du prix Nobel de physique, a travaillé à la fois à l'université de Toronto et à Google Brain, et Demis Hassabis, lauréat du prix de chimie, est PDG de Google DeepMind. Cela démontre que l'IA est le fruit d'une coopération étroite entre les entités publiques et privées.
Dans une interview accordée à Luxinnovation, Jens Kreisel qualifie l'IA de "technologie clé" qui accélère la recherche interdisciplinaire. Les problèmes scientifiques actuels - par exemple l'impact de l'environnement sur la santé - ne peuvent être résolus dans le cadre d'une seule discipline. 80 % de la recherche interdisciplinaire à l'Université du Luxembourg est basée sur les données, l'IA ou les superordinateurs.
L'IA a déjà changé la finance, le droit, la fabrication et la cybersécurité, mais les changements les plus radicaux sont attendus dans les domaines de la biotechnologie et de la médecine. L'intégration de l'IA dans les sciences de la vie ouvrira de nouveaux horizons - des découvertes médicales aux innovations en matière de soins de santé.
Malgré les formidables opportunités qu'elle offre, l'IA comporte également de sérieux risques. L'un d'entre eux est le niveau élevé de consommation d'énergie. Actuellement, l'industrie informatique est responsable de 2,5 % des émissions mondiales de CO₂, et ce chiffre ne fera qu'augmenter. Des innovations sont nécessaires pour améliorer l'efficacité énergétique : création de centres de données "verts", optimisation des puces informatiques et des algorithmes.
Mais le plus grand danger de l'IA est lié à la démocratie. Les faux et la désinformation, y compris les vidéos "deepfake", sont de plus en plus difficiles à détecter. Auparavant, les fausses informations se propageaient lentement, mais aujourd'hui, les médias sociaux et les intérêts commerciaux amplifient cet effet. Une désinformation rapide et massive menace la viabilité des processus démocratiques.
Certains craignent que l'IA ne devienne consciente et ne devienne incontrôlable, mais Jens Kreisel estime que ces craintes sont prématurées. La conscience humaine n'est pas seulement liée au traitement des données, mais aussi aux sensations physiologiques, aux émotions et à la capacité de réfléchir aux conséquences à long terme. Toutefois, le développement de l'IA nécessite une attention particulière et une réglementation réfléchie.
L'IA peut profiter à n'importe quelle industrie, mais sa mise en œuvre nécessite une approche stratégique. L'Université du Luxembourg met l'accent sur plusieurs principes clés.
Tout d'abord, les meilleures idées viennent des employés qui travaillent sur des problèmes réels, qu'il s'agisse de la finance ou des ressources humaines. La direction ne devrait pas mettre en œuvre l'IA du haut vers le bas - il est plus important de prendre en compte les besoins de ceux qui utilisent les données au quotidien.
Deuxièmement, la phase d'expérimentation est importante. Il faut donner aux gens la possibilité d'apprendre les outils d'IA par eux-mêmes, de les tester dans leur domaine et seulement ensuite d'évaluer l'impact sur les performances.
Troisièmement, il est essentiel de former les employés. L'expérience montre qu'après les premiers tests, les gens se sentent plus confiants pour travailler avec l'IA.
Enfin, il convient de respecter ceux qui ne sont pas encore prêts à utiliser l'IA. Il s'agit d'une transformation organisationnelle fondamentale, et tout le monde n'est pas capable ou désireux de s'y adapter immédiatement.