Franz FAYOT et Max LENERS
Le potentiel disruptif de l’intelligence artificielle (IA) a été révélé au grand jour avec l’émergence de ChatGPT à la fin de 2022. L’IA est la prochaine révolution industrielle, dans tous les domaines: mobilité, industrie, santé, énergie, industries créatives – scénaristes et maintenant acteurs en grève depuis des mois à Hollywood. Ce ne sont plus uniquement les ouvriers dans les usines qui sont remplacés par des robots… tout le monde est concerné – de l’avocat à l’écrivain, en passant par les chauffeurs de taxi et les serveurs dans les restaurants. C’est en cela que cette révolution industrielle-ci est inédite.
La loi de Moore[1] est invalidée par la combinaison d’une puissance de calcul des semi-conducteurs et des algorithmes toujours plus performants – les possibilités sont désormais illimitées. Un mathématicien nous confiait récemment que l’éventualité d’un point de singularité où la machine prend le contrôle n’est pas exclue, si elle est programmée pour le faire. Des scénarios à la Matrix ou autres lendemains dystopiques viennent à l’esprit.
L’avertissement d’un groupe d’experts en IA dans un one-liner alarmiste, mettant les dangers de l’IA à égalité avec le potentiel apocalyptique d’une pandémie ou d’un annihilissement nucléaire nous rappelle qu’il y a des choix à faire pour l’humanité, et que rien n’est écrit d’avance[2].
Cet avertissement, dans une parfaite concordance des temps, fait écho à Oppenheimer, film fascinant qui narre la course à la bombe atomique pendant la deuxième guerre mondiale, en pleine connaissance du changement radical qu’elle allait apporter aux rapports humains et à l’équilibre entre les nations. De la même manière que l’avènement de la bombe atomique était inéluctable dans le contexte géopolitique de l’époque, il est illusoire de penser à un moratoire sur l’IA.
La vision de Ray Kurzweil de la « singularité », le point dans le futur où l’intelligence artificielle dépassera l’homme, le point à partir duquel une vitesse accélérée de l’« innovation » se produira quasi automatiquement et de façon incontrôlable, est effrayante[3]. En combinaison cette incontrôlabilité avec les possibilités offertes par les nouvelles armes high-tech, la multiplication des systèmes autocratiques et les actuels tensions internationales, il importe donc d’encadrer et de réglementer l’IA pour en faire une force œuvrant pour le bien commun de l’humanité.
Trois approches face à l’IA se dessinent actuellement, comme l’a récemment rappelé Anu Bradford dans un podcast avec le Financial Times[4]:
Une première approche très libérale, voire libertaire, refusant toute immixtion dans le développement technologique de l’IA – celle des États-Unis.
Une deuxième, voyant l’IA comme un instrument de surveillance de la population, à développer dans l’intérêt d’une gouvernance centraliste – l’approche de la Chine.
Et la troisième voie – celle de l’UE – considérant l’IA comme une technologie avec des risques et des opportunités, qui doit être encadrée en adéquation avec les valeurs européennes pour servir au mieux les intérêts de la société.
C’est assurément cette troisième voie qui est la bonne, et nous refusons tout plaidoyer pour une « neutralité technologique » au prétexte fallacieux que d’autres acteurs et pays feront de toute manière de l’IA un usage nocif, et qu’il ne faudrait donc pas être naïfs et brimer ces développements, dans quelque sens qu’ils aillent. Les dilemmes, scrupules et espoirs exprimés par Oppenheimer à la suite du développement de la bombe ressurgissent à nouveau comme un « cautionary tale » – mieux vaut prévenir que guérir l’inguérissable !
Une stratégie luxembourgeoise
Le Luxembourg dispose pour l’heure d’une ébauche de stratégie sur l’IA qui date de 2019 (!) – une éternité pour cette nouvelle technologie – qui ne tient bien sûr pas compte des dernières évolutions notamment en matière d’IA générative.
Il est pourtant essentiel que le Luxembourg se dote d’une vraie stratégie en la matière, qui encadre aussi bien les risques et qui désigne les domaines où on ne veut pas des robots. Une stratégie qui aborde sereinement les questions d’éthique et qui insiste sur l’importance que les œuvres (textes, images…) produites à partir d’IA soient clairement identifiables.
Vu que l’IA élabore elle-même son algorithme, le Luxembourg devrait s’engager au niveau international afin que la manière dont ces plates-formes sont programmées, « entraînées » et avec quelles données alimentées, soit impérativement rendue publique. Il faut absolument poursuivre les approches d’une IA « auto-explicative », donc d’une IA qui peut expliquer son processus d’apprentissage ainsi que sa prise de décision.[5]
Or, en parallèle, une stratégie luxembourgeoise devrait aussi tirer pleinement profit des opportunités que l’IA nous offre.
Ceci est d’ailleurs dans le droit fil des efforts du Luxembourg à être une nation digitale : centres de données, high performance computer, cyber sécurité, plateforme nationale de données, cloud souverain, stratégies comme Ons Wirtschaft vu Muer qui propose de mettre le digital au service de la société et du développement durable. Le Luxembourg fait partie des 20% des Etats au monde à être prêts pour la révolution de l’IA, et est parmi les seuls Etats membres de l’UE à mettre la puissance de calcul de son super ordinateur, MeluXina, à disposition des entreprises privées.
Il va donc de soi que le Luxembourg développe une feuille de route pour le déploiement de l’IA dans le pays, couvrant aussi bien les secteurs public que privé.
Dans cette réflexion, il faudra tenir compte des grandes priorités et des besoins du pays: le défi climatique, le logement, la mobilité, la santé, une plus grande autonomie alimentaire, une diversification économique en phase avec les enjeux de la décarbonation, la préservation de la nature et la sécurité.
Pourquoi ne pas prioriser les application IA dans le développement de techniques de construction circulaires, utilisant les matériaux de construction disponibles, en tirant profit de l’économie de données? Nous sommes d’ores et déjà engagés sur cette voie avec le Product circularity data sheet, et certaines entreprises s’y intéressent fortement.
Pourquoi ne pas devenir le laboratoire de la santé digitale, assistée par l’IA pour accélérer la médecine personnalisée et préventive ?
Pourquoi ne pas devenir le banc d’essai européen pour les véhicules autonomes transfrontaliers? Notre pays s’y prête comme aucun autre.
Le point est que le Luxembourg a une carte unique à jouer pour faire de l’IA un instrument efficace pour se transformer tout en restant ce que nous sommes: un pays convivial, ouvert au monde et une société soucieuse de son bien-être, sans être repliée sur soi-même.
L’IA va changer radicalement notre société. Ainsi, les décisions concernant l’utilisation de l’IA ne doivent pas être laissées entre les mains de quelques-uns. En tant que société, en tant que pays, nous devons décider jusqu’où nous voulons utiliser cette technologie, en nous donnant une stratégie laquelle doit encadrer les risques sans ignorer les opportunités.
À lire églaement sur Paperjam: https://paperjam.lu/article/luxembourg-doit-se-doter-vraie
[1] Gordon Moore a été cofondateur de la société Intel et a affirmé en 1965 que le nombre de transistors par circuit de même taille allait doubler, à prix constants, tous les dix-huit mois. Il en déduisit que la puissance des ordinateurs allait croître de manière exponentielle, et ce pour des années. Cependant selon lui, en 2017 cette croissance de performances des puces devrait s’arrêter environ en 2017, à cause de la limite physique des atomes.
[2] cf. Geneva Abdul: Risk of extinction by AI should be global priority, say experts, Guardian, 30 mai 2023.
[3] cf. Raymond Kurzweil / Martin Rötzschke : Menschheit 2.0 : die Singularität naht, 2. Auflage, Lola Books, 2014.
[4] cf. Rachman Review: How much should we fear artificial intelligence?, FT Podcast, 6 juillet 2023.
[5] cf. Franzisak Heinisch / Claudia Langer / Harald Lesch: Ihr habt keinen Plan darum machen wir einen: 10 Bedingungen für die Rettung unserer Zukunft, Blessing, 2019, p. 229.