1. Home
  2. Actu
  3. «ChatGPT et d’autres intelligences artificielles sont des boîtes noires»

Rétrospective: l'année 2023

«ChatGPT et d’autres intelligences artificielles sont des boîtes noires»

2023 restera l’année de l’irruption de l’intelligence artificielle (IA) dans la vie de millions d’êtres humains, surtout via le programme de bavardage ChatGPT. Mais pour le président de l’EPFL, Martin Vetterli, ces technologies doivent être finement encadrées.

Partager

Conserver

Partager cet article

Le supercalculateur Alps du Swiss National Supercomputing Centre (CSCS)

Refroidi par les eaux du lac de Lugano, le supercalculateur Alps du Swiss National Supercomputing Centre (CSCS) sera, dès février 2024, au service de l’intelligence artificielle made in Switzerland pour une IA garantie 100% transparente et fiable.

Catherine Leutenegger/EPFL, Marco Abram/CSCS

- Dans une interview passionnante parue dans le supplément du «Tages-Anzeiger» le printemps dernier, vous disiez que l’expression «intelligence artificielle» vous semblait trop «marketing». Vous lui préférez «apprentissage automatique».
- Martin Vetterli: Oui. Disons que les chercheurs préfèrent «machine learning», qu’on traduit en français par «apprentissage automatique», à «intelligence artificielle», une expression plus accrocheuse, plus marchande.

- Dans cette même interview, vous étiez sévère à l’égard de ChatGPT, estimant que c’est un outil de mauvaise qualité...
- Je rappelle que cette interview date de ce printemps, c’est-à-dire dans les premiers mois de la mise à disposition de ce robot conversationnel. Je suis plus nuancé aujourd’hui. L’efficacité et la puissance de cet outil, et celles de ses plus récents concurrents, sont bel et bien impressionnantes, même si certains résultats sont bizarres, voire erronés – on parle même d’hallucinations. Mais le plus délicat, c’est qu’ils posent des questions fondamentales encore sans réponse. Personne, par exemple, ne sait comment cela fonctionne vraiment. Ce sont des boîtes noires. Et pour un scientifique, cette étrangeté, cette opacité, fait forcément problème.

- Et cette nouvelle génération d’applications informatiques surpuissantes se développe aussi de manière indépendante, voire anarchique, sans cadre légal.
- Cette question de la gouvernance me semble la plus fondamentale. Nous voyons depuis des années que Google, Facebook, Microsoft (l’un des investisseurs majeurs d’OpenAI, créateur de ChatGPT) et autres géants du numérique se nourrissent gracieusement de contenus au détriment de leurs créateurs, notamment des médias. Il faudrait enfin établir un «business model» équitable. Or ces géants s’y opposent catégoriquement. Sachant que le régulateur sera toujours en retard et que le grand public devient très vite dépendant à leurs outils, ils développent le plus vite possible des produits imparfaits, qui sont très discutables sur le plan du respect des droits d’auteur notamment, et les mettent à disposition même imparfaits. En plus de piller les créateurs de contenus, ils exploitent donc aussi les utilisateurs, qui testent et essuient les plâtres!

- Comment organiser plus équitablement cette fuite en avant technologique à but lucratif? 
- Je ne suis pas sûr qu’on puisse «organiser la fuite en avant». J’appelle de mes vœux une prise de conscience générale de la société. Je m’étonne que celle-ci paraisse aussi candide par rapport à cet accaparement technologique et économique. Et je m’étonne tout autant qu’on laisse les réseaux sociaux mettre en péril le fonctionnement des démocraties, comme on a pu le vérifier lors de certaines élections. En tant que scientifique, je souhaite que les sociétés démocratiques s’engagent vers l’avenir avec les yeux ouverts. Or j’ai le sentiment qu’elles avancent les yeux fermés, à cause notamment de décideurs politiques très conciliants vis-à-vis de ces géants du numérique qui visent plus les profits faramineux que le bien commun. Je plaide donc pour une approche scientifique en parallèle à un développement rapide à but lucratif. Une approche scientifique où la notion de bien commun fait partie intégrante de l’approche technologique.

- Vous êtes donc globalement pessimiste sur les bénéfices à attendre de l’essor de l’IA?
- Non. Je me définis comme un scientifique optimiste, mais avec un certain pessimisme technologique. La science avance et l’intelligence artificielle y contribue désormais, parfois de manière décisive. Ainsi, DeepMind a percé il y a trois ans le secret de la structure en trois dimensions du pliage des protéines, un secret que les biochimistes tentaient de découvrir depuis des décennies. C’est une prouesse extraordinaire. Je suis en revanche pessimiste quand il s’agit de l’implémentation de la technologie dans la société. Car le critère du bénéfice financier des acteurs et des actionnaires prime le plus souvent sur les avantages apportés à la collectivité.

- Et si on confiait à l’intelligence artificielle le soin de résoudre cette malédiction de la répartition inéquitable des profits financiers qu’elle génère elle-même?
- (Rires.) On buterait alors sur le fonctionnement de base de l’IA: celle-ci apprend grâce à l’énorme quantité de données qu’on lui donne à traiter. Or, en l’occurrence, comme il n’existe qu’un seul modèle économique dominant, elle proposera des pistes conformes au modèle libéral actuel. Si on avait pu demander à ChatGPT avant la Révolution française de nous suggérer un système politique et social idéal, il aurait répondu qu’il faut un roi, une aristocratie, etc.

- Nous sommes donc encore loin de ce qu’on appelle une IA «forte» (ou «générale»), réellement capable d’invention, de créativité?
- Aujourd’hui, grâce à l’immensité des bases de données désormais à disposition et grâce à l’énorme puissance de calcul des ordinateurs, l’IA est capable de trouver des corrélations dans ces masses de données pour en déduire et vous raconter quelque chose d’apparemment très raisonnable. Mais – et c’est là que c’est inquiétant – quelque chose de statistiquement très raisonnable peut en fait être complètement faux. Or la science a comme mission, très difficile, de dépasser le simple stade de la simple corrélation pour parvenir à celui, bien plus exigeant, de la causalité.

- Votre propre trajectoire scientifique a commencé, vers 1980, dans le domaine du traitement numérique du signal, c’est-à-dire dans l’apprentissage automatique. C’était la préhistoire de l’IA, ce que vous développiez à cette époque en Californie?
- Le traitement du signal (par exemple de l’image ou du son) a conduit à des méthodes adaptatives qui sont une forme d’apprentissage. Donc je m’intéressais aux algorithmes d’apprentissages, et j’ai suivi les périodes fastes des premières intelligences artificielles, qui ont été suivies de périodes d’hibernation, en raison des résultats globaux plutôt décevants. A propos de ces systèmes très complexes qui se mettaient en place, on se disait déjà à l’époque que cela pourrait peut-être marcher un jour, mais qu’on ne comprendrait pas comment ni pourquoi. Tout cela m’était inconfortable et j’ai passé à des sujets mieux posés (les ondelettes). Il faut aussi rappeler que personne n’avait anticipé qu’internet fournirait des masses énormes de données, notamment grâce aux milliards d’internautes qui, en plus des médias, les donnent et annotent gratuitement. Les algorithmes se sont également beaucoup améliorés. Enfin, il y a la puissance de calcul des ordinateurs qui double tous les dix-huit mois en moyenne. Vous combinez ces trois avancées et cela donne une sorte de réaction en chaîne nucléaire.

- Face à une telle révolution, qui implique des espoirs mais aussi des dangers, une grande école scientifique comme l’EPFL doit-elle prendre des précautions?
- Les grandes écoles scientifiques en Europe et en Amérique sont conscientes de leur devoir de promouvoir une IA responsable. Qu’est-ce que c’est qu’une IA «responsable»? C’est une IA dont on comprend le fonctionnement, une IA dont on connaît les algorithmes et les données qu’elle utilise. En un mot, c’est une IA transparente et ouverte, contrairement à ChatGPT par exemple.

- Voilà pourquoi l’EPFL et l’EPFZ viennent de lancer conjointement l’initiative Swiss AI.
- Oui. Avec le nouveau supercalculateur Alps de Lugano, qui va entrer en service en février prochain, l’idée consiste à produire de l’IA suisse responsable, transparente et dont le code est en open source, c’est-à-dire disponible gratuitement et intégralement. A l’EPFL, des démarches en IA respectant ces règles existent déjà; le projet Meditron-70B, par exemple, qui est un assistant médical pouvant donner des avis basés sur la littérature scientifique et sur des diagnostics médicaux validés par des institutions fiables comme le CICR. Nous n’en sommes qu’au début, mais je suis très impressionné par les premiers résultats.

- Vivons-nous vraiment le début d’une nouvelle ère?
- J’en suis certain. Ici, à l’EPFL, il n’y a plus un seul domaine d’études où l’IA n’est pas utilisée. C’est un outil méthodologique qui est en train de transformer la science.

- Quel conseil très général donnez-vous aux citoyennes et citoyens pour se glisser du mieux possible dans cette nouvelle ère de l’IA?
- Je les encourage à garder de l’esprit critique. A garder de la distance vis-à-vis de ces nouveautés et à ne pas se dire «si l’outil semble meilleur que moi, il n’y a plus de raison de le faire moi-même». Prenez par exemple le jeu d’échecs. Depuis plus de vingt ans, les meilleurs joueurs du monde sont en fait des programmes informatiques. Cela n’empêche pas les pratiquants de ce jeu d’être plus nombreux que jamais. Cela n’altère absolument pas le plaisir de ces millions de joueuses et de joueurs de jouer entre eux, entre êtres humains. 

Par Philippe Clot publié le 28 décembre 2023 - 23:49