IA : un prix Nobel en guise de mise en garde ?
John Hopfield et Geoffrey Hinton ont reçu le prix Nobel de physique, au titre de précurseurs de l'intelligence artificielle (IA). Ces deux chercheurs avaient eux-mêmes exprimé des craintes quant aux applications potentielles de leurs travaux. La presse européenne s'empare de la question.
L'équivalent de la bombe atomique
Dans La Repubblica, Paolo Bennati, conseiller du pape François sur les questions d'éthique en matière de technologie, lance une mise en garde :
«Le résultat final pourrait être une bombe. Pas une bombe qui détruira des bâtiments ou des villes, mais, avec la version linguistique des GPTs et d'autres IA génératives, un explosif qui fera sauter le ciment culturel du vivre ensemble, s'il est utilisé pour accentuer la polarisation et produire des fake news. C'est peut-être aussi pourquoi Geoffrey Hinton a quitté Google en 2023, après avoir passé dix ans au sein de l'entreprise. ... Lors de sa démission, il s'était inquiété du fait que l'IA puisse être utilisée par des acteurs malintentionnés à des fins néfastes, comme la manipulation des électeurs ou la propagande militaire, et avait comparé sa situation à celle de Robert Oppenheimer en son temps.»
Le comité Nobel veut favoriser le débat
Le prix est remis cette année à un scientifique qui met lui-même en garde contre les conséquences potentielles de ses propres travaux, ce qui n'est pas banal, souligne le quotidien Tagesspiegel :
«Paul Berg, chercheur [en génétique, récompensé en 1980] et décédé l'année dernière à un âge avancé, avait fini par obtenir que les recherches et les applications génétiques soient davantage régulées, et contribué à ce que les opinions publiques de la plupart des Etats entretiennent des avis éclairés sur ces questions. Pour l'IA, il est déjà trop tard. Car les applications de l'IA sont déjà partout, depuis longtemps, et les entreprises à la pointe de cette technologie comptent parmi celles aux cotations boursière les plus élevées. ... Mais en décernant ce prix, le comité Nobel fait ce qui est en son pouvoir pour que l'opinion publique soit à même de percevoir les risques liés à l'IA, et pas seulement les opportunités qu'elle recèle.»
Reconnaître aussi le progrès
La Stampa prend la défense de l'IA :
«Lancer de funestes avertissements quand apparaît une technologie nouvelle, cela n'a rien de nouveau. C'est toujours le cas quand quelque chose de potentiellement révolutionnaire arrive sur le marché et s'inscrit dans la vie et la culture d'une société. Cela s'est produit par le passé avec les automobiles, l'électricité, Internet. ... Un débat qui se focaliserait sur la peur serait un débat unidimensionnel, qui risquerait d'occulter les bienfaits que l'IA, à l'instar d'autres technologies avant elle, peut nous apporter. ... L'IA alimentée par des algorithmes d'apprentissage profond - celle étudiée par Hinton et Hopfield - a été mise en œuvre avec succès dans le dépistage du cancer ; elle est déjà utilisée pour prévenir le développement de maladies comme les cancers du sein, du foie et de la prostate.»
Sans imagination, point de littérature
NRC évoque l'exemple alarmant de la maison d'édition VBK, qui entend faire appel à l'IA pour traduire ses auteurs en anglais :
«Il y a des problèmes éthiques et esthétiques. Les traductions effectuées à l'aide de l'IA n'élargissent pas l'horizon, elles le rétrécissent. L'IA peut peut-être être utilisée pour amplifier la créativité humaine, mais elle ne peut se substituer à celle-ci. Restituer un texte dans une autre langue n'est pas une simple opération de traduction, il s'agit d'une forme de localisation culturelle. L'IA ne reconnaît pas les figures de style, elle arase les néologismes et se contente de les rendre intelligibles. ... Pratiquement tout le monde est d'accord pour dire que la littérature a trait à l'imagination - or l'IA en est dépourvue.»