AI Act : l'UE veut réguler l'intelligence artificielle
L'UE, qui entend être aux avant-postes de la régulation de l'intelligence artificielle (IA), approche du but : les commissions parlementaires compétentes ont adopté, sous une forme modifiée, l'Artificial Intelligence Act de la Commission, comprenant notamment l'interdiction de la reconnaissance faciale et émotionnelle. Le projet sera débattu à partir de la semaine prochaine au Parlement.
Impossible sans êtres humains
Les travailleurs humains resteront indispensables, fait valoir Alexandre Guérin, directeur général d'Ipsos France, dans Les Echos :
«Que ce soit dans les domaines de l'apprentissage, de la recherche, de la production d'idées, il est donc essentiel de s'appuyer sur leur évaluation par des utilisateurs en chair et en os. L'apprentissage optimisé à partir des retours d'expérience humaine s'applique à tous les aspects de la conceptualisation, de la sélection des données de formation, de la formation, de la modélisation et de l'utilisation des modèles d'IA : c'est la condition pour être sûr et certain de maximiser leur utilité et leur qualité dans un univers sans limite, mais incertain.»
Vers des applications militaires ?
Les risques d'une utilisation militaire de l'IA sont évidents, assure Új Szó :
«A l'occasion d'un test simulé par l'armée américaine [l'armée a souligné depuis qu'il s'agissait seulement d'un exercice de réflexion hypothétique], un drone pourvu de l'IA a 'tué' son pilote pour effectuer à tout prix la mission qui lui était confiée. ... [Malgré cela], l'armée de l'air américaine a commencé à équiper ses appareils de dispositifs basés sur l'IA, notamment les avions de combat F16. ... De tels systèmes étant faciles à tromper ou à manipuler, nous devrions mieux comprendre pourquoi le logiciel prend certaines décisions.»
La nécessité d'une coopération internationale
El País salue l'initiative :
«Garantir un fonctionnement transparent, la qualité des données traitées et l'identification des sources : autant de conditions nécessaires pour que le citoyen sache ce que lui propose un système capable de fournir des services très utiles dans plusieurs professions. Mais le citoyen doit pouvoir avoir confiance dans la fiabilité de ces applications. La capacité de générer des textes et des images crédibles et cohérentes mais 'fake', ainsi que le risque d'usages malveillants, nous posent un défi à tous. Avec cette loi, l'UE est pionnière. Son prochain objectif devra être de coordonner les moyens de contrôle de l'IA avec d'autres régions de la planète et de créer des mécanismes assurant qu'ils remplissent efficacement leur rôle.»
Une occasion manquée
Le quotidien Tages-Anzeiger s'étonne des réactions de l'Europe :
«L'Italie a bloqué provisoirement ChatGPT. L'UE prévoit une loi sur l'IA et le Parlement européen est le premier au monde à proposer des directives pour encadrer ChatGPT. Désireuse de réguler plutôt que d'innover dans le domaine numérique, l'Europe cède à ses anciens réflexes. ... Il est notoire qu'aucun moteur de recherche digne de ce nom n'a jamais été conçu en Europe, sans même parler d'un réseau social prisé ou d'un robot conversationnel novateur. Dans ces domaines, les Etats-Unis et la Chine ont une longueur d'avance. En ce qui concerne le développement des nouvelles technologies, le Vieux Continent court une fois de plus le risque d'être largué.»
Des enjeux plus vastes
NRC appelle à impliquer les citoyens :
«Comment les citoyens veulent-ils au juste utiliser eux-mêmes l'IA ? Quels sont les usages qu'ils réprouvent ? Ces questions, qui semblaient peut-être futuristes jusque-là, les citoyens à tous les échelons de la société feraient bien de s'en emparer rapidement. ... Il est important que l'UE reste déterminée à élaborer des règles sécuritaires relatives à l'IA, tout en évitant de restreindre inutilement l'innovation. Mais les enjeux sont trop importants pour qu'on se contente de laisser à l'UE et aux entreprises technologiques le soin de répondre à ces questions. Outre une législation judicieuse, nous avons avant tout besoin de citoyennes et de citoyens vigilants face à la révolution de l'IA. Cela, les ordinateurs n'en sont pas capables - pour le moment du moins.»
Protéger les plus jeunes
My AI, l'"ami virtuel" développé par le réseau social Snapchat, est potentiellement dangereux pour les jeunes, s'inquiète Berlingske :
«Face à l'ami virtuel de Snapchat, il convient de réagir de manière critique et circonspecte, en faisant preuve de conservatisme technologique. ... Nous avons l'obligation, vis-à-vis de la nouvelle génération, de tempérer l'enthousiasme débordant que suscite le progrès technique ces derniers temps. ... Il faut rappeler aux plus jeunes, chaque jour, que leurs meilleurs amis, ceux qui les soutiendront au cours de leur vie, sont des êtres complexes, vivants, qui ont un répertoire plus nuancé que la sempiternelle réplique : 'Bonjour, comment puis-je vous aider ?'.»