Régulation de l'IA par l'UE, une première mondiale
Les négociateurs du Parlement européen et les Etats membres se sont entendus sur les grandes lignes de l'AI Act, un projet de loi sur les rails depuis 2021. Celui-ci doit garantir la transparence dans l'utilisation de l'IA, assurer la qualité élevée des données utilisées pour développer les applications et protéger les droits d'auteur. En outre, une gestion humaine des risques sera exigée pour les applications sensibles du point de vue de la protection des données ou de la sécurité.
Important et sécurisant
Cet acte juridique ne va pas freiner l'innovation, se réjouit le journal Handelsblatt :
«Le règlement va sans nul doute imposer certaines directives à toutes les entreprises qui veulent mettre au point des modèles d'IA de fondation. Il faudra faire preuve de transparence dès lors qu'on aura recours à des grandes quantités de données afin de former des modèles au traitement et à la création de textes, d'images, de vidéos et de codes de programmation. Mais c'est une condition que les clients devraient exiger de toute façon. .... L'UE a créé un cadre fiable pour l'utilisation de l'IA - elle doit maintenant investir dans le développement et l'infrastructure. Ce sont là les clés de la souveraineté technologique.»
Dans le bon sens
Irish Examiner salue lui aussi la décision :
«Dans l'accord de ce week-end, le Parlement européen a obtenu l'interdiction de l'utilisation de la surveillance en temps réel et des technologies biométriques, y compris la reconnaissance émotionnelle. Il y a toutefois trois exceptions : la police serait habilitée à utiliser ces systèmes intrusifs, mais seulement dans le cas d'une menace terroriste, pour la recherche de victimes [en cas d'enlèvements] et lors d'enquête sur des crimes graves. ... Le cheminement numérique à parcourir sera long et complexe, mais les Européens ont déjà franchi le pas.»
Quid de la responsabilité ?
L'AI Act n'apporte pas de réponses à certaines questions cruciales, commente Kapital :
«Notamment celle de savoir qui sera responsable des dommages causés par l'IA. Lorsqu'une voiture autonome a un accident, par exemple, qui est responsable des dégâts ? Le propriétaire du véhicule, le fabricant, ou l'entreprise qui a développé le logiciel ? Si le fabricant se retrouve affranchi de toute responsabilité, rien ne l'incitera à fournir un bon produit ou une bonne prestation, ce qui pourrait affaiblir la confiance dans cette technologie.»
Pionnière en matière de régulation, faible sur le marché
Si seulement l'UE pouvait être aussi performante dans d'autres domaines que la régulation, soupire La Stampa :
«Si l'Europe a toujours gagné le championnat des règles visant à protéger les citoyens, ce n'est pas le cas de celui du marché. Les géants du Web sont presque tous américains. ... Il en va de même pour l'IA. Les Etats-Unis et la Chine mènent la danse, l'Europe est à la traîne. Le retard est considérable sur le front des micropuces, c'est-à-dire des processeurs nécessaires au fonctionnement de l'IA. L'European Chips Act, adopté il y a quelques mois, doit permettre de combler le fossé, en doublant la production d'ici 2030, mais la route est encore longue.»
Plus de pédagogie, moins de restrictions
El País juge la régulation positive mais insuffisante :
«L'émoi suscité par l'IA ne provient quasiment que des utilisations aberrantes qui en sont faites, comme la production d'infox ou de deepfakes de personnes nues. ... Une approche pédagogique contribuerait davantage à répondre à cette problématique qu'une loi limitant le progrès technologique. ... Accuser l'IA de tous les maux n'est qu'un faux-fuyant. La désinformation ne disparaîtra pas, quelles que soient les régulations numériques adoptées par l'Europe. ... En matière de sciences et de technologies, le régulateur est condamné à être à la remorque des progrès accomplis.»