ChatGPT : comment l'IA transforme-t-elle nos vies ?
Le logiciel de conversation ChatGPT, qui s'appuie sur l'intelligence artificielle (IA), été mis en ligne en novembre 2022. Il est capable de répondre à presque toutes les questions dans un langage clair et fluide. Difficile encore de dire, selon les thématiques abordées, si les textes générés peuvent rivaliser avec ceux produits par des humains. Les chroniqueurs se demandent comment réguler convenablement son utilisation.
L'humain reste plus important que jamais
On ne peut se fier aveuglément à ChatGPT, fait valoir NRC Handelsblad :
«Cela doit rester une synergie entre l'humain et la machine. La capacité de jugement, la créativité et les considérations morales revêtiront un rôle plus important encore avec cette nouvelle technologie. Il faut se montrer critique vis-à-vis des contenus, de ceux qui pilotent et détiennent l'application, et des conséquences économiques et sociales potentielles. Législateurs et instances de surveillance devront être plus vigilants que lorsque sont apparus les premiers réseaux sociaux, et cela vaut aussi pour tout utilisateur potentiel. C'est parce que les réponses du logiciel sont si impressionnantes que les gens risquent justement de lui témoigner une confiance aveugle.»
Tirer parti des opportunités
L'Europe ne doit pas céder à la peur, fait valoir Delo :
«Pour que l'intelligence artificielle soit véritablement acceptée comme un moteur de l'économie, il faut faire en sorte que les gens aient confiance dans son fonctionnement. ... Le recours à l'IA peut générer des progrès pour une multitude d'activités : lutte contre le changement climatique, optimisation des processus industriels, utilisation plus efficace des ressources, système de santé, infrastructures, prise en charge des personnes âgées. Voilà pourquoi le fil directeur de la politique européenne en matière de régulation ne devrait pas être la peur, mais l'exploitation des opportunités qui s'offrent à nous, en tenant compte du respect des droits fondamentaux.»
Une régulation européenne insuffisante
La régulation de l'IA envisagée par la Commission n'est pas à la hauteur des risques que représentent des outils comme ChatGPT, préviennent des experts en sécurité informatique dans Le Monde :
«Avec la régulation européenne, ChatGPT ne tomberait que dans la dernière catégorie d'IA à risque, dite 'à risque limité' : celle qui interagit avec les humains. Ceux-ci doivent alors, au titre de la régulation, être simplement prévenus de l'utilisation d'une IA, sans plus de précision. Mais est-ce suffisant pour développer un esprit critique envers une nouvelle manière d'accéder à de la connaissance ?»
La fin de l'écrit
The Spectator redoute une véritable crise existentielle pour toute une catégorie professionnelle :
«Ca y est. Il est temps de remiser vos plumes, vos stylos à bille et vos jolis iPad : les ordinateurs travailleront bientôt mieux que vous. ... Les machines se saisiront d'abord de la plupart des productions académiques - dissertations, thèses, textes universitaires ennuyeux (comme on pouvait s'y attendre, elles sont capables de les générer facilement). Les fanfictions sont condamnées d'emblée, de même que les romans auto-édités. La prochaine étape, ce sera le journalisme de bas étage. Puis ce sera le tour du journalisme de qualité, des ouvrages de fiction, des livres d'histoire, des biographies, des scénarios. ... 5 000 années d'écrit, et 500 ans au cours desquels les mots ont permis aux humains de gagner leur vie, faire carrière, voire devenir célèbres, s'achèvent brutalement.»
Un tournant à l'école
ChatGPT représente un défi considérable pour les enseignants, fait valoir Irish Examiner :
«Au Royaume-Uni, les professeurs ont déjà été incités à revoir leurs méthodes d'évaluation compte tenu de ce nouvel outil, susceptible de produire des contenus crédibles et de grande qualité à partir d'une sollicitation humaine minimale. ... Les enseignants doivent se demander s'ils veulent exploiter cette technologie et trouver d'autres formes d'évaluation, ou passer leur temps à tenter d'identifier les resquilleurs. Personne n'a choisi de faire carrière dans l'enseignement pour jouer ce rôle de gendarme.»
Privilégier l'oral
El País évoque la gestion de l'IA à l'école :
«Chaque enseignant peut désormais savoir si le travail d'un élève n'est qu'un simple copier-coller. Une recherche Google suffit pour détecter un plagiat. ... Tout ceci simplifie l'accès aux informations mais complique l'enseignement et l'apprentissage. L'IA finira par s'inviter dans les cours, mais nous devons apprendre à la gérer. Paradoxalement, cette innovation pourrait au final nous amener à privilégier à nouveau l'oral. Car c'est la seule possibilité d'évaluation. Les élèves peuvent utiliser tous les moyens à leur disposition pour rechercher des informations, mais ils doivent être en mesure d'expliquer le résultat. En personne et avec leurs propres mots.»
L'humain n'est pas une machine
Le danger ce n'est pas l'IA, mais plutôt le discours s'y rapportant, prévient le philosophe Thomas Robert dans Le Temps :
«Il s'agit désormais de reprendre le contrôle du récit conté par les enthousiastes de l'intelligence artificielle. En effet, le risque est que ces derniers nous convainquent que l'intelligence n'est rien d'autre qu'une compilation du savoir ou que la créativité se réduise à la réponse la plus probable. En d'autres termes, le danger le plus pressant n'est pas les avancées de l'intelligence artificielle, mais le discours les accompagnant et tendant à définir de façon rabougrie ce qu'est l'être humain. Trois siècles plus tard, les codeurs de la Silicon Valley tentent une nouvelle fois la théorie de l'homme-machine, il est de notre choix d'y succomber ou non.»
Définir des principes internationaux
Dans Observador, l'économiste Inês Domingos insiste sur l'importance de règles éthiques, mais aussi sur les difficultés de leur mise en application :
«Les machines étant dénués d'esprit critique, les développeurs d'IA sont obligés d'intégrer à leurs programmes des limites éthiques. Ceci constitue une préoccupation croissante des politiques publiques, notamment en raison des divergences entre les valeurs morales dans les différentes régions du monde. En 2018, l'UE avait créé un ensemble de lignes directives concernant l'utilisation éthique de l'intelligence artificielle, bientôt suivie par la Chine en 2019. ... On note toutefois de grandes disparités entre ces deux régions, tant au niveau de la mise en application que des valeurs à proprement parler, tout particulièrement s'agissant de la protection de la vie privée.»