Média indocile – nouvelle formule

Lu ailleurs


PARTAGER

Révolution scientifique ou apocalypse anthropologique? Les systèmes conversationnels tels que ChatGPT créent la division chez les spécialistes, au point que certains réclament un moratoire de six mois sur leur développement. Quelques uns de leurs concepteurs disent même «regretter» cette invention... «Le Monde» a interrogé deux chercheurs en réseaux de neurones artificiels, aux vues diamétralement opposées.



Notice (8): Trying to access array offset on value of type null [APP/Template/Posts/view.ctp, line 123]

Warning: file_put_contents(/data01/sites/bonpourlatete.com/dev/bonpourlatete.com/logs/debug.log) [function.file-put-contents]: failed to open stream: Permission denied in /data01/sites/bonpourlatete.com/dev/bonpourlatete.com/vendor/cakephp/cakephp/src/Log/Engine/FileLog.php on line 133

Yoshua Bengio, chercheur canadien, est l’un des précurseurs des réseaux de neurones artificiels, la technologie sur laquelle reposent, entre autres, ChatGPT et Midjourney. Signataire de la demande de moratoire, il livre ses inquiétudes, fondées sur le fait que ChatGPT passe, haut la main, le «test de Turing», qui consiste à déterminer s’il est possible de savoir, en utilisant un système, si l’on a affaire à une machine ou à un humain. Selon lui, un dialogue avec ChatGPT peut donc être très aisément confondu avec une conversation entre amis.

Principe de précaution

La source d’inquiétude, pour Yoshua Bengio, ce sont les «boîtes noires» de ces outils. Car ces systèmes ne sont pas conçus comme n’importe quel logiciel, limité dans l’accomplissement d’une tâche, ils sont faits pour «apprendre» à partir des données fournies et «imiter» les conversations entre humains. On ne maitrise pas totalement le principe d’apprentissage de la machine. Mais attention, cela ne signifie pas que les machines pourraient «se retourner contre les humains» ou tenter de les réduire en esclavage. Aucun spécialiste sérieux n’envisage ce scénario qu’ils laissent aux amateurs de science-fiction apocalyptique...

En revanche, pour ce chercheur, un principe de précaution est nécessaire. Une telle révolution peut, peut-être, déclencher une série de réactions en chaine que nous sommes bien en peine d’anticiper. Le risque existe. En particulier pour la démocratie: à terme, il anticipe une explosion de la désinformation, qui ébranlera les démocraties. Il note également que les systèmes d’IA ont bien sûr une dimension politique. Pour le moment, il s’agit d’une technologie exclusivement américaine; les Etats autoritaires n’y ont pas accès et, dit-il, même la Chine accuse un retard en la matière. Mais cela ne saurait durer.

Yoshua Bengio plaide donc pour que les Etats et le législateur se penchent le plus rapidement possible sur la régulation et l’encadrement de ces systèmes. Il est d’usage que les lois évoluent toujours avec un train (voire deux ou trois) de retard sur les avancées technologiques; là, il y a urgence.

Un cas de conscience éthique

Autre «docteur Frankenstein» effrayé par sa créature, Geoffrey Hinton. Pionnier de l’IA lui aussi, et lauréat du prix Turing (le «Nobel» de l’informatique) en 2019, aux côtés de Yoshua Bengio et Yann Le Cun (voir ci-dessous), Hinton a décidé de quitter Google. Dans un entretien donné récemment au New York Times, il pointe un «risque pour l’humanité», évoque des «perspectives effrayantes» (mais toujours pas de révolte des machines). Sa crainte est d’ordre épistémologique: à l’avenir, il ne serait plus possible de distinguer le vrai du faux; ce qui pose des problèmes politiques et bien au-delà.

Nous assistons, selon Hinton et Bengio, à une révolution anthropologique, et ces pères de ChatGPT sont face à un cas de conscience éthique. Hinton avoue «regretter» d’avoir contribué à cette invention. Bengio balaie les regrets mais reconnaît avoir une responsabilité dans l’avenir dessiné par ChatGPT, Midjourney et consorts.

Le nouveau siècle des Lumières

Yann Le Cun, directeur à Meta, chercheur français «fondu d’IA» depuis de nombreuses années, est un optimiste. Selon lui, il ne faut surtout pas ralentir la recherche, cela s’apparenterait à de l’obscurantisme rechignant à entrer dans un «nouveau siècle des Lumières». Ni plus ni moins qu’une attitude semblable à celle de l’Eglise cherchant à interdire l’imprimerie pour limiter l’accès à la Bible. Il faut au contraire accélérer le développement de l’intelligence artificielle, et cela pour plusieurs raisons. 

D’abord, il ne s’agirait pas vraiment d’une «révolution». Pour les connaisseurs, la technologie de ChatGPT est en réalité connue depuis des années, il ne s’agit que d’une mise en application particulièrement efficace. Ces réseaux de neurones artificiels, entraînés à produire textes ou images, et dont les capacités peuvent donner l’impression que la machine est intelligente sont en réalité superficiels. Ce sont des «outils de prédiction», rien de plus. 

Il est cependant possible que des machines deviennent aussi intelligentes que les humains dans tous les domaines possibles, mais là aussi, pas de place pour des scénarios apocalyptiques. «Ce n’est pas parce qu’une machine sera super intelligente qu’elle voudra automatiquement dominer l’humanité». En fait, Yann Le Cun mise sur l’intelligence comme moteur du progrès, qu’elle soit artificielle ou non: «Je fais partie de ceux qui pensent que le progrès, qu’il soit scientifique ou social, dépend étroitement de l’intelligence. Plus les gens sont éduqués, instruits, capables de raisonner et d’anticiper ce qui va se produire, plus ils peuvent prendre des décisions bénéfiques à long terme. Avec l’aide de l’IA, l’intelligence humaine va être amplifiée, non seulement celle de l’humanité entière, mais aussi l’intelligence et la créativité de tout un chacun. Cela peut conduire à une renaissance de l’humanité, un nouveau siècle des Lumières.»

D’une phrase, Yann Le Cun balaie les inquiétudes sur le fait que ces outils ne soient ni fiables, ni contrôlables: cela ne justifie pas leur interdiction, ils offrent de nombreux avantages à certains professionnels. Mais cela ne dispense pas, à l’avenir, de mettre en place quelques garde-fous. 

En premier lieu, «un système qui raconte des bêtises est toujours dangereux pour une grande entreprise qui a une réputation à défendre». Il est donc dans l’intérêt commercial des entreprises de réguler et d’encadrer ce que produisent les systèmes d’IA. Mais cela ne saurait, affirme le spécialiste, menacer la démocratie. Parce que «la production ne contribue pas à la dissémination», l’IA ne serait pas la première coupable des fake news. Convaincu que le public va finir par développer des anticorps contre les fausses informations, il ajoute que la technologie, là aussi, peut venir en appui de l’intelligence humaine pour, par exemple, «tracer le processus de création d’une information. Il se passera alors ce qui est arrivé avec les spams de nos messageries, pour lesquels des systèmes de protection sont développés».

En somme, il faut réguler, rendre les systèmes pilotables, ne pas leur permettre d’échapper aux contraintes fixées par le concepteur. Il faut orienter l’IA, vers «l’alignement aux valeurs humaines» (on ne précise pas qui édictera ces valeurs). Il faut enfin sécuriser, faire passer aux systèmes des tests de conformité au grand public, de la même manière que l’on teste les avions ou les médicaments.

Mais pour Yann Le Cun, le principal risque que fait courir le développement échevelé de l’intelligence artificielle est de dessiner un modèle calqué sur celui des GAFAM, où un petit nombre d’entreprises (américaines) trustent les technologies et les outils. Il plaide donc, sur le modèle du vieux rêve des débuts d’internet, pour la poursuite d’un système d’IA «open source». Pour résumer: ayons confiance, la nouveauté ne mordra pas.


Lire l'entretien avec Yoshua Bengio.

Lire l'entretien avec Yann Le Cun.

Notice (8): Trying to access array offset on value of type null [APP/Template/Posts/view.ctp, line 147]

Warning: file_put_contents(/data01/sites/bonpourlatete.com/dev/bonpourlatete.com/logs/debug.log) [function.file-put-contents]: failed to open stream: Permission denied in /data01/sites/bonpourlatete.com/dev/bonpourlatete.com/vendor/cakephp/cakephp/src/Log/Engine/FileLog.php on line 133

VOS RÉACTIONS SUR LE SUJET

1 Commentaire

@aloula 05.05.2023 | 07h05

«Terrifiant!»