Des expériences de pensée artificielle ?

 

 Jean-Michel Kantor 

 

« Faut-il craindre la révolution ChatGPT ? » titre un grand quotidien. 

Les media se sont emparés ces derniers mois de ces logiciels d’intelligence artificielle               (Generative Pre-trained transformers, transformeurs préentraînés génératifs,                                          c’est à dire qui engendrent des textes) capables d’entretenir la conversation,                                             de répondre à une interrogation à la place des élèves, d’écrire des poèmes                                                  ou de compléter un discours sur un thème arbitraire.                                                                                    S’agit-il d’une révolution, d’un pas important vers la création d’une machine                                   (presque)  aussi intelligente que l’homme ? Ces GPT sont pleines de défauts :                                            elles reprennent les mensonges et les préjugés qu’elles tirent des immenses                                          bases de données qui les nourrissent. Des armées de modérateurs éliminent « à la main » les textes mensongers ou haineux qu’elles produisent.Mais surtout, ces machines n’ont pas les capacités de raisonnement, d’adaptabilité, ni le « sens commun » qu’on associe à l’intelligence humaine. A-t-on franchi une étape  dans la direction d’une « intelligence artificielle générale » ? On peut en douter.          Devant le peu de progrès sur le programme d’intelligence générale, certains spécialistes                          suggèrent une ouverture : « Peut-être a-t-on surestimé les capacités de créer                                    l’intelligence artificielle générale, et sous estimé les connaissances que peuvent apporter les psychologues, cogniticiens, neurologues, spécialistes de sciences sociales…                                              et même les poètes, les philosophes et les écrivains ». [1]                                                                            Que peuvent nous apporter les écrivains, les philosophes quand ils pensent l’intelligence artificielle ? Deux exemples méritent la lecture : - Kazuo Ishiguro (1954, Nagasaki), prix Nobel de littérature en 2017.Avant même l’explosion médiatique des objets conversationnels (style GPT), il aborde le sujet des machines intelligentes. Dans Klara et le soleil, une jeune fille malade, Josie a pour amie une robot artificielle Klara achetée par ses parents pour lui tenir compagnie…                                               Ishiguro affirme que son livre n’est pas un livre de science-fiction : « Ce n’est pas du fantastique sauvage … Nous sommes loin de saisir ce qui est déjà possible ».                                                          Ishiguro imagine les relations entre Josie et son amie Klara qui est une sorte de parent-robot mais en même temps une potentielle fille de remplacement : quand la maladie de Klara s’aggrave                         Klara est « formée » (par apprentissage profond) pour la remplacer. Le lecteur est conduit à se demander ce que deviennent dans un monde de cohabitation (humains- machines) les sentiments, la notion de personnalité et son unicité.                                                                                                        On peut voir l’écriture et la lecture de l’aventure de Klara comme une expérience de pensée pour une science en gestation, semblable à des expériences de pensée des sciences physiques (les jumeaux de Langevin, le chat de Schrödinger), ou encore à une expérience de pensée pour « les trois lois fondamentales de la morale des robots » énoncées par Isaac Asimov, biochimiste et célèbre auteur de science-fiction, dans sa nouvelle « Run around » en 1942. C’est aussi une expérience de pensée que cette seconde Klara mathématicienne artificielle [2] formée pour collaborer avec les mathématiciens sur un célèbre problème posé par Henri Poincaré au début du XXème siècle.                                            Mais Klara pourrait-elle faire preuve d’intuition mathématique pour poser les bonnes questions ?      Une  intuition artificielle ?                                                                                                                                    

C'est surtout le grand écrivain polonais Stanislas Lem (1921, Lviv - 2006, Cracovie) dont toute l’œuvre éclaire les problèmes de l’intelligence artificielle. D’abord formé à la médecine, Lem se passionne pour les sciences biologiques et s’enthousiasme pour la cybernétique de Wiener.                                                    À partir des années 1950, il se lance dans l’écriture de nouvelles et de romans                                         de science-fiction. Il acquiert une célébrité mondiale avec la publication de Solaris en 1961.              Comme ses nombreux récits et nouvelles, ce livre contient déjà des interrogations sur l’avenir de notre civilisation et de la technique. Au fil des années,Lem s’éloigne de la science-fiction, ses textes relèvent de la futurologie. Lem explique la différence : « Pour moi ce n’est pas la même chose de déclarer que les hommes voleront un jour parce qu’il leur poussera des ailes - comme celles des anges - ou de leur promettre, comme le fit Bacon, qu’ils voleront parce qu’ils fabriqueront les machines nécessaires. » L'approfondissement de sa réflexion philosophique sur le futur éloigné de notre civilisation, de la technique et de l'intelligence artificielle le conduiront à une œuvre philosophique majeure, Golem XIV, qui a la forme littéraire originale d'un texte formé de rapports officiels écrits par des humains et de conférences prononcées par le robot Golem lui-même, un robot omniscient, fruit de plusieurs générations de machines pensantes. Le héros Golem XIV « n’est pas un être humain : il n’a ni personnalité ni caractère… Il peut se comporter comme s’il avait les deux mais ce ne serait que le résultat de ses intentions qui nous sont complètement étrangères. Golem développe un niveau d’intelligence et de conscience supérieur, au point de ne plus avoir d’intérêt ni de contact avec les humains. » On pense alors à la remarque de Wittgenstein  ( Investigations philosophiques): « Si un lion pouvait parler,  nous ne pourrions le comprendre ». Tous les sujets de la pensée humaine                         sont étrangers (à Golem XIV), donc il ne manifeste aucun intérêt pour les questions de science appliquée comme de pouvoir. Par l’ampleur de sa réflexion sur l’avenir, on a pu décrire Lem comme

 « un philosophe du futur ». Son œuvre philosophique mériterait une lecture approfondie en parallèle aux grands débats qui traversent le milieu de l’IA. Malheureusement, les oeuvres de la dernière période de la vie de Lem sont encore très mal connues, la plupart non traduites en français.                                  En attendant, la majorité des chercheurs du domaine continue à exploiter les méthodes                              connexionnistes (réseaux de neurones) en augmentant le volume des bases de données utilisées et le nombre de paramètres impliqués dans les machines (15 milliards dans les modèles de ChatGPT !)          Mais d’autres pistes apparaissent comme la réintroduction (sous le nom de neurosymbolisme) des algorithmes symboliques logiques qui avaient eu leur période de succès dans les années soixante.

 Doit-on malgré le succès de cette méthode auprès du public, prendre ses distances avec le connexionnisme et repenser l’intelligence par exemple dans son développement historique à partir de ses formes primitives chez les animaux ?                                                                                                    À suivre !                                                                                                                                                           Références :                                                                                                                                                          [1] G.Brooch-G.Marcus , AGI will not happen in your lifetime. Or will it ?, The Road to AI we can trust                                                                                                                                   https://garymarcus.substack.com/p/agi-will-not-happen-in-your-lifetime?utm_source=twitter&sd=pf 

[2] M.Harris, What is « human-level mathematical reasoning ? »                        https://siliconreckoner.substack.com/p/what-is-human-level-mathematical

Commentaires

Posts les plus consultés de ce blog

Intelligence artificielle:où en est-on ? ( Janvier 2023)