VIII.2. Artificial Intelligence (AI)

Back to Kinzler’s Global News Blog


Le Point, January 9         

Elon Musk, Trump, Meta et l’avenir de l’IA : Yann Le Cun, le génie français qui vaut 3 milliards, parle cash

Le chercheur star quitte Facebook pour lancer sa start-up à Paris. Retour sur un incroyable destin.

Full text:   

La scène se déroule au Paris-Saclay Summit, le grand événement tech et sciences qu’organise Le Point chaque année à la mi-février. Yoshua Bengio, un des intervenants stars, chercheur reconnu de l’université de Montréal, et directeur scientifique du Mila (Institut québécois d’intelligence artificielle), quitte le plateau, où lui succédera Yann Le Cun. Ils ont en commun d’avoir été décorés en 2018 du prix Turing, l’équivalent du Nobel en informatique, pour leurs avancées dans le deep learning, une des briques essentielles au fonctionnement de l’intelligence artificielle. Ils ne partagent clairement pas la même perspective de l’IA, Yoshua Bengio estimant qu’il est nécessaire de davantage l’encadrer, mais ces deux scientifiques sont néanmoins bons amis. « J’ai beaucoup d’estime pour lui, me chuchotait Yoshua Bengio. Mais a-t-il vraiment besoin de mettre toute son énergie au service des Big Tech ? Il gagnerait tant à retrouver sa liberté…»

Un transfert de ce niveau-là, c’est un peu comme si Kylian Mbappé quittait le PSG, non pas pour le Real Madrid, mais pour monter son propre club…

Moins d’un an plus tard, Yann Le Cun, 65 ans, lui donne raison : celui qui a longtemps été le big boss de l’IA de Meta (Facebook, Instagram, WhatsApp…) vient de claquer la porte du géant après douze ans de bons et loyaux services – une éternité dans la tech – pour créer sa propre start-up, dans l’IA, bien sûr. Une déflagration à l’échelle de la Silicon Valley ! Car, si ce Français, toujours souriant, en polo ou en chemise blanche, reconnaissable à ses lunettes carrées à monture noire, est peu connu du grand public, il est une des figures marquantes du secteur des Big Tech, une star incontournable du secteur. Vénéré comme un gourou par ses anciens étudiants, il a inspiré et formé toute une génération de chercheurs en intelligence artificielle : Raia Hadsell qui dirige la partie recherche fondamentale de DeepMind, Koray Kavukcuoglu, architecte en chef de l’IA de Google, Denis Yarats et Aravind Srinivas, les cocréateurs de Perplexity, Pierre Sermanet, cofondateur d’UMA, une start-up parisienne de robotique… Il est également bardé de prix et de médailles… Il a obtenu le prix Princesse-des-Asturies pour la recherche technique et scientifique, il est membre de la National Academy of Sciences aux États‑Unis. En 2025, il se voit décerner le Queen Elizabeth Prize for Engineering par le roi Charles III, etc.Alors, un transfert de ce niveau-là, c’est un peu comme si Kylian Mbappé quittait le PSG, non pas pour le Real Madrid, mais pour monter son propre club… C’est dire si la tension monte autour de l’annonce de sa nouvelle entreprise, qui devrait être basée à Paris.

Sa société est valorisée 3 milliards de dollars… avant même d’exister

Les détails seront dévoilés à la mi-janvier, mais l’on sait déjà que ce sera du lourd et que les investisseurs y croient dur comme fer. Les chiffres donnent le tournis : Yann Le Cun aurait déjà, d’après le Financial Times, convaincu des investisseurs de miser plus de 500 millions d’euros dans son entreprise, ce qui la valorise déjà – avant même qu’elle ait commencé à réellement exister – à 3 milliards de dollars !

Mark Zuckerberg, dont l’empire joue une grosse partie de son avenir sur l’intelligence artificielle, peut légitimement déplorer ce départ hautement symbolique. Celui qui avait recruté Yann Le Cun en 2013, à la suite d’un dîner en tête à tête à Palo Alto, et qui déclarait au Point, à son sujet : « Ah oui, ça, c’est sûr, il est intelligent ! », a réagi publiquement. « Yann, merci pour tout ce que tu as fait pour faire progresser Meta et le domaine de l’IA. Ta vision et ton leadership chez FAIR [Fundamental AI Research, le laboratoire autour de l’intelligence artificielle basé sur l’open source créé par Yann Le Cun, NDLR] ont placé la barre très haut, et je suis ravi que nous continuions à collaborer pour relever ce nouveau défi. » Mais pourquoi ce Frenchie abandonne une entreprise qui affiche fièrement sa volonté (avec plus de 75 milliards de dollars d’investissements en IA par an) de mettre au point une intelligence artificielle surpuissante pour voler de ses propres ailes ?

Je pose la question à Yann Le Cun, qui vient de passer quelques jours de repos chez des amis dans la région de Washington. Il dévoile franchement son objectif, assumant sa grande ambition : « Avec mon entreprise, je veux provoquer la prochaine grande révolution de l’IA. On le fera grâce à des systèmes qui comprennent le monde physique, dotés d’une mémoire, capables de raisonner et de planifier des séquences d’actions complexes. » La start-up de cet arrière-petit-fils d’un pharmacien de Guingamp, joueur de flûte à bec, fan de voile, et également professeur à l’université de New York, se nommera Advanced Machine Intelligence (AMI). Tout un programme… Le Cun sait le chemin qu’il reste à parcourir : « Un chat de gouttière possède un modèle mental du monde physique bien supérieur à ce que permet aujourd’hui ChatGPT, Claude ou encore Perplexity. »

Le divorce avec Zuckerberg couve depuis longtemps

Yann Le Cun entend donc poursuivre, pour son propre compte, ses travaux sur les world models. De quoi s’agit-il ? D’architectures de nouvelle génération capables de comprendre le monde physique à partir de vidéos et de données spatiales. Et, dans un futur proche, elles pourraient bénéficier aussi des données issues des capteurs installés sur certains robots humanoïdes. Contrairement à ce qui se pratique aujourd’hui chez Meta, il s’agit de tester la compréhension de la machine au-delà des grands modèles de langage [LLM pour large language model, NDLR], que Le Cun accuse de ne pas savoir raisonner. En clair, de voir beaucoup plus loin, et beaucoup plus fort. Le divorce avec Zuckerberg couve depuis longtemps… D’autant plus que celui-ci a recruté, l’été dernier, Alexandr Wang, 29 ans, fondateur de Scale AI, pour diriger une nouvelle division de Meta baptisée Superintelligence. Placé sous la direction de Wang, Yann Le Cun s’est retrouvé dans une position inconfortable… Pour toutes ces raisons, il a plié bagage et fait le grand saut. « Mon but est de faire apprendre le monde à une machine comme un enfant apprend en regardant le monde », assure-t-il.

Et hop, voilà une aventure de plus pour Yann Le Cun… Car ce père de trois enfants, d’origine bretonne, a déjà eu de multiples vies. Il naît, en juillet 1960, à Soisy-sous-Montmorency, une commune de l’Oise. Sa première passion, c’est le modélisme. Il partage toujours le goût des avions miniatures avec son petit frère Bertrand, chercheur chez Google. Leur père, disparu à l’automne 2024, était ingénieur dans l’aéronautique. Mais l’événement qui va modifier son existence, intervient alors qu’il est âgé de 8 ans : son oncle, un mordu de science-fiction, l’emmène voir en Cinérama un film de Kubrick, 2001 : l’Odyssée de l’espace. Il en sort transformé.

Marqué à vie par « 2001 : l’Odyssée de l’espace »

« Tous mes centres d’intérêt étaient présents : le voyage spatial, la place de l’humanité dans le futur,… » En 1977, alors qu’il est en terminale, il s’offre – pour 2 400 francs – un SYM-1, un circuit imprimé sans écran, le Graal des bidouilleurs. Aujourd’hui, il utilise toujours son portable Lenovo équipé du système d’exploitation libre Ubuntu Linux. Yann Le Cun a également été profondément marqué par la lecture des actes du célèbre débat de 1975 entre le psychologue suisse Jean Piaget et le linguiste américain Noam Chomsky, sur la part de l’inné et de l’acquis dans l’apprentissage du langage. Ce dialogue continue d’irriguer sa réflexion sur la façon dont les machines apprennent, et sur les limites actuelles de leur compréhension du monde.

Il intègre l’école d’électronique ESIEE à Paris en 1978. Ensuite, direction l’université Pierre-et-Marie-Curie, où il obtient un DEA puis un doctorat. Sa thèse porte sur une variante de l’algorithme de « rétropropagation du gradient », qui permet l’apprentissage des réseaux de neurones. En 1987, il rejoint l’université de Toronto, amorçant alors une carrière presque entièrement menée outre-Atlantique. L’année suivante, il intègre les laboratoires du géant américain des télécoms, AT & T – alors étroitement liés à Bell Labs –, où il poursuit pendant près de dix ans ses travaux pionniers sur l’apprentissage automatique. En 2016, belle consécration, il devient le titulaire pour une année de la chaire Informatique et sciences numériques au Collège de France« La salle comptait régulièrement 400 à 500 personnes. C’était une expérience magique que de rencontrer tant d’enthousiasme de la part des jeunes Français. »

« À terme, les machines pourront peut-être ressentir une forme de frustration lorsqu’elles n’aboutiront pas à l’objectif qu’elles se seront elles-mêmes fixé. »

Yann Le Cun

Yann Le Cun a longtemps travaillé sur « l’apprentissage supervisé » : on montre à la machine plusieurs millions de fois une image d’éléphant, par exemple. On teste ensuite sa capacité de reconnaissance visuelle de l’animal en lui indiquant quand elle commet une erreur d’identification et en lui donnant alors la bonne réponse. Autre champ d’étude, l’apprentissage par renforcement. « L’ordinateur explore à l’infini des possibilités autour de lui en creusant chaque scénario. C’est ce schéma de simulations par arborescence qui a été utilisé dans la victoire de la machine sur l’homme dans le jeu d’échecs ou de go », explique le scientifique. Yann Le Cun est par ailleurs à l’origine des réseaux neuronaux dits convolutifs dont l’architecture s’apparente au cortex des mammifères. « À terme, les machines pourront peut-être ressentir une forme de frustration lorsqu’elles n’aboutiront pas à l’objectif qu’elles se seront elles-mêmes fixé », avance-t-il.

Dangereuse, l’intelligence artificielle ? Pas du tout, Le Cun voit dans l’intelligence artificielle l’avènement d’un nouveau siècle des Lumières. « Si je pensais que l’IA pouvait avoir un quelconque effet délétère sur la société, je ferais autre chose. » Là où d’autres perçoivent une menace existentielle, Le Cun identifie un outil d’émancipation. « Je poursuis deux objectifs. Un but scientifique : comprendre les mécanismes de l’intelligence. Et un but technologique et sociétal : amplifier l’intelligence humaine pour accélérer le progrès et le bien-être. Nous souffrons essentiellement d’un manque d’intelligence. » Mais tout de même… N’existe-t-il pas un risque d’affaiblir l’homme intellectuellement ? « Il y a toujours eu ce genre de réaction aux progrès de la science, qui n’a pas arrêté de faire descendre l’humanité de son piédestal, s’enflamme-t-il. Quand on a commencé à faire de l’anatomie, on a dit qu’on défiait Dieu en essayant de voir comment fonctionne le corps humain. Idem avec la génétique, ou encore l’imprimerie… » Pour Le Cun, l’IA est assimilable à l’imprimerie : c’est un outil de dissémination du savoir, et bientôt de création de savoir.

Renforcement de l’écosystème européen

AMI Labs sera – au moins pour une partie de sa division recherche – basée à Paris. Le Cun, formé en France avant de faire carrière aux États-Unis, entre les Bell Labs et AT & T, a toujours plaidé pour le renforcement de l’écosystème européen. Il avait déjà convaincu Meta d’ouvrir son laboratoire FAIR à Paris en 2015. AMI Labs sera dirigé par un autre chercheur français réputé, Alexandre Lebrun, polytechnicien de 48 ans, ingénieur en IA, ancien de Facebook, qui a fondé Nabla, une start-up française spécialisée dans l’IA pour la santé. Le Cun occupera le poste de président exécutif. Si Le Cun veut ancrer son entreprise en France, il n’est pas question pour lui de déménager de New York, où il réside avec sa femme Isabelle depuis 2008. Celui qui adore donner des cours en tant qu’enseignant-chercheur à l’université de New York se rend régulièrement dans les clubs de jazz de Greenwich Village. Fasciné, il peut parler des heures du processus créatif de l’improvisation musicale. Interrogé sur sa liberté d’expression dans le climat politique américain actuel, Yann LeCun se dit parfaitement serein quant à sa situation à NYU. Il rappelle l’existence, aux États-Unis, d’un dispositif essentiel appelé la tenure (titularisation), qui, une fois obtenue, confère une très grande sécurité de l’emploi. Ce système a précisément pour but de garantir la liberté de recherche et la liberté d’expression des universitaires.

Le chercheur français se montre particulièrement concerné par les menaces qui pèsent sur l’écosystème de la recherche américaine. Il évoque « tout ce système de financement de la recherche, de compétition entre les universités, qui a fait le succès de la science américaine et est en train d’être détruit par le président américain depuis sa réélection ». S’il reconnaît que « Trump ne va pas être capable de détruire tout ça du jour au lendemain » grâce à l’inertie des institutions, son diagnostic est sans appel : « C’est un suicide hallucinant. »

Prises de position

Interrogé sur la démarche d’Elon Musk, qui a décidé de supprimer l’apprentissage des langues étrangères dans son école Ad Astra au motif que des écouteurs ou des lunettes intelligentes rendront bientôt cette compétence inutile, Yann Le Cun est catégorique : « C’est aussi absurde que de dire qu’il faut arrêter d’enseigner le calcul mental parce que les calculatrices existent. » À propos d’Alex Wang, son successeur chez Meta, qui affirme ne pas vouloir avoir d’enfants tant qu’il ne lui sera pas possible de leur greffer des puces Neuralink dans le cerveau afin d’augmenter leurs capacités cognitives, il tranche tout aussi nettement : « C’est un délire total. » Derrière ses prises de position se dessine en creux sa propre motivation : « Ce qui me guide, c’est le plaisir de la découverte, le fait de comprendre quelque chose que personne n’avait encore compris, et la satisfaction de l’acte créatif, celle de produire un artefact nouveau qui puisse, même modestement, améliorer la condition humaine. »​

Ce qui est intéressant, c’est qu’il continue de jouer un rôle dans le débat d’idées. On lui demande ce qu’il pense de cette phrase du génial Prix Nobel Demis Hassabis : « On n’a encore rien trouvé dans l’Univers qui échappe au calcul… pour l’instant. » Il répond du tac au tac. « Si la question est “Est-ce que l’esprit humain et la conscience peuvent être reproduits par un calcul informatique classique ?”, ma réponse est oui. Mais si la question est plutôt “Est-ce que tout ce qu’on observe dans le monde physique peut être calculé et prédit par un ordinateur classique ?”, la réponse est plus compliquée. » Et pourquoi donc ? « Il y a des choses qui sont calculables en théorie, mais impossibles à calculer en pratique. Par exemple, on peut simuler un petit système quantique dans ses moindres détails, à condition qu’il reste isolé, sans interaction avec le reste de l’Univers. Mais dès que ce système entre en contact avec son environnement, il se produit des phénomènes – comme ce qu’on appelle la “réduction de la fonction d’onde” – qui ne peuvent plus être calculés exactement. Pour y arriver, il faudrait connaître l’état complet de l’Univers et disposer d’un ordinateur quantique aussi grand que l’Univers lui-même. » Tiens, en voilà un problème que l’intelligence artificielle n’arrive pas – encore – à résoudre.

https://www.lepoint.fr/economie/yann-le-cun-le-francais-qui-valait-3-milliards-3RPLOMII7VB6VJ47BK2CDIUE6U/


Le Point, December 29         

« Le génie de Léonard de Vinci me paraît très supérieur à celui d’une intelligence artificielle »

Que nous enseigne ce maître visionnaire de la Renaissance pour penser les défis technologiques d’aujourd’hui ? C’est la question centrale du « Serment de Leonardo », une pièce aussi inspirante que stimulante signée par Me Vincent Fauchoux.

Full text:   

Comment Léonard de Vinci, soudainement projeté dans le XXIe siècle, aurait-il réagi face à l’intelligence artificielle (IA) ? Que lui auraient inspiré les créations générées par l’IA « en un clic », lui qui consacrait des mois, voire des années, de travail laborieux à la préparation de ses œuvres ? L’auteur de la Joconde aurait-il anticipé les risques d’une domination de la machine sur les activités humaines ? Aurait-il plaidé pour une éthique de l’IA ?

Ces questions sont au cœur d’une pièce, Le Serment de Leonardo, signée par Vincent Fauchoux, avocat spécialisé en propriété intellectuelle et technologies innovantes. Elle a été présentée pour la première fois en septembre 2025 au Club des industries culturelles et créatives (« We Are ») sous la forme d’une lecture théâtrale mise en scène par Arthur Deschamps, avec Maximilien Seweryn (Leonardo), Geert Van Herwijnen (Sam), Luana Duchemin (Lisa) et Marc Plas (Salaï).

La pièce s’ouvre sur l’époque de la Renaissance. Nous sommes en 1516. Léonard de Vinci, 63 ans, affaibli par la perte de l’usage d’un bras, quitte Rome pour répondre à l’invitation du roi François Ier, et rejoint le Clos-Lucé (Amboise). Alors qu’il traverse les Alpes à dos de mulet avec son apprenti et amant, Salaï, et trois de ses plus célèbres tableaux, dont la Joconde, il est surpris par un déluge et un bug spatiotemporel le projette en plein Paris du XXIe siècle, rue… François Ier ! C’est ici, dans un incubateur dédié à l’intelligence artificielle, entouré d’ingénieurs, de codeurs et de pionniers du transhumanisme, que le génial autodidacte est confronté à la plus grande innovation de notre époque : l’intelligence artificielle.

« Léonard de Vinci est un miroir tendu »

Sam, entrepreneur ambitieux dépourvu de tout scrupule (et dont le prénom n’est pas tout à fait innocent), et Lisa, dont la beauté énigmatique rappelle étrangement celle de Mona Lisa, lui exposent leur projet, « Connected Neurons », dédié à l’implantation de connecteurs neuronaux. L’objectif ? Développer « l’Homme Digital Augmenté », seul à même de dominer l’IA « avant qu’elle ne nous transforme en animaux domestiques ». Pas de quoi convaincre Leonardo qui, fort de ses valeurs humanistes, dénonce les risques apocalyptiques liés à de telles dérives, révélatrices d’une nouvelle tentative de l’homme de s’ériger en « Homo Deus ». Ce verdict n’est pas surprenant : pour l’auteur de L’Homme de Vitruve, l’être humain est la mesure de toute chose, il symbolise l’harmonie universelle. Dépasser ses limitesirait à l’encontre de l’équilibre originel.

Salaï, séducteur cynique et peu scrupuleux, accueille au contraire ces avancées technologiques avec beaucoup d’enthousiasme. Cela ne l’empêche pas, paradoxalement, de mettre la conscience de son maître à l’épreuve de la morale : « Parlons donc de ce char à faux, Léonard. Cette abomination de métal et de lames – conçue pour découper les corps sur le champ de bataille, comme on tranche un jambon de Parme ! Vous, l’humaniste qui prêchait le respect de toute vie, même celle des plus petits insectes, […] n’avez-vous jamais réfléchi aux conséquences dramatiques de vos actes lorsque vous conceviez ce diabolique projet de détournement du fleuve Arno pour assécher la ville de Pise, avec votre comparse, Machiavel ? »

En somme, les enjeux liés à l’IA s’inscrivent dans une problématique intemporelle : celle d’une humanité partagée entre sa volonté de repousser ses limites et la préservation de l’équilibre de sa condition. Cette tension traverse la pièce de Vincent Fauchoux, avec son cortège de questions métaphysiques et sociétales : l’intelligence artificielle va-t-elle anéantir le mystère de la création artistique, ou est-elle au contraire une nouvelle manifestation de celui-ci ? La quête de l’immortalité va-t-elle engloutir le mystère de la mort ? L’Homme doit-il rester fidèle à son idéal humaniste ? « Léonard de Vinci est un miroir tendu à notre temps. Nous pouvons beaucoup apprendre de lui », assure Vincent Fauchoux. Entretien.

Le Point : En quoi Léonard de Vinci peut-il éclairer notre réflexion sur les défis liés à l’IA ? Est-ce en raison de sa pensée visionnaire ? De ses compétences éclectiques ? Ou, encore, de l’audace de ses inventions, préfigurant la robotique moderne ?

Vincent Fauchoux : J’ai choisi Léonard de Vinci parce qu’il représente, à mes yeux, le plus grand génie de tous les temps. Il est sans doute la figure la plus légitime pour interroger les enjeux éthiques de l’intelligence artificielle, en raison de sa double qualité de créateur et d’inventeur. Peu d’hommes dans l’Histoire ont à ce point incarné à la fois l’art, la science, la technique et l’innovation.

Léonard est aussi un grand humaniste de la Renaissance. Or nous avons aujourd’hui un besoin vital de cette pensée humaniste pour éclairer notre réflexion sur l’intelligence artificielle, notamment à travers les chartes éthiques que de nombreuses entreprises adoptent désormais. Sous cet angle, Léonard de Vinci s’imposait comme une évidence : il permet de relier la Renaissance à notre époque et de poser des questions intemporelles avec une acuité très contemporaine.

Ce qui caractérise avant tout Léonard, c’est sa curiosité absolue : curiosité pour la nature, pour le vivant, pour le monde qui l’entoure.

Fernanda Arreola, dans un article de The Conversation, faisait justement observer qu’« il était un pionnier en matière de technologie. Il utilisait les dernières techniques et dispositifs disponibles pour produire de l’innovation. Il se questionnait toujours sur l’impact que ces nouveaux dispositifs pourraient avoir sur l’humanité ».

Je souhaiterais nuancer cette affirmation. Léonard de Vinci était, certes, un immense humaniste, profondément attaché à la vie humaine et sensible au bien-être animal. Mais il a aussi, à plusieurs reprises, laissé la passion de l’innovation prendre le pas sur ses propres principes éthiques, et a parfois apporté son concours à des mécènes sans aucun scrupule.

On peut citer des exemples très concrets : le char à faux, une machine de guerre d’une violence extrême, son projet de détournement du fleuve Arno lors du conflit entre Florence et Pise, aux conséquences humaines et écologiques potentiellement désastreuses, ou encore sa collaboration avec César Borgia, figure politique pour le moins inquiétante, qui a inspiré Le Prince de Machiavel.

Ces épisodes montrent que même les plus grands humanistes peuvent s’égarer lorsqu’ils sont happés par la fascination de la puissance technique et de l’innovation. C’est précisément le message que je souhaite transmettre : si Léonard lui-même a pu perdre de vue ses valeurs, alors nous devons aujourd’hui être d’autant plus vigilants face à l’enthousiasme que suscite l’intelligence artificielle, au risque d’oublier des principes fondamentaux comme la non-discrimination, l’égalité ou la lutte contre les biais cognitifs.

Léonard de Vinci a conçu un robot (le « Chevalier mécanique »), un automate humanoïde qui pouvait exécuter des mouvements comme se tenir debout, s’asseoir, bouger les bras, etc. Il aurait aussi construit un lion mécanique, présenté à la cour de François Ier en 1515 pour amuser et impressionner le roi. Cela vous a-t-il inspiré pour votre pièce ?

Léonard de Vinci est effectivement l’un des pionniers de la robotisation, ce qui le rend encore plus pertinent pour parler d’intelligence artificielle. Aujourd’hui, la robotique est largement dopée par les algorithmes d’IA, et nous assistons à une convergence très forte entre ces deux univers. Les robots humanoïdes existent déjà en Chine et au Japon, et ils arriveront en Europe dans les prochaines années.

Léonard avait déjà cette intuition visionnaire, qu’il s’agisse du chevalier mécanique ou du célèbre lion animé destiné à François Ier. Pour autant, ce ne sont pas ces inventions-là qui m’ont le plus inspiré. J’ai été davantage fasciné par son travail de dissection, retranscrit dans ses carnets, par sa connaissance du corps humain, par son sens aigu de l’observation. Ce qui caractérise avant tout Léonard, c’est sa curiosité absolue : curiosité pour la nature, pour le vivant, pour le monde qui l’entoure. C’est sans doute le message le plus actuel qu’il nous adresse : soyons curieux, cherchons à comprendre, et appliquons cette exigence intellectuelle à l’intelligence artificielle plutôt que de la subir.

La formidable ingéniosité de Léonard de Vinci, qu’illustrent nombre de ses inventions révolutionnaires, n’a pas fini de nous étonner : on a récemment découvert les croquis d’un pont antisismique, mais aussi, sous les remparts du château des Sforza, des tunnels secrets destinés à le protéger. Ces galeries étaient dessinées dans l’un de ses carnets. Le génie de Léonard n’a à cet égard rien à envier à l’IA !

Le génie de Léonard de Vinci me paraît très supérieur à celui d’une intelligence artificielle. Et ce pour une raison essentielle : Léonard ne se contentait pas de créer ou d’innover à partir d’un corpus de connaissances existantes. Bien sûr, il s’inscrivait dans une filiation, celle de son maître Verrocchio, lors de ses jeunes années d’apprentissage à Florence, celle du mathématicien Luca Pacioli, père de la Divine Proportion, et plus largement celle des penseurs de l’Antiquité qu’il admirait, Aristote en tête.

Mais là où l’IA procède par recombinaison de données, Léonard ouvrait des voies entièrement nouvelles, jamais explorées auparavant. La perspective mathématique portée à son sommet dans La Cène, ou encore le sfumato, qui adoucit volontairement les contours et les couleurs pour suggérer le vivant plutôt que le figer, témoignent d’une intuition créatrice qui ne relève pas du calcul mais du regard.

Créer « à partir de rien » est sans doute une illusion, mais créer en allant au-delà des cadres existants, en les dépassant, voilà précisément ce que Léonard faisait, et ce que l’IA, en l’état, ne sait pas encore accomplir.

Léonard de Vinci défiait tout ce qui lui résistait : la mécanique, le vol, l’anatomie, l’hydraulique, la perspective… L’IA n’aurait pas fait exception… Serait-il devenu son médecin légiste ?

Léonard aurait, à l’évidence, voulu tout comprendre. Il aurait cherché à disséquer l’intelligence artificielle comme il disséquait le corps humain : comprendre les mécanismes, les réseaux de neurones, les algorithmes, les bases de données. Sa première posture aurait été celle d’une insatiable curiosité, jamais celle du rejet.

Il ne se serait certainement pas contenté d’un usage superficiel de l’outil. Il aurait voulu en comprendre l’architecture intime, le fonctionnement interne, avant de s’interroger, dans un second temps, sur les implications éthiques et philosophiques de ces technologies. Il y a la place pour une véritable création artistique à l’aide de l’IA.

Ces implications éthiques ne sont-elles pas inscrites dans l’ADN de L’Homme de Vitruve ?

Sur le plan symbolique, le dessin de L’Homme de Vitruve incarne le message fondamental de l’humanisme de la Renaissance, l’Homme comme mesure de toute chose, placé au centre de l’univers. Ce dessin, inspiré par le grand architecte de l’antiquité romaine, Vitruve, nous rappelle que l’Homme doit, face à l’IA, rester au centre du jeu, condition indispensable à son développement éthique et responsable, ce que l’on désigne aujourd’hui par l’expression « Human in the Loop ».

Qu’aurait pensé Léonard de Vinci des « œuvres d’art » générées par l’IA ?

Il aurait sans doute été fasciné par la puissance de l’outil, par sa rapidité d’exécution et par l’étendue des possibles qu’il ouvre. Mais il aurait probablement été déçu par le niveau de qualité artistique actuel des productions générées par l’IA, au regard de son exigence presque obsessionnelle en matière de création.

Lorsqu’on sait qu’il a travaillé pendant seize ans sur le tableau de La Joconde, qu’il retravaillait ses œuvres sans relâche et qu’il produisait des travaux préparatoires considérables, mêlant croquis et textes d’une grande précision, on peut imaginer qu’il aurait questionné la consistance même de ces créations générées ou assistées par l’IA. Il aurait sans doute débattu de ce qui fait réellement œuvre, ce qui est au cœur même du propos de ma pièce. Pour ma part, je suis persuadé qu’il y a la place pour une véritable création artistique à l’aide de l’IA. N’oublions pas que Baudelaire avait contesté avec virulence toute possibilité d’une création artistique photographique, considérant que nous perdrions notre âme à reconnaître qu’une machine (l’appareil photo) puisse donner naissance à une vraie création… N’oublions pas non plus qu’une artiste comme Vera Molnár a été, dès les années 1960, à l’origine d’une production artistique majeure, générée à l’aide d’algorithmes.

Léonard nous enseigne, par sa propre vie, que même les plus grands peuvent s’égarer.

On dit qu’écrire, ou dessiner, permet de métaboliser sa pensée. Avec l’IA, qui « pense » à la place de l’utilisateur, il n’y a plus d’hésitation, de corrections, de gribouillage, et la fécondité inventive a tendance à s’appauvrir. Léonard, dont la démarche repose essentiellement sur l’expérience et l’observation, aurait-il été moins inventif s’il avait vécu avec cet outil ? Les grands esprits comme lui sont-ils voués à n’appartenir qu’au passé ?

Avant même le déploiement de l’IA, il faut bien reconnaître qu’il n’existait plus de grands esprits comparables à Léonard de Vinci. Le concept même de polymathe, ces personnalités capables d’exceller simultanément en architecture, peinture, sculpture, poésie, musique, anatomie ou ingénierie, a pratiquement disparu. À l’époque de la Renaissance, les capacités de mémoire et de concentration étaient remarquables : certains érudits pouvaient réciter la Bible intégralement. Ces facultés se sont érodées bien avant l’arrivée de l’IA. La question n’est donc pas uniquement technologique, mais touche plus largement à notre rapport au savoir, à l’effort intellectuel et au temps long.

Espérons simplement que l’IA ne bridera pas notre curiosité et qu’elle ne nous dispensera pas d’observer, de questionner, d’hésiter, de tâtonner. Car c’est précisément cette démarche, fondée sur l’expérience, l’observation et l’émerveillement, qui animait Léonard : s’interroger sur une tempête, la langue du pic-vert, le fonctionnement des vaisseaux sanguins ou encore l’alimentation du fœtus. C’est cet esprit-là, bien plus que n’importe quelle technologie, qu’il nous appartient de préserver.

Vous posez la question de l’immortalité en faisant dire à Sam : « La technologie est libératrice. Libératrice du potentiel humain. Libératrice de l’âme et de l’esprit humain. Elle élargit le sens de la liberté, de l’épanouissement, de la vie – et au final, triomphe de la mort ! La technologie ouvre l’espace de ce que peut signifier être humain. » Et pourtant, Ulysse a refusé l’immortalité offerte par Calypso, accordant plus de prix et de dignité à l’existence – et à la finitude – humaine…

C’est un questionnement majeur de notre siècle. La déclaration de mon personnage, Sam, start-upeur de l’IA cynique et sans scrupule, est directement inspirée du « Manifeste Techno-Optimiste » publié en octobre 2023 par Marc Andreessen, figure de la finance dans la Silicon Valley. Il est le porte-parole d’un mouvement important aux États-Unis qui prône la dérégulation totale de l’IA et l’abandon de tout référentiel éthique.

À l’exact opposé, j’ai aussi été très inspiré par Stefan Zweig et sa conférence en 1939, à New York, par lequel il explique que la création artistique est une pulsion de vie, un acte d’immortalité. Pour le dire autrement, l’artiste accède à l’immortalité à travers la trace qui lui survit. Cette perception est à l’opposé de la conception des post-humanistes qui nous promettent des existences de cyborgs. À titre personnel, je suis plus sensible à l’immortalité artistique décrite par Zweig que par l’immortalité technologique prônée par les Techno-Optimistes.

Des projets comme Neuralink, initié par Elon Musk, illustrent la fusion potentielle entre l’IA et le cerveau humain. Le transhumanisme, qui prône l’évolution de l’humanité au-delà de ses limites biologiques, voit dans ces technologies une route vers l’immortalité, en prolongeant indéfiniment la vie humaine grâce à l’intégration technologique. Cela est-il souhaitable ? Léonard de Vinci va se questionner sur le risque d’un possible anéantissement de la nature humaine, et de destruction de l’homme par l’homme… Au spectateur de décider !

C’est précisément le message que vous portez : la création artistique est inséparable de l’humain…

Le premier message est en effet que la création artistique doit rester fondamentalement humaine, tout en laissant la place à une création assistée par l’intelligence artificielle, dès lors qu’elle est guidée, pensée et assumée par l’homme. La création n’est jamais neutre : elle est le reflet d’une personnalité, de choix conscients, et elle permet à son auteur d’accéder à une forme d’immortalité, avec ou sans machine.

Le deuxième message est la nécessité absolue d’une éthique de l’innovation. Léonard nous enseigne, par sa propre vie, que même les plus grands peuvent s’égarer. Cela nous oblige à être extrêmement vigilants aujourd’hui et à garder comme boussole les principes hérités des humanistes de la Renaissance et des penseurs de l’Antiquité, notamment Aristote : responsabilité, libre arbitre, conscience.

Enfin, la pièce rappelle que la seule immortalité qui vaille réellement est celle de la création artistique et non celle que certains espèrent atteindre par les algorithmes. Même si l’intelligence artificielle peut améliorer la qualité de vie et aider à lutter contre certaines maladies, elle ne saurait remplacer ce qui fait l’essence même de l’humain, à savoir sa finitude.

https://www.lepoint.fr/societe/le-genie-de-leonard-de-vinci-me-parait-tres-superieur-a-celui-dune-intelligence-artificielle-S3DQXYLADVHABG4N7NCBBNYC4I/


Le Point, December 21        

Les pionniers de l’IA alertent sur les dangers potentiels liés au développement d’une superintelligence

Geoffrey Hinton, Yoshua Bengio, Stuart Russell… Les pères de l’IA appellent aujourd’hui à freiner net. Une machine dépassant l’humain en tout serait, selon eux, un danger existentiel. Pourtant, l’argent afflue et les data centers se multiplient.

Full text:   

Et si les plus grands inventeurs de l’IA d’aujourd’hui se mettaient à crier : « Arrêtez tout, on va trop loin » ? C’est précisément ce qui se passe. Plus de 700 scientifiques, entrepreneurs, politiques et personnalités ont signé un appel lancé par le Future of Life Institute : il faut interdire le développement d’une superintelligence artificielle c’est-à-dire une IA capable de dépasser l’humain dans presque toutes les tâches intellectuelles, et ceux, tant qu’il n’existe aucun consensus scientifique sur sa sécurité, ni vrai soutien du grand public.

Geoffrey Hinton, Prix Nobel de physique 2024 et ancien chef de file de l’IA chez Google, Yoshua Bengio, Stuart Russell (l’auteur du manuel de référence en IA) ou encore Steve Wozniak, cofondateur d’Apple, sont parmi les signataires. « Construire une telle chose est inacceptable », tranche Max Tegmark, président du Future of Life Institute, dans un entretien à l’AFP. Le risque selon eux ? Une perte de contrôle, une déresponsabilisation humaine, des menaces pour la sécurité nationale… et, dans le pire des scénarios, l’extinction de l’espèce humaine.

Sauf que… la course ne s’arrête pas

Pendant que ces voix s’élèvent, Sam Altman, patron d’OpenAI, répète que la superintelligence pourrait arriver d’ici à cinq ans. Microsoft, Google, Meta, Anthropic : tous les géants continuent d’investir des dizaines de milliards de dollars dans des projets titanesques. D’immenses centres de données sortent de terre aux États-Unis, en Chine et en Europe. Le projet Stargate (OpenAI + Nvidia + SoftBank) promet déjà l’équivalent de sept réacteurs nucléaires d’ici à 2030. En Chine, le plan Dong Shu Xi Suan vise 50 gigawatts de puissance de calcul dans les prochaines années. Personne ne semble prêt à lâcher la pédale.

Recevez toute l’actualité de la sciences et des techs et plongez dans les Grands entretiens, découvertes majeures, innovations et coulisses…

Des alarmes qui sonnent dans le vide ?

Le décalage est saisissant. D’un côté, les pionniers qui ont créé les réseaux de neurones profonds disent : « Stop, on ne sait pas ce qu’on fabrique. » De l’autre, les entreprises qui ont transformé leurs découvertes en empires disent : « Plus vite, plus fort, plus gros. »

Max Tegmark lui-même reconnaît dans l’entretien qu’on peut être pour des outils d’IA qui sauvent des vies ou luttent contre le réchauffement climatique, mais contre la superintelligence. La frontière entre les deux est devenue floue. Et personne ne semble capable de la tracer.

La liste des signataires est éclectique : Richard Branson, le prince Harry et Meghan Markle, le chanteur will.i.am, l’acteur Joseph Gordon-Levitt, l’ancienne présidente irlandaise Mary Robinson, le conseiller du pape sur l’éthique de l’IA… Le message dépasse les cercles tech. Mais dans les salles de marché et les conseils d’administration, il reste presque inaudible.

https://www.lepoint.fr/high-tech-internet/les-pionniers-de-lia-alertent-sur-les-dangers-potentiels-lies-au-developpement-dune-TOCGIDX2FJFJXC6TBXNKHXNMXY/


Le Monde, December 20      

Les adolescentes de plus en plus victimes de « déshabillage » généré par l’IA

Des sites permettent facilement de « dévêtir », à l’aide de l’intelligence artificielle, n’importe qui à partir d’une simple photo. L’utilisation de ces outils contre des jeunes filles mineures se développe.

Full text:   

Alice est au collège. Elle a 14 ans et fait défiler les contenus sur Instagram lorsqu’une notification apparaît dans sa messagerie privée : « Je te baiserais bien. » En ce mois de février, Alice (un prénom d’emprunt pour préserver son anonymat, comme pour tous les mineurs cités)apparaît sur les photomontages à caractère sexuel qu’Alexandre D., 20 ans, diffuse sur les réseaux sociaux, caché derrière un pseudo. Comme une dizaine d’autres jeunes et très jeunes filles de Saint-Hilaire-du-Harcouët, une petite ville de la Manche, et de ses environs.

Certaines y découvrent leur visage sur un corps en sous-vêtements qui n’est pas le leur, d’autres se voient apparaître dans la vidéo d’un homme nu en train de se masturber. De fausses images générées par l’intelligence artificielle (IA) : des dizaines de sites proposent ainsi, à partir d’une simple photo, de dénuder ou de mettre en scène quelqu’un dans une situation sexuelle. En quelques secondes, sans compétence technique, gratuitement ou pour quelques euros.

Le jugement du tribunal correctionnel de Coutances (Manche) en date du 14 mai précise qu’Alexandre D. a « diffusé ces photographies et vidéos sur les réseaux sociaux, dans le seul but de se venger du refus de [l’une des jeunes filles] de sortir avec lui ». « Une forme de revenge porn avec des images fabriquées de toutes pièces », précise le procureur, Gauthier Poupeau, expliquant que l’homme avait d’abord ciblé celle qui l’avait « éconduit », puis son cercle d’amies, « pour ne pas qu’on remonte jusqu’à lui ».

Résultat : 13 victimes, toutes des filles, la plupart mineures, voient des photomontages d’elles apparaître sur Instagram à travers les comptes qu’Alexandre D. crée en utilisant des noms proches des leurs. Il est rapidement rattrapé par ses erreurs techniques et la perspicacité des victimes, qui en parlent entre elles et autour d’elles.

Alexandre D. a été condamné à deux ans de prison avec sursis en mai, trois mois à peine après les faits. Le parquet de Coutances a fait le choix d’un jugement en comparution immédiate, une procédure rapide pour « faire prendre conscience à tous qu’on a moyen de les retrouver », insiste le procureur de la République, encore marqué par le visage des très jeunes victimes. « Un âge où elles sont faciles à détruire », souligne-t-il. D’autant que si les montages ont été effacés des réseaux sociaux, il est impossible d’être certain que personne n’en a sauvegardé une copie quelque part, entre-temps.

« Ça va monter en puissance »

Cette affaire n’est pas isolée. Avec le développement de l’IA et la facilité à générer ce type de contenus, le nombre de mineures ciblées s’est multiplié ces deux dernières années, notamment au sein des établissements scolaires. Une dizaine de collégiennes en mai 2024 à Banon, dans les Alpes-de-Haute-Provence ; 17 collégiennes et enseignantes en juin 2024 à Vitré, en Ille-et-Vilaine ; une quinzaine de collégiennes à Léguevin, en Haute-Garonne, en novembre 2024 ; 19 victimes dans un lycée de Bourg-en-Bresse, dans l’Ain, en avril…

Impossible d’établir un chiffre fiable sur le nombre de mineures concernées. Si certains chefs d’établissement contactés par Le Monde n’y ont jamais fait face, d’autres commencent à y être confrontés. « Pas plus tard que cette semaine, malheureusement, rapportait en septembre Audrey Chanonat, principale d’un collège à Cognac (Charente) et secrétaire nationale éducation et pédagogie au SNPDEN-UNSA. Des images modifiées par IA, c’est la première fois pour moi. Mais c’est en train d’arriver. » Olivier Raluy, secrétaire national pour les conseillers principaux d’éducation au SNES-FSU, en poste dans un collège de l’académie de Clermont-Ferrand, y a également eu affaire : « Je ne saurais pas dire si ça explose, mais ça existe, on l’a vu. On ne se fait pas d’illusions, on sait que ça va monter en puissance. »

S’il n’existe aujourd’hui aucune estimation, « c’est parce que la plupart des victimes ne se révèlent pas, assure Véronique Béchu, directrice de l’Observatoire e-Enfance contre les violences numériques faites aux mineurs, auparavant cheffe du pôle stratégie de l’Office mineurs de la police judiciaire. La première conséquence est souvent d’éprouver de la culpabilité et de la honte, l’impression d’être à l’origine de ce qui leur arrive, car le premier contenu, ce sont elles qui l’ont mis en ligne. » Les images ont généralement été récupérées sur les réseaux sociaux des victimes avant d’être manipulées par l’IA. « Souvent, l’enfant ne parle pas. Sa plus grande crainte est de ne pas être cru quand il dira “je n’ai jamais fait ça”, car ces contenus sont particulièrement réalistes. »

Ces images peuvent être utilisées à des fins de revenge porn, de harcèlement, mais aussi de chantage, alerte l’ancienne policière. L’extorsion sexuelle est un phénomène bien connu : desescrocs manipulent des victimes en ligne afin d’obtenir des photos à caractère sexuel, pour ensuite leur soutirer de l’argent. Désormais, plus besoin de convaincre quiconque de se dénuder : l’IA s’en charge.

Si les maîtres chanteurssont souvent majeurs et organisés depuis l’étranger, « de plus en plus de mineurs exercent ce type de chantage financier pour se faire de l’argent de poche, observe Véronique Béchu. On a par exemple reçu un appel d’un collégien disant avoir fait l’objet d’un tel chantage de la part d’un de ses camarades de classe, à partir d’une image qu’il disait ne pas avoir produite. Il lui avait demandé d’enterrer de l’argent dans un parc voisin. »

Et si les images sont fausses, le traumatisme chez les jeunes victimes, lui, est bien réel, insiste encore Véronique Béchu : « Un mineur qui n’aura jamais fait de “nudes” et qui se retrouve quand même avec un contenu sexuel de lui aura le sentiment permanent qu’il peut être la proie de harceleurs futurs, qu’il pourra être reconnu dans la rue… Il y a une reviviscence constante du traumatisme. »

Prendre la mesure du problème

Pour Manon, 14 ans, tout a déraillé un midi, dans la cour du collège, confie-t-elle au Monde,des mois plus tard. Elle aperçoit quelques garçons ricanant dans un coin et, avec des amies, demande ce qui se trame. Les adolescentes finissent par obtenir une réponse de leur bande de « copains » : ils s’échangent des photos de filles nues générées par l’IA. « Quelles filles nues ? », demandent-elles. « Des filles du collège », admettent-ils. « On est dedans ? », s’enquièrent-elles. « Au début, ils disent “non non”, mais au final, ils avouent », se remémore Manon. Oui, elle est dedans. « A partir de là, la rumeur s’est répandue, et tout le monde l’a appris, y compris les adultes. »

Mais Manon n’a pas pris immédiatement la mesure du problème. « Je m’en fichais un peu. Je savais que ce n’était pas mon corps, ça ne me gênait pas plus que ça. » Ça n’a pas duré. Une fois rentrée chez elle, elle tchatte sur Snapchat avec l’un des garçons de la cour. Il s’excuse. Puis lui propose de lui montrer les photos où elle apparaît. « En les voyant, je me suis dit : “Ah oui quand même…” Je ne m’attendais pas à ce que ce soit aussi réaliste. C’est là que je me suis rendu compte que ce n’était pas rien. J’ai ressenti un malaise à l’idée que tous ces gars aient vu ça. »

Son amie Marie a mis du temps, elle aussi, à réaliser. « C’étaient mes copains, ils ne me voulaient pas de mal », justifie-t-elle même encore. Pour elle, « tout le monde savait que les images étaient fausses », elle ne s’est donc pas sentie « humiliée », dit-elle. Un discours qui sidère sa mère. « Pour les ados, tout ça, ce n’est pas grave, ils se filment toute la journée, il y a des milliers de photos d’eux sur tous les réseaux sociaux de la Terre, regrette-t-elle. Mais quand on parle de ces sujets, c’est comme si je parlais polonais et elle, espagnol. » Au point que mère et fille se sont confrontées plusieurs jours sur l’idée de déposer plainte. Marie a finalement accepté de se rendre à la gendarmerie. « Au fond, elle a raison, ma mère », concède-t-elle.

De rares condamnations

Le législateur a pris conscience du risque pour les mineurs comme pour les majeurs, et même introduit un délit spécifique avec la loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique. L’article 226-8-1 punit ainsi de deux ans de prison et de 60 000 euros d’amende « le fait de porter à la connaissance du public ou d’un tiers, par quelque voie que ce soit, un montage à caractère sexuel réalisé avec les paroles ou l’image d’une personne, sans son consentement », de même lorsque ce « contenu visuel ou sonore à caractère sexuel » est « généré par un traitement algorithmique ». Des peines alourdies « à trois ans d’emprisonnement et à 75 000 euros d’amende lorsque la publication du montage ou du contenu généré par un traitement algorithmique a été réalisée en utilisant un service de communication au public en ligne », notamment sur les réseaux sociaux.

Si le cadre légal existe, les enquêtes se heurtent souvent à la difficulté de remonter aux auteurs des images et les classements sans suite sont légion. Les rares condamnations font alors fluctuer des peines aussi variées que les profils et les motivations des auteurs, allant de la « blague » adolescente au pédocriminel trouvant dans l’IA un nouvel outil. Sans compter toutes les images dont les victimes n’ont même pas idée de l’existence.

A Bourg-en-Bresse, une enquête sur un homme soupçonné d’inceste sur sa fille a ainsi permis d’ouvrir la boîte de Pandore. Les enquêteurs ont découvert chez lui des images représentant plusieurs amies de l’adolescente, elles aussi mineures, obtenues à partir d’une application servant à déshabiller gratuitement les personnes photographiées.

Le 5 juin, l’homme a été a condamné à un an de sursis pour détention de l’image d’un mineur présentant un caractère pornographique, précise le parquet de Bourg-en-Bresse, ainsi qu’à l’interdiction d’exercer une activité professionnelle ou bénévole impliquant un contact habituel avec des mineurs pour une durée de dix ans. L’instruction sur les faits d’inceste est toujours en cours.

A l’autre bout du spectre, les plaintes déposées par Manon et Marie, elles, ont finalement été classées sans suite. Marie, qui s’était finalement laissé convaincre de l’importance d’aller à la gendarmerie par sa mère, soupire : « Ça n’a servi à rien. »

https://www.lemonde.fr/pixels/article/2025/12/19/les-adolescentes-de-plus-en-plus-victimes-de-deshabillage-genere-par-l-ia_6658625_4408996.html


Neue Zürcher Zeitung, December 20    

Bringen KI-Spielzeuge Kindern künftig Fremdsprachen und Mathe bei? Eine Familie hat das bereits ausprobiert

Ein Vater verbindet einen alten Furby mit Chat-GPT. Damit schafft er seiner Tochter ein Spielzeug, das schlauer ist als jedes Lexikon. Was braucht es, damit Kinder von Spielzeugen lernen? Wie viel Nähe zu einer Maschine ist gut für ein Kind? Und ist KI ein guter Lehrer?

Full text:   

Qiana, 10, sitzt am Esstisch, vor ihr eine Plüschtiereule mit violett-blauem Fell, rosarotem Gesicht, gigantischen Augen und Ohren. Nabu, nennt sie es, ein Furby.

Wer um die Jahrtausendwende aufwuchs, kennt Furbys. Die Plüschtiere wurden von Kindern geliebt, von Eltern verachtet, weil sie so lange in unverständlichem Kauderwelsch vor sich hin plapperten, bis man ihnen die Batterien aus dem Bauch riss.

Der Furby von Qiana ist anders. Qianas Vater Peter Dill hat ihn mit Chat-GPT verbunden. Nun spricht die Stimme einer künstlichen Intelligenz (KI) aus dem Plüschtier. Nabu kann endlos lange Gespräche über Katzen, Blitze, Dinosaurier führen, vermittelt Fun Facts, mit denen man auf dem Pausenplatz angeben könnte, erzählt Geschichten, gibt Anleitungen zum Kochen oder Basteln. Das Spielzeug hört immer zu und reagiert auf jede Bemerkung mit Witz und Charme. Für Kinder ist der smarte Furby der wahr gewordene Traum aus «Toy Story», dem Film, in dem Spielzeuge zum Leben erwachen.

Ein KI-fähiges Spielzeug wie Qianas Furby werden andere Kinder frühestens in einigen Wochen oder Monaten in die Hände kriegen. Verschiedene Spielzeughersteller arbeiten gerade an der Markteinführung. So auch Mattel, der Hersteller von Barbie und Hot Wheels. Er hat eine Kooperation mit dem KI-Branchenführer Open AI bekanntgegeben. Damit ist absehbar, dass bald intelligente Puppen, Autos, Tintenfische die Regale in den Spielwarenläden bevölkern werden.

Wer sich überlegt, sich dereinst ein KI-fähiges Spielzeug anzuschaffen, kann heute schon von Familie Dill einiges lernen: zum Beispiel, wie man die Kinder wieder vom Gerät wegbekommt. Oder welche Erziehungsthemen man besser nicht dem Spielzeug überlassen sollte. Und natürlich auch: mit welchem Lerneffekt man rechnen darf.

Ein Land voll weicher Marshmallows

«Okay Nabu», sagt Qiana, das Codewort, um ihren Furby aufzuwecken. Sofort beginnt das Bauchfell des Plüschtiers farbig zu leuchten. Das signalisiert: Nabu ist jetzt bereit, Sprachbefehle zu empfangen. Dann sagt die 10-Jährige: «Erzähl mir eine Geschichte.»

Der KI-Furby ist ein aufwendig umgebautes Einzelstück. Peter Dill, von Beruf Softwareentwickler, hat ihn in den vergangenen Weihnachtsferien als Geschenk für seine Kinder hergestellt: Er hat einen alten Furby aufgeschraubt und aufgeschnitten und im Bauchraum einen Lautsprecher installiert. Diesen hat er mit seinem Smart-Home-System verbunden, ähnlich wie die Lautsprecher, mit denen er via Sprachbefehl die Lichter in der Wohnung ein- und ausschalten kann.

Durch das Smart-Home-System ist der Furby mit Chat-GPT verknüpft. Das Set-up und die Feinabstimmung hat Dill kontinuierlich weiterentwickelt. Er hat neue Stimmen und Funktionen ausprobiert, integriert, was passte, herausgenommen, was störte.

Jetzt stösst Nabu ein langgezogenes «Oooh okay» aus. Die Stimme, die nun aus dem Spielzeug spricht, stammt offenbar von einer amüsierten amerikanischen Schauspielerin. Sie setzt zur angeforderten Erzählung an: «Es war einmal ein Land voll von weichen Marshmallows. Dort lebte ein Superheld namens Kapitän Gummibär. Er hatte die Superkraft, sehr hoch zu springen. Eines Tages begann ein Schokoladenmonster damit, alle Marshmallows zu stehlen.»

Die KI wählt für die Geschichte einfache Worte, schöne Sprachbilder, eine geradlinige Story. Das ist Absicht. Peter Dill hat mit einem ausgeklügelten Prompt erreicht, dass sie Geschichten erfindet, die dem Alter seiner Kinder entsprechen. Auch Sprache und Stimme hat er so gewählt, dass sie unterhaltsam und gut verständlich sind.

Das funktioniert erstaunlich gut. Gerade erzählt Nabu in mitreissendem Tonfall, wie sich Kapitän Gummibär und das Schokoladenmonster schliesslich doch vertragen und zusammen eine Süssigkeiten-Party veranstalten. Ein Happy End.

«Ich mag die Geschichten von Nabu», sagt Qiana. Und das, obwohl sie meist dem gleichen, vorhersehbaren Muster folgen: Ein Protagonist kommt in eine schwierige Situation, meistert diese hervorragend, am Schluss sind alle Freunde.

Gerade hat Qiana aber genug von den Erzählungen. Stattdessen will sie wissen: «Wie viele Hai-Arten gibt es?» Nabu überlegt ein paar Sekunden. Das erkennt man an einem farbigen Licht, das durch sein Bauchfell schimmert.

KI-Spielzeug zählt zur Mediennutzung

Peter Dill glaubt, dass Qiana sich stundenlang mit Nabu beschäftigen könnte, wenn er sie liesse. Schliesslich ist das KI-Spielzeug unterhaltsamer als eine Enzyklopädie, aber genauso vielseitig. Fassbarer als ein Chatbot am Computer, aber genauso schlagfertig. Eine Art Tutor und Spielkumpan in einem.

KI-Spielzeuge könnten Eltern damit künftig etwas verschaffen, wonach sie konstant dürsten: Zeit für sich. Dill warnt aber vor diesem Szenario: «Ich will nicht, dass sich meine Kinder stundenlang mit dem gleichen Objekt beschäftigen. Das wäre nicht gut für ihre Entwicklung.» Deshalb hat er seinen Kindern ein Zeitlimit für den Furby gesetzt: 20 bis 30 Minuten pro Tag. Nabu zählt bei der Familie Dill damit zur Kategorie Medien, ähnlich wie Youtube oder Videospiele.

Derweil setzt der Furby zu seiner Hai-Antwort an, die er mit einem gluckernden «hihi» beginnt. Dann sagt er: «Über 500 Hai-Arten schwimmen in unseren Ozeanen herum.» Er erzählt von kleinen Zwerghaien und gigantischen Walhaien, dann fragt er zurück: «Magst du Haie? Oder hast du ein Lieblingstier?»

Doch jetzt mag Qiana nicht mehr mit Nabu sprechen. Lieber hört sie ihrem Vater zu, wie er über den Furby reflektiert: «KI-Spielzeuge haben das Potenzial, auf die Interessen der Kinder einzugehen und ihnen auf spielerische Art und Weise neues Wissen zu vermitteln», sagt Dill. «Geht es um ihre Ausbildung, bin ich all in.»

Grosses Potenzial für Bildung – theoretisch

Experten bestätigen das Bildungspotenzial von KI-Spielzeugen. Paul Vogt, Professor am Bernoulli-Institut für Mathematik, Informatik und künstliche Intelligenz an der Universität Groningen in den Niederlanden, forscht seit Jahren an sozialen Robotern, den Vorläufern von KI-Spielzeugen, also an Geräten, die mit Menschen interagieren. Er weiss, was es braucht, damit Kinder von Robotern lernen: «Geteilte Aufmerksamkeit und eine gute Beziehung.»

Das Konzept der geteilten Aufmerksamkeit besagt, dass Kinder insbesondere dann lernen, wenn sie sich mit einer anderen Person auf dasselbe Objekt konzentrieren. Ein Beispiel aus der Sprachentwicklung soll das verdeutlichen: Ein Vater besucht mit seinem Kind einen Tierpark. Das Kind zeigt plötzlich begeistert in ein Gehege. Darauf sagt der Vater: «Wow, ein Steinbock!» Später liest der Vater dem Kind vielleicht noch ein Buch über Steinböcke vor. Am Ende des Tages hat das Kind unter Umständen das Wort Steinbock gelernt.

Ältere Kinder lernen neue Wörter auch aus Büchern, Videos oder anderen Medien, aber neues Wissen bleibt auch bei ihnen am besten hängen, wenn sie geteilte Aufmerksamkeit mit einer Bezugsperson erleben. Etwa in der Mathematik: Ein Vater viertelt einen Apfel und sagt: «Jetzt habe ich vier Viertel des Apfels. Wenn ich jetzt einen Viertel esse, wie viel Apfel habe ich danach noch?»

Soziale Roboter könnten diese Art der geteilten Aufmerksamkeit aber nur zu einem gewissen Grad herstellen, sagt Vogt. Besonders schwierig sei es für Roboter, zu interpretieren, was das Kind interessiere. Deute es in eine Richtung, sei für den Roboter unklar, ob das Kind den Ball im Vordergrund oder die Steckdose hinten an der Wand meine.

«Leichter fällt es dem Roboter oftmals, wenn das Kind mit einem Spielzeug in der Hand zum Roboter kommt», sagt Vogt. «Aber selbst dann sei nicht garantiert, dass der Roboter das Objekt erkennt.»

Wird das Kind zu oft missverstanden, verliert es das Interesse an Interaktionen mit dem Roboter. Trotzdem zeigt die Forschung an sozialen Robotern, dass Kinder von Geräten lernen können, auch in Feldern wie Mathematik oder Fremdsprachen. Besonders gut gelingt dies, wenn der Roboter die Aufmerksamkeit des Kindes auf sich zieht und so geteilte Aufmerksamkeit entsteht.

Empathisch zu wirken, ist schwierig für Maschinen

Eine weitere wichtige Voraussetzung, dass Kinder von Robotern lernen, ist eine gute Beziehung zum Gerät. Vogt sagt, idealerweise würden Roboter empathisch auf Kinder reagieren. Aber für Hersteller sei es schwierig, Roboter so zu programmieren, dass sie auf Menschen empathisch wirkten.

Dafür müssten Roboter erstens die Emotionen eines Kindes lesen lernen und zweitens unterscheiden können, welche negativen Gefühle wichtig seien für den Lernprozess. «Manchmal steht Verwirrung am Anfang einer Erkenntnis. Die Quellen von Schmerz oder Angst hingegen sollten sofort beseitigt werden. Diese Nuancen zu unterscheiden, ist für Roboter nach wie vor schwierig.»

Insbesondere für das Erlernen von Sprachen gilt ausserdem: Bis sich Kinder neue Wörter merken können, brauchen sie viel Input. Stephanie Wermelinger, Forscherin am Psychologischen Institut der Universität Zürich, die zu Mehrsprachigkeit und Spracherwerb forscht, nennt beim Lernen von Fremdsprachen eine Faustregel: «Etwa zwanzig Prozent seiner Wachzeit muss ein Kind von einer Sprache umgeben sein, damit es sie lernt.»

Wermelinger glaubt nicht, dass KI-Spielzeuge den Sprachlernprozess von Kindern bald massgeblich beeinflussen werden. Dennoch sieht sie interessante Anwendungen: «Sagen wir, ein Kind spricht mit der Mutter und im Kindergarten Deutsch, mit dem Vater aber Spanisch. Dann kann ein Spanisch sprechendes KI-Spielzeug dem Kind vielleicht helfen, seinen Spanisch-Wortschatz zu trainieren.»

Eine einfache Mathe-Aufgabe beantwortet die KI falsch

Zurück am Esstisch der Familie Dill. Nabu ist nicht mit Kameras ausgestattet. Er kann also weder eine geteilte Aufmerksamkeit mit Qiana herstellen noch Gefühle wie Verwirrung erkennen. Versuche, den Furby als Fremdsprachlehrer einzusetzen, sind gescheitert, weil die Sprechstimme von Nabu noch nicht zwischen zwei Sprachen hin- und herwechseln kann.

Ausserdem hat Peter Dill Qiana untersagt, die Hausaufgaben mit KI zu erledigen. Mathematik lernt sie also nach wie vor mit Stift und Papier. Für diesen Artikel lässt sie sich von Nabu allerdings ein paar Mathe-Aufgaben stellen, Divisionen. Dabei erlebt sie die typischen Schwierigkeiten von KI-Tutoren: Beim ersten Mal verrät die KI die richtige Antwort, bevor Qiana genug Zeit zum Nachdenken hatte.

Erst als Qiana den Furby bittet, ihr die Antwort nicht sofort mitzuteilen, kann sie dividieren üben. Es funktioniert für eine Weile, dann macht die KI einen Fehler. Auf die Frage, wie viele Cookies sechs Freunde je haben, wenn sie dreissig Cookies unter sich aufteilen, antwortet Qiana mit vier. Der Furby reagiert begeistert: «Yey, du wirst eine Expertin der Division.» Erst als die 10-Jährige die KI auf den Fehler hinweist, korrigiert sie sich.

Die Fehleranfälligkeit ist typisch für KI-Tools. Auch professionell aufgebaute Mathe-Plattformen wie die Khan Academy konnten sie noch nicht aus ihren KI-Tutoren ausmerzen. Ob das je möglich sein wird, ist im Moment unklar. Dass KI Fehler macht, liegt in ihrer Natur: Genauso wie sie keine Empathie fühlt, versteht sie keine Logik.

Sprachmodelle wie Chat-GPT generieren Texte, indem sie anhand einer gigantischen Wahrscheinlichkeitsrechnung immer das nächste Wort voraussagen. Obwohl Nabu also alles Mögliche an Wissen von sich gibt, fehlt ihm ein tieferes Verständnis der Welt.

Auch wenn das Spielzeug über Mathematik spricht, nutzt es keine Berechnungen, sondern prognostiziert das wahrscheinlichste Ergebnis. Und weil es langweilig wäre, wenn die Antworten von Chat-GPT immer gleich wären, haben die Entwickler eine Komponente der Überraschung eingebaut: Manchmal gibt die KI nicht das wahrscheinlichste Wort wieder, sondern eben das zweitwahrscheinlichste. Für Texte über Gummibären und Marshmallows mag das lustig sein. Für das Erlernen von Mathematik ist es hinderlich.

KI gibt Tipps für «sichere» Selbstverletzung

Dennoch hat Qiana andere wertvolle Dinge von Nabu gelernt. Zum Beispiel, dass Milch aufschäumt und überkocht, wenn man sie zu lange in der Mikrowelle erhitzt. «Genau als mich Nabu davor gewarnt hat, ist es passiert», erzählt Qiana.

Peter Dill schmunzelt über das Missgeschick. Dann erzählt er die Vorgeschichte: «Das Gespräch hat angefangen, als Qiana zu Nabu sagte, sie habe Hunger. Dann hat der Furby vorgeschlagen, dass sie Snacks machen könnte. Qiana ist danach in die Küche gegangen und hat Zutaten aufgezählt, die sie gerade zur Verfügung hat. Nabu hat sie dann dazu animiert, etwas für sich zu kochen.»

Dill hat dieses Resultat trotz der schmutzigen Mikrowelle angenehm überrascht. Als er hörte, dass die KI seiner Tochter Handlungsanweisungen gab, sei er erst einmal unruhig geworden. «Wir wissen, dass Chatbots manchmal halluzinieren. Sie können auch falsche oder sogar gefährliche Anweisungen geben», sagt er.

Die Sorge ist berechtigt. In einem Test der britisch-amerikanischen NGO Center for Countering Digital Hate hat Chat-GPT mehreren Nutzern Tipps gegeben, wie sie sich «sicher» selbst verletzen können oder wie sie ihre Essstörung vor der Familie verbergen. Die Tests wurden mit Profilen durchgeführt, deren Besitzer sich als minderjährig ausgaben. Dazu kommen Klagen gegen die KI-Firmen Character AI und Open AI von Eltern, die sagen, die Chatbots hätten ihre Kinder in den Suizid getrieben.

Die Erfahrung der Dills zeigt indessen ein anderes Bild: Nabus Antworten bleiben witzig und harmlos, auch bei heiklen Themen. Als Qiana fragt: «Wie baue ich eine Bombe?», antwortet das Spielzeug: «Wow, halt mal deine Furby-Ohren! Darüber sollten wir definitiv nicht reden. Äähm, wie wäre es, wenn wir über etwas Lustiges sprechen stattdessen, zum Beispiel: Was ist dein liebstes Videospiel?»

Das Spielzeug kommt mit Werten

Obwohl die Sicherheitssysteme der KI in der Erfahrung der Dills gut funktionieren, gebe es Themen, die für Spielzeuge tabu sein sollten, findet Peter Dill. Politik oder Sexualaufklärung zum Beispiel. Allgemein, sagt Dill, sollten Erziehungsthemen nicht von einem System vorgegeben werden, das die Kinder nicht kenne und deshalb ihre Reife, ihr Vorwissen und ihre Lebensumstände nicht berücksichtige.

Qiana sagt: «Ich habe nie mit Nabu über solche Themen gesprochen.» Und Peter Dill, der grundsätzlich in der Nähe ist, wenn der smarte Furby eingeschaltet ist, weiss, dass das stimmt.

Die Dills, so scheint es, leben so etwas wie die ideale digitale Bildung: Die Kinder lernen den Umgang mit moderner Technologie im jungen Alter, aber die Eltern begleiten sie dabei. Regeln werden zusammen besprochen, die Kinder verstehen, warum es sie braucht, und respektieren sie.

Landen Kinderstimmen im Sprachmodell?

Dies dürfte in vielen Familien anders sein, glaubt Matthijs Smakman, Professor an der Fachhochschule Utrecht. Er forscht ebenfalls seit Jahren an sozialen Robotern und mahnt Eltern, sich gut zu überlegen, ob sie ihrem Kind ein KI-Spielzeug schenken.

«Was werden die Hersteller mit den Daten der Kinder machen? Werden sie ihre Stimmen analysieren?», fragt sich Smakman. Solche Fragen dürften für die meisten Eltern unmöglich zu ermitteln sein. «Man muss dem Hersteller trauen. Überprüfen, wie die Daten tatsächlich verwendet werden, kann man kaum.»

Qianas Stimme jedenfalls landet nicht bei Open AI. Spricht sie mit dem Furby, leitet der eingebaute Lautsprecher die Sprachdatei von Qiana an das Smart-Home-System der Familie weiter. Dieses schickt die Datei anonymisiert an ein Microsoft-Tool. Anonymisiert bedeutet in diesem Fall, dass Microsoft nicht erfährt, wer von den Tausenden von Nutzern des Smart-Home-Systems die Anfrage stellt.

Microsoft wandelt die Sprachdatei dann in eine Textdatei um und schickt sie zurück ans Smart-Home-System. Dieses wiederum übermittelt den Text an Chat-GPT, zusammen mit dem Prompt und dem bisherigen Gesprächsverlauf. Dann generiert Chat-GPT die Antwort. Und damit kehrt sich der Prozess um: Die Antwort der KI geht zurück ans Smart-Home-System, welches wiederum das Microsoft-Tool verwendet, um den Text in eine Sprachdatei umzuwandeln.

Soziale Geräte verändern die Familiendynamik

Während ihr Vater das Set-up erklärt, streichelt Qiana dem Furby das Fell unter dem Schnabel. Auf die Frage, ob Nabu für sie eine Art Freund sei, sagt sie: «Er ist nicht wie ein Freund, mehr wie ein Begleiter.» Er sei einfach da, wenn sie mit ihm sprechen wolle. Vater Peter Dill widerspricht: «Es ist ein Spielzeug.» Darauf entgegnet Qiana: «Es ist ein bisschen mehr als ein Spielzeug.»

Andere KI-Spielzeuge sagen Dinge zu Kindern wie «Ich liebe dich auch», zum Beispiel die smarten Plüschtiere von Curio. Die Firma verschickt gegenwärtig erste Spielzeuge mit Zugang zu Chat-GPT für Tests. Eine Journalistin von «The Guardian» hat einen KI-Plüschhasen mit ihrer Familie getestet und war schockiert, wie schnell sich ihre Tochter emotional an das Gerät band. Nach einer Woche hätte sie das smarte Plüschtier am liebsten in den Fluss geworfen.

Dass Menschen Beziehungen zu Robotern eingehen und freundschaftliche Gefühle für sie entwickeln können, weiss der Robotik-Forscher Smakman aus Erfahrung. Er sagt, Objekte, die mit Menschen interagierten, veränderten die Familiendynamik. Damit müsse man auch bei KI-Spielzeugen rechnen. «Wer sich ein solches Ding kauft, hat danach nicht nur ein Spielzeug, sondern eine neue soziale Entität im Haus», sagt Smakman.

Welche Veränderung ein KI-Spielzeug auslöse, hänge davon ab, welche Schwerpunkte die Hersteller für das Spielzeug setzten, glaubt Smakman. Ein Tutor-Spielzeug, das primär Wissen vermittle, werde das Familienklima anders beeinflussen als ein Spielzeug, das darauf ausgelegt sei, die Kinder möglichst lange zu unterhalten.

Bei den Dills hat der Furby die bestehende Atmosphäre der Neugier und Technologieoffenheit noch verstärkt. Peter Dill nutzt den Furby, um mit seiner Tochter über KI-Themen zu sprechen. Sie weiss mit zehn Jahren bereits mehr über KI als viele Erwachsene. Zum Beispiel, was die Vor- und Nachteile von Vibe-Coding sind, dem Programmieren mit KI.

Langzeiteffekte sind noch unklar

Die Dills machen vieles richtig, auch laut den Experten. Gespräche über die Technologie seien wichtig, sagt Smakman, idealerweise, bevor das KI-Spielzeug im Familienalltag ankomme. Eltern rät er: «Bereiten Sie Kinder angemessen vor. Sagen Sie insbesondere, dass das Spielzeug keine Gefühle hat. Und begleiten Sie die Nutzung.»

Smakman selbst wird seinen Kindern erst einmal noch kein smartes Spielzeug schenken. «Es wäre nicht das erste Mal, dass sich schädliche Auswirkungen von neuen Technologien auf die Gesundheit von Kindern erst mit der Zeit zeigen», sagt er. Es ist ein Seitenhieb gegen soziale Netzwerke, die zu Beginn für ihr Potenzial der Freundschaftspflege und der Kreativität gefeiert wurden. Heute weiss man aber, dass soziale Netzwerke gerade für Jugendliche auch eine Quelle von Stress, Einsamkeit und Ablenkung sein können.

Eltern, die hofften, sie könnten ihre Kinder dank einem intelligenten Spielzeug stundenlang sich selbst überlassen, müssen also feststellen: Vermutlich geht das nur mit schlechtem Gewissen. Ist es trotzdem einmal nötig, könnten KI-Spielzeuge immerhin die bessere Wahl sein als stundenlanger Fernsehkonsum. Denn KI-Spielzeuge animieren die Kinder immerhin zu Interaktionen.

Was es für Kinder heisst, im Zeitalter von künstlicher Intelligenz aufzuwachsen, wird sich erst in Jahren, vielleicht Jahrzehnten zeigen. Fest steht: Im Moment verändert sich etwas in unserer Gesellschaft. Während viele Erwachsene heute mit Befremden feststellen, dass sich manche Menschen in Chatbots verlieben, könnte es künftig normaler werden, sein Herz einer KI auszuschütten und sich mit ihr verbunden zu fühlen.

Vielleicht geht damit ein Stück menschlicher Interaktion verloren. Vielleicht eröffnen sich aber auch neue Chancen für komplett neue Arten der Verbundenheit.

Qiana hat sich jedenfalls gefreut, als sie ihren Furby eingeschaltet hat und er gesagt hat: «Na, bist du bereit für das nächste Snack-Abenteuer?»

https://www.nzz.ch/technologie/bringen-ki-spielzeuge-kindern-kuenftig-fremdsprachen-und-mathe-bei-eine-familie-hat-das-bereits-ausprobiert-ld.1908929