
Back to Kinzler’s Global News Blog
Le Figaro, 28 mai
La maladie d’Alzheimer peut désormais être diagnostiquée avec une simple prise de sang
DÉCRYPTAGE – Les États-Unis viennent d’autoriser le tout premier test sanguin pour déceler cette maladie neurodégénérative. Il pourrait être disponible dès l’année prochaine en France.
Full text :
Pouvoir diagnostiquer la maladie d’Alzheimer par une simple prise de sang : beaucoup de médecins et de patients l’ont espéré, c’est désormais possible aux États-Unis. Il y a quelques jours, l’Agence américaine du médicament a autorisé le tout premier test sanguin permettant de détecter cette maladie neurodégénérative qui touche près de deux personnes sur dix après 75 ans. Une demande de mise sur le marché a également été déposée auprès des autorités européennes, et une réponse est attendue à l’automne. Il pourrait donc être disponible en France dès l’année prochaine. Si tout se passe bien, ce test mis au point par la firme japonaise Fujirebio Diagnostics pourra être réalisé rapidement dans la plupart des laboratoires d’analyses médicales.
« C’est une très bonne nouvelle, cela va significativement nous faciliter la tâche », se réjouit le Dr Nicolas Villain, neurologue à l’hôpital de la Pitié-Salpêtrière (Paris). Pour le moment, le diagnostic de la maladie d’Alzheimer repose principalement sur une évaluation des performances cognitives (tests de mémoire, de raisonnement, de langage, etc.). « Pour les cas atypiques ou jeunes, nous réalisons en plus une imagerie du cerveau par PET scan, qui peut être complétée par une analyse du liquide céphalorachidien par une ponction lombaire », précise le neurologue.
Des méthodes coûteuses, invasives, contre-indiquées chez certains patients, et surtout qui nécessitent très souvent un long délai d’attente. « On estime que 30 % à 40 % des malades ne sont pas diagnostiqués en France en raison d’un problème d’accès aux centres experts », indique Jean-Charles Lambert, directeur de recherche sur la maladie d’Alzheimer à l’Inserm et à l’Institut Pasteur de Lille. Par ailleurs, le résultat des tests cognitifs est imprécis. « Les études montrent que trois fois sur dix le diagnostic de maladie d’Alzheimer est posé à tort, puisque l’autopsie post mortem révèle l’absence de lésions dans le cerveau », souligne le Dr Villain.
Doser deux protéines dans le sang
Le nouveau test autorisé aux États-Unis consiste à doser dans le sang deux substances qui, quand elles sont présentes en excès, sont des marqueurs d’une maladie d’Alzheimer. « Cette maladie est liée à l’accumulation de deux protéines anormales dans le cerveau : la protéine bêta amyloïde et la protéine tau. L’idée est de mesurer leur concentration dans le sang, explique Jean-Charles Lambert. L’avantage de ce test est qu’il permet de distinguer la maladie d’Alzheimer des autres types de démence, comme la maladie à corps de Lewy », précise le scientifique. Ce qui n’est pas forcément possible avec les tests cognitifs.
Ces deux marqueurs de la maladie sont connus depuis plusieurs décennies. Mais les moyens techniques ne permettaient pas de les déceler dans le sang jusqu’à récemment. « Avant les années 2020, on ne savait pas doser ces protéines dans le sang, notamment parce qu’elles étaient en très faible concentration. Il y a une dilution d’un facteur 20 à 100 entre la concentration dans le liquide céphalorachidien et celle dans le sang », explique le Dr Nicolas Villain, qui a déjà utilisé le test chez 130 patients l’année dernière. « Les résultats sont très fiables, du même ordre que ceux obtenus avec la ponction lombaire », rapporte-t-il. Ce qu’ont confirmé plusieurs études publiées dans des revues scientifiques prestigieuses. « Le diagnostic ne reposera pas que sur cette prise de sang, il s’appuiera toujours sur les résultats des tests cognitifs », tient cependant à préciser le neurologue.
Un test réservé aux personnes ayant des symptômes
Cet outil diagnostique devrait d’abord être utilisé par les centres experts spécialisés dans la maladie d’Alzheimer (il en existe 300 en France), avant d’être éventuellement étendu aux cabinets des médecins généralistes, selon Jean-Charles Lambert. Mais pas question de le proposer à toutes les personnes âgées, ce serait inutile voire contre-productif. « Seules les personnes présentant déjà des troubles de la mémoire, chez qui l’on suspecte une maladie d’Alzheimer, devront y avoir accès », prévient le scientifique.
Systématiser le recours à ce test ouvrirait en effet la porte à de nombreux diagnostics erronés (des faux positifs). « Une forte proportion de la population a des lésions de la maladie d’Alzheimer dans le cerveau mais ne développera jamais de symptôme », explique le Dr Villain. Autrement dit, il ne suffit pas d’avoir ces biomarqueurs en excès dans le sang pour être malade. En revanche, quand ce dosage est associé à des symptômes, c’est un très bon indicateur.
Un nouveau médicament
Outre l’obtention d’un diagnostic fiable et rapide, ce test pourrait-il changer le devenir des patients ? « Jusqu’à récemment, nous n’avions pas véritablement de traitement permettant de lutter contre les mécanismes de cette maladie. L’arrivée des immunothérapies pourrait changer la donne », souligne le Dr Villain. Depuis 2023, deux médicaments ont été autorisés dans plusieurs pays (le Leqembi et le Kisunla). Présentés comme les tout premiers traitements susceptibles de modifier le cours de la maladie d’Alzheimer, ces traitements concurrents sont des anticorps qui s’attaquent aux lésions cérébrales dues à la maladie. Les mêmes qui sont mesurées via le nouveau test. L’un et l’autre de ces médicaments ont prouvé qu’ils pouvaient ralentir de quelques mois la progression des symptômes, sans pour autant stopper la maladie.
Autorisé en Europe le 15 avril, le Leqembi est en cours d’évaluation en France, « en vue d’une éventuelle autorisation d’accès précoce qui permettrait aux patients d’y avoir accès d’ici la fin de l’année », précise le Dr Villain. Le Kisunla s’est quant à lui vu refuser son autorisation de mise sur le marché en Europe, en raison d’une balance bénéfices-risques jugée insuffisante. Les partisans de ces traitements font valoir qu’ils peuvent offrir aux malades quelques mois supplémentaires d’indépendance, et que, plus ils sont pris tôt, plus ils devraient être efficaces.
Alors que les médecins étaient jusqu’à maintenant démunis contre la maladie d’Alzheimer, l’arrivée de ce nouveau test diagnostic et de ces nouveaux traitements change considérablement la donne. « La recherche est très active, d’autres tests sont en cours de développement, notamment pour différencier spécifiquement les autres formes de démence. C’est un domaine qui évolue très vite », conclut Jean-Charles Lambert. Un espoir pour les quelque 35 millions de personnes touchées par la maladie d’Alzheimer dans le monde, dont 900 000 en France.
The Economist, 27 mai
Well informed : Should men be screened for prostate cancer?
The answer is less obvious than you might think
Full text :
SEEN THROUGH the cold lens of statistics, Joe Biden’s statement on May 18th that he had been diagnosed with prostate cancer is not all that surprising. In America prostate cancer is the second-most commonly diagnosed sort behind breast cancer. (In England it takes the top spot.) Around one man in eight will be diagnosed in their lifetimes. As with most cancers age is the biggest risk, though family history and black ethnicity are others. Younger men can get unlucky and suffer, too. In 2024 Sir Chris Hoy, a British Olympic cyclist, announced that he had an aggressive and terminal form of the disease. Ultra-fit and aged just 48 at the time, Sir Chris was not, on the face of it, at high risk.
Such high-profile cases feed a long-running debate among doctors about whether middle-aged men should be screened for the disease. After Sir Chris’s announcement England’s health service said it would review its advice on the merits of screening, which it currently does not recommend. Mr Biden’s office has said that the former president was last screened in 2014. Screening for such a common cancer may seem like a no-brainer. But many doctors and medical organisations are less sure.
One problem is that the main test, which measures levels of a chemical called prostate-specific antigen (PSA) in the blood, is not very reliable. High PSA levels can be a sign of prostate cancer. But they can also be a sign of vigorous exercise or recent sexual activity. The false-positive rate—the percentage of men who do not have cancer but will get a high reading—is around 75%. The false-negative rate (in which the test mistakenly clears men who do have cancer) is thought to be around 15%. Doctors therefore double-check high PSA levels with a biopsy.
If cancer is found, about 20% of cases will need aggressive treatment, says Naser Turabi of Cancer Research UK, a charity. For most men a prostate tumour will grow either slowly or not at all, meaning they will die with the cancer but not of it. (For that reason many doctors think men over 70 should not generally get tested.) And treatment risks nasty and permanent side-effects, including urinary incontinence, bowel problems and impotence. Many doctors worry that mass screening would lead to over-diagnosis and over-treatment of cancers that are very unlikely to be fatal.
A big British trial found the 15-year survival rate for men with cancers that had not spread was virtually identical, at around 97%, regardless of whether they had surgery, radiation therapy, or no treatment at all beyond keeping a wary eye on the cancer. Such “watchful waiting” is the most conservative approach, but even that can be difficult: doctors report many patients become unable to bear the thought of having cancer, even if it is not life-threatening, and opt for treatment despite the risks.
All this means opinions differ among both doctors and governments about the wisdom of routine screening. The trade-offs may shift as technology advances. These days many men with high PSA levels will be offered an MRI scan before deciding on a biopsy. Other scientists hope that genome sequencing could help assess a patient’s risk. But the long survival time for sufferers means hard data on what does and doesn’t improve survival lag years behind what happens in the clinic today. For middle-aged men the best, if unsatisfying, course of action is probably to ask your doctor, think carefully—and consider the possibility of some tricky trade-offs if you go ahead. ■
The Wall Street Journal, 27 mai
SpaceX Pushes to Get Starship Rocket Ready for Mars by Next Year
Elon Musk’s space company plans to test the huge experimental vehicle on Tuesday, in its first flight after two explosions earlier this year
Full text :
SpaceX is shifting personnel and resources to its powerful new rocket, hoping to have the vehicle ready for a Mars mission next year.
Elon Musk’s space company is making an enormous bet on Starship, which stands roughly 400 feet tall at liftoff and remains in an experimental phase. SpaceX is aiming to address the technical challenges ahead with Starship while continuing to fly the operational spacecraft and rockets that made the company a powerhouse.
In recent months, employees have been moving into Starship roles, including some Dragon spacecraft staffers who were reassigned in mid-May, according to people familiar with the matter. SpaceX has also been making big investments in its complex in Texas for the vehicle, and has similar plans for Florida.
The company faces near-term pressure to show that Starship can function as Musk and other executives have promised. It is behind schedule on work preparing a variant of Starship for a National Aeronautics and Space Administration mission to the moon currently set for 2027, people familiar with those efforts have said.
This year, SpaceX struggled with back-to-back Starship flight tests that ended in explosions. The incidents disrupted airline traffic in Florida and the Caribbean region as debris fell.
SpaceX is planning another test flight of the vehicle Tuesday evening. In a statement Friday, the company said it had conducted extensive testing to understand the failure of its latest mission and made changes for the next one. Reaching its goals with Starship “won’t always come in leaps,” SpaceX said.
“It’s definitely been a rough start of the year for Starship,” Shana Diez, an engineering executive at SpaceX, said in a post on X after the second recent explosion. A single issue can cause a launch to fail, she said, and when factoring in costs and time, “the overall problem can feel quite daunting.”
‘Point-to-point’ interest
One of the Starship-related projects that SpaceX staff recently moved over to is called Starfall. It is tied to a military effort to one day use the vehicle to whisk military gear around the globe, the person familiar said.
Military officials and space companies for years have researched using rockets to rapidly move cargo. The idea is spacecraft could ferry large amounts of material to bases or remote locations an hour or so after launching and flying through space.
SpaceX in 2017 posted an animation online showing people in New York boarding a Starship on a barge and flying through space to Shanghai in 39 minutes, but executives haven’t spoken much lately about so-called point-to-point Starship efforts.
The company said in a legal filing last year it aims to conduct a rocket-cargo mission for the Air Force where Starship would attempt to transport and land more than 66,000 pounds of government cargo. It then said it expected to receive about $149 million tied to further developing Starship for the cargo efforts.
Mars mission, perhaps with a robot
Musk has been pushing SpaceX to try to launch a Starship spacecraft on an uncrewed mission to Mars next year.
Taking a shot at the red planet on that time frame would require SpaceX to overcome engineering obstacles. An advantage of possibly flying there in 2026 is that Earth and Mars will be closer together, making a flight easier.
One major challenge for any mission: in-orbit fueling. Rockets and spacecraft typically are loaded with all of their fuel on the ground, but SpaceX aims to fuel up Starships while they are in orbit for deep-space missions. Staffers have discussed Starship making a trip to Mars with three in-space refuels, people familiar with the matter said.
Transferring propellant in space at the scale SpaceX is proposing for Starship hasn’t been done before, and the company hasn’t attempted to move fuel between two vehicles in orbit. The propellants must remain at super-cold temperatures or they can boil off.
SpaceX’s goal of flying to Mars next year might dovetail with the Trump administration’s new priorities at NASA. In a recent budget proposal, the White House called for adding $1 billion in funding for Mars-focused efforts and large cuts across many other agency programs.
Musk founded SpaceX more than two decades ago to ultimately try to send people to the red planet, and has described making humanity multiplanetary as an animating feature of his life.
The chief executive of SpaceX, Tesla and other companies has said he wants to include a robot under development at Tesla on a Mars flight in 2026. “Starship departs for Mars at the end of next year, carrying Optimus,” Musk said in a post on X in March.
The Wall Street Journal, 26 mai
Why More Adults Than Ever Are Being Diagnosed With Autism
A surge in diagnoses reflects increased awareness and the broadening definition of the condition
Full text :
More U.S. adults than ever before have autism, and many are being diagnosed not as children, but in later years.
While the data don’t pinpoint how many people are over age 18 when diagnosed, clinical psychologists say many more adults are seeking evaluations for autism than a decade ago.
“We have adults reaching out every week,” said Paige Siper, chief psychologist at the Seaver Autism Center for Research and Treatment at the Icahn School of Medicine at Mount Sinai in New York.
Overall, the rate of autism in people 18 or older more than doubled between 2011 and 2019, from 4.2 per 1,000 to 9.5 per 1,000, according to an analysis of Medicaid data published in the journal JAMA Psychiatry in 2023.
Researchers saw the most rapid growth in adults between the ages of 26 and 34, according to a study, published in the journal JAMA Network Open in 2024, that analyzed U.S. health records and insurance claims for more than nine million individuals a year from 2011 to 2022. That group’s rate of autism increased from 0.7 per 1,000 people in 2011 to 3.7 per 1,000 in 2022.
Social media has increased awareness of autism. Autism has shed the stigma it used to hold. The definition of the condition has expanded over time to include a broader range of behaviors. And some parents who have children diagnosed with autism then recognize their own challenges and seek out evaluations, said Michelle Gorenstein-Holtzman, a clinical psychologist who works with adults at the NewYork-Presbyterian/Weill Cornell Medical Center and the Center for Autism and the Developing Brain.
Three years ago, before she joined, the center did one adult autism evaluation a month. Now Gorenstein-Holtzman does two a week.
People diagnosed as adults typically don’t have severe communication challenges or intellectual disabilities, clinical psychologists said. But they have struggled socially, and show subtle repetitive behaviors like rocking in a chair, or nearly obsessive interests in certain topics. They often have other continuing mental-health conditions, such as anxiety, bipolar disorder or ADHD.
Many are highly educated, and some have successful careers, though some have been in and out of jobs.
Many are women whose autism was missed when they were children, said Catherine Lord, a clinical psychologist and autism researcher at the David Geffen School of Medicine at UCLA. About three times as many boys are diagnosed with autism as girls, partly because some of the behaviors psychologists look for are less pronounced in girls, and partly because researchers have been trained to better recognize the condition in boys.
Growing up, Sonia Chand said she felt out of touch with her peers and judged by teachers and therapists. “I was made to feel like I was the bad kid,” she said. “I wasn’t trying to act up in a bad way. I was just trying to fit in.”
In sixth grade, she was diagnosed with depression, prescribed lithium and flagged at risk for suicide. At age 20, after a new therapist had heard her story and referred her for an advanced neuropsychological evaluation, she was diagnosed with Asperger’s in 2002. Now 42, she works as a therapist herself, runs marathons and hosts a podcast in her free time.
At the time Chand was diagnosed, Asperger’s syndrome was considered a developmental disorder in which people had trouble with social interactions but didn’t have language delays or cognitive impairments associated with autism.
Autism first appeared as a distinct diagnosis in the Diagnostic and Statistical Manual of Mental Disorders, a standardized classification system for mental disorders, in 1980. Initially, the diagnosis required children by age 2.5 years to exhibit a narrow set of behaviors that typically applied only to those with severe disabilities.
Each subsequent edition of the manual has broadened the definition of the condition, said David Mandell, director of the Penn Center for Mental Health at the University of Pennsylvania.
In 2013, Asperger’s and other developmental disorders were included under the category of autism spectrum disorder, which acknowledged varying levels of severity—and helped to pave the way for more diagnoses in adults.
Holden Thorp, editor in chief of the Science family of journals, was in his 50s when a psychologist evaluating senior administrators at Washington University in St. Louis, where he was provost, told him he was autistic in 2016.
Thorp had established himself as a research scientist, climbed the ranks of university leadership and served as chancellor of the University of North Carolina at Chapel Hill.
“A lot of things came together all at once,” Thorp said, ranging from his habit of staring at a wall when people were talking to him to student evaluations that said he was “a great teacher” but “very monotone.”
Now, he tells classes on the first day that he’s on the spectrum and explains that expressive intonations or big arm gestures are a challenge. “That was very liberating,” he said.
Some adults welcome the diagnosis as a way to make sense of the challenges they have faced all their lives.
“When I started in the field, everyone’s vision of autism was more like Rain Man,” said Gorenstein-Holtzman. “Now, I think people have more ideas of what autism could look like.”
https://www.wsj.com/science/adult-autism-diagnosis-surge-aab176d5?mod=hp_listc_pos2
Neue Zürcher Zeitung, 24 mai
«Links- und Rechtsextreme sind sich in mancher Hinsicht sehr ähnlich», sagt eine Neurologin, die den Zusammenhang zwischen Hirn und Ideologie erforscht
Leor Zmigrod erklärt im Gespräch, inwieweit politische Überzeugungen angeboren sind und weshalb wir sie trotzdem beeinflussen können.
Full text :
Es ist ein Bereich, an den sich bisher kaum jemand herangewagt hat: die biologischen Ursachen von extremem Gedankengut zu ergründen. Leor Zmigrod, eine junge Neurologin an der Universität Cambridge, hat sich des Themas angenommen – und sorgt damit international für Furore. Für ihre Forschung erhielt sie bereits mehrere Auszeichnungen, sie ist eine gefragte Referentin, das «Forbes Magazine» listet sie unter den 30 einflussreichsten Persönlichkeiten unter 30. Nun ist ihr erstes Buch, «Das ideologische Gehirn», auf Deutsch erschienen.
Frau Zmigrod, wird man irgendwann anhand von Gentests zeigen können, ob jemand zum Extremismus neigt?
Das wird schwierig, denn die Neigung zu einer Ideologie hängt von vielen Faktoren ab. Wir verwenden in unserer Forschung Methoden aus der Neurologie, der Genetik, der Psychologie und der Kognitionswissenschaft. Um aber klarzustellen: Wir können nicht sagen, ob jemand zu einem extremen Ideologen wird, sondern nur, ob jemand anfällig dafür ist.
In Ihrem Buch heisst es, ein zentrales Element sei die Fähigkeit eines Menschen zur Kreativität, sie schütze vor Ideologien. Nun gibt es viele Gegenbeispiele von bekannten Künstlern: Der Komponist Richard Wagner war ein Antisemit, zahlreiche westliche Künstler aus Zeiten des Kalten Kriegs waren glühende Kommunisten.
Der Zusammenhang zwischen flexiblem und kreativem Denken und einer Resilienz gegen extreme Ideologien wurde in zahlreichen Tests nachgewiesen. Der bekannteste ist der «alternative use test». Dabei wird einem Probanden ein Gegenstand gezeigt, zum Beispiel eine Büroklammer, in einer bestimmten Zeit muss die Person dann möglichst viele alternative Verwendungsmöglichkeiten nennen. Es zeigt sich: Die kreative Vorstellungskraft ist verknüpft mit der ideologischen Vorstellungskraft. Natürlich gibt es Ausnahmen, womöglich gehören die von Ihnen genannten dazu.
Trotzdem fällt immer wieder auf, dass viele Kreative sehr einseitig Stellung beziehen zu politischen Fragen und nicht fähig oder gewillt sind, sich auch in die andere Position hineinzudenken.
Es stellt sich natürlich die Frage: Sind Menschen aus einem sogenannten Kreativberuf auch die flexibleren, kreativeren Denker? Das muss nicht sein. Ein Maler oder ein Musiker kann sehr fokussiert arbeiten, oft nach strengen Vorgaben, einem immergleichen Ritual folgend. Dafür braucht man kein besonders flexibles Hirn. Andererseits gibt es Menschen ausserhalb der Kreativszene, die sich in ihrem Beruf ständig an neue Bedingungen anpassen müssen und deshalb sehr offen und flexibel im Denken sein können.
Stellen Sie bei diesen Tests Unterschiede fest zwischen Links- und Rechtsextremen?
Kaum. Lange Zeit ging man davon aus, dass politisch sehr rechts stehende Menschen psychologisch am unflexibelsten sind, da es ihnen oft darum geht, die Vergangenheit wiederherzustellen und Traditionen hochzuhalten. Die Linke hingegen sei flexibel, schliesslich strebt sie den gesellschaftlichen Wandel an. Dem ist aber nicht so. Unsere neuropsychologischen Tests zeigen klar eine U-förmige Kurve auf: Die moderaten Teilnehmer, also jene, die keiner festgelegten Ideologie folgen, schneiden bei der kognitiven Flexibilität am besten ab, die extremen Teilnehmer beider politischen Ränder am schlechtesten. Links- und Rechtsextreme sind sich in dieser Hinsicht sehr ähnlich.
Was bedeutet das konkret?
Anhänger beider Extreme haben Mühe, sich neuen Situationen anzupassen, etwas zu verändern oder gar zu erfinden. Sie bleiben auf dem Pfad, den sie von Anfang an eingeschlagen haben, während Anhänger der politischen Mitte viel anpassungsfähiger sind. Bei diesen Tests geht es übrigens nicht um politische Belange.
Gibt es auch Unterschiede zwischen den beiden Lagern?
Anhänger der Rechten haben tendenziell eine grössere Amygdala, das ist jene Hirnregion, die für die Verarbeitung negativer Emotionen wie Angst oder Ekel verantwortlich ist. Allerdings stehen wir hier vor dem Huhn-Ei-Problem: Wir wissen nicht, ob die grössere Amygdala das Denken beeinflusst oder ob ein gewisses Denken das Hirn formt. Beides ist möglich. Wir sehen auch, dass eine Veränderung über die Zeit möglich ist.
Einst wählte die Arbeiterklasse eher sozialistisch, heute tendiert sie eher zu den Rechtskonservativen. Hat sich das Hirn der Menschen verändert?
Die Ursachen für ideologische Veränderungen beschäftigen uns sehr. Was passiert, wenn wir einen Menschen mit sehr starrem Denken in ein intolerantes oder rassistisches Umfeld stecken? Und was, wenn dieselbe Person dann in ein tolerantes, säkulares Umfeld kommt? Dasselbe bei sehr aufgeschlossenen Menschen. Durch diese verschiedenen Wege kann man sehen, wie und warum Menschen ihre Ideologie ändern. Es kann aber auch sein, dass sich gar nicht die Überzeugung der Menschen geändert hat, sondern die politischen Parteien über die Zeit ihre Werte angepasst haben.
Manchmal staunt man darüber, wie einige Personen von einem Extrem ins andere wechseln. Ein bekanntes Beispiel ist Benito Mussolini. Der Begründer des Faschismus gehörte in frühen Jahren der radikalen Linken an.
Dass jemand von einer starren Ideologie zur anderen springt, kommt immer wieder vor – wie gesagt, die Extreme sind sich ähnlich. Beim Beispiel Mussolini muss man allerdings aufpassen. Politische Führer – auch von extremen Parteien – sind viel flexibler im Denken als deren Anhänger. Denn sie geben den Kurs vor, passen sich opportunistisch den Gegebenheiten an. Bei den Anhängern ist das anders.
Es dürfte nicht ganz einfach sein, das Hirn von politischen Führern zu untersuchen.
Das ist richtig. Bisher hat sich jedenfalls noch keiner freiwillig gemeldet, bei mir unter den Gehirnscanner zu liegen.
Die Philosophin Hannah Arendt schrieb aufgrund ihrer Erfahrung beim Prozess des Nazi-Verbrechers Adolf Eichmann ihren berühmten Essay «Banalität des Bösen». Gemäss diesem kann jeder noch so biedere Buchhalter zum Monster werden. Das widerspricht diametral Ihrer Annahme, dass die Ideologie zu einem gewissen Grad angeboren ist.
Hannah Arendt brachte in ihrem Essay sehr wichtige Aspekte ein, ein zentraler Punkt ist aus meiner Sicht aber falsch. Sie spricht zwar von einem inneren Prozess, den Menschen durchmachen, bis sie eine totalitäre Ideologie annehmen, zugleich sagt sie, es liege am Mangel an Reflexion, an Gedankenlosigkeit, dass aus einer Person ein Monster werden könne. Der Prozess der Radikalisierung wird damit zu einem völlig passiven Vorgang. Unsere Forschung zeigt etwas anderes: Wenn ein Mensch bereit ist, Gewalt auszuüben, so laufen im Hirn eine ganze Reihe von aktiven und dynamischen Prozessen ab, selbst wenn die Person eine sehr starke Veranlagung zum Extremismus aufweist. Ihren Handlungen liegen also immer noch bewusste Entscheidungen zugrunde – die Menschen sind nicht ihrer Gedankenlosigkeit ausgeliefert, wie Hannah Arendt schreibt. Das ist sehr wichtig, auch in meinem Buch.
Wie aber erklären Sie, dass ein Mensch beide Seiten haben kann: liebenswürdig und hilfsbereit in seinem privaten Umfeld, zugleich ein brutaler Massenmörder?
Die Vorstellung, dass ein Mensch zwei Seiten haben kann, ist falsch. Er hat ja nur ein Gehirn, nur einen Körper. Die vermeintliche Diskrepanz in seinen Handlungen hat mit seinem Menschenbild zu tun: Nazis hatten die Ideologie, dass nur ihre Familie, ihre Freunde und Leute mit gewissen Merkmalen vollwertige Menschen sind, die anderen sind minderwertig, mit ihnen geht man anders um. Deshalb stehen die zwei Seiten nicht im Widerspruch. Wobei man aus der Forschung weiss: Wer in der Lage ist, Gewalt gegen Unschuldige auszuüben, wendet oft auch Gewalt gegen Menschen an, die er liebt, wenn auch oft in einer anderen Form.
Sie kritisieren Hannah Arendt, weil gemäss der «Banalität des Bösen» die Ideologen von der Verantwortung für ihr Handeln entlassen werden. Sie aber tun das auch: Wenn etwas angeboren ist, auch wenn nur zu einem gewissen Teil, so ist man für sein Handeln auch nicht verantwortlich.
Wenn wir alle Faktoren aufzeigen, die die Ideologie und die Überzeugungen einer Person beeinflussen, auch die biologischen, so heisst das nicht, dass alles bereits festgelegt ist. Wir können zwar Menschen in einem Spektrum von sehr flexiblen bis zu sehr starren Denkern einordnen, aber sie entscheiden immer noch selber, ob sie ihrer Neigung folgen. Zudem bleibt vieles im Fluss. Manche Menschen werden in bestimmten Phasen ihres Lebens flexibler und erkundungsfreudiger. Andere können sich, wenn sie unter Stress stehen, zu starreren Denkern entwickeln. Selbst wenn eine starke Prädisposition vorhanden ist, besteht noch immer genug Raum für den freien Willen.
Aber wie viel? Es ist ja nicht nur die Biologie, die wir nicht selber bestimmen können, auch wie wir aufwachsen und erzogen werden, wählen wir in der Regel nicht selber.
Auch dazu haben wir Untersuchungen gemacht. Jene Menschen, die in einem autoritären Umfeld aufgewachsen sind und später den Ausstieg schafften, haben sich in den Tests als sehr flexible Denker herausgestellt. Die starrsten sind jene, die den umgekehrten Weg gehen: Die aus einem offenen, säkularen Umfeld stammen und dann freiwillig in ein extrem ideologisches oder religiöses Umfeld wechseln. Trotzdem zeigt sich: Auch für jene am einen oder anderen Ende des Spektrums gibt es einen gewissen Spielraum. Das ist mir sehr wichtig: Wir können die Verantwortung für unser Handeln und unsere ideologische Haltung nicht abgeben. Die Entscheidung, ob wir extremistisch werden und welche Ideologien wir annehmen oder ablehnen, liegt grundsätzlich bei uns.
Leor Zmigrod: Das ideologische Gehirn. Wie politische Überzeugungen wirklich entstehen. Suhrkamp-Verlag, Berlin 2025. 302 S., Fr. 37.90.
L’Express, 24 mai
Benjamin Sire : “Refuser d’utiliser l’IA est une promesse de déclassement professionnel et intellectuel”
Idées. Cofondateur des Electrons libres, le journaliste défend une vision résolument optimiste et libérale, notamment sur la question de l’IA.

Full text :
C’est un nouveau média qui se revendique du “progrès”, du “libéralisme” et de l'”initiative privée”, des valeurs pas forcément prisées en France. Lancés le 20 mai, Les Electrons libres se concentrent en priorité sur les réseaux sociaux, et associent des personnalités comme Antoine Copra, Alexis Karklins-Marchay ou Frédéric Halbran. Son cofondateur et rédacteur en chef Benjamin Sire défend une vision libérale et progressiste, se voulant notamment optimiste sur la question de l’IA.
L’Express : Votre nouveau média, Les Electrons libres, se réclame de la liberté et du progrès. Ces deux valeurs sont-elles aujourd’hui en berne?
Benjamin Sire :En berne, non, puisqu’elles occupent largement les débats politiques, médiatiques et sur les réseaux sociaux. Malades, oui. La liberté est à la mode, parce que de nombreuses figures politiques émergentes ou récemment arrivées au pouvoir, de Donald Trump (surtout via Elon Musk) à Javier Milei, s’en réclament.
Le progrès, parce que la révolution de l’IA, qui succède à celle du numérique, mais aussi les avancées de la génétique, des neurosciences et de plusieurs autres domaines ne cessent de bouleverser nos vies à une vitesse exponentielle. Ce que chacun peut constater, ou constatera bientôt.
Où est le problème, alors?
Le problème est que cette affirmation militante en faveur de la liberté est souvent l’apanage de gens qui ont plutôt tendance à vouloir la réduire. L’Amérique, ce chantre du libéralisme, ne cesse de tendre vers l’illibéralisme sous la férule trumpiste. La Hongrie d’un Viktor Orbán, qui, à l’origine, est lui-même un libéral bon teint, en fait de même dans des proportions très inquiétantes, après un aggiornamento sidérant. Les exemples sont multiples, allant de la Slovaquie à l’Autriche, la Géorgie, les Pays-Bas, l’Allemagne, avec l’AfD, ou récemment la Roumanie.
Quant à la France, on sourit en assistant au prétendu virage libéral d’un Jordan Bardella, qui sans doute méconnaît le terme et n’a pas dû en référer à Marine Le Pen, qui elle poursuit dans une voie étatiste approximative. Prenons un autre exemple. Celui de David Lisnard [NDLR : maire de Cannes Les Républicains], censé être le plus proche modèle libéral que notre échiquier politique a produit depuis Alain Madelin. Même si je lui reconnais des qualités et de véritables convictions, sa position récemment exprimée à l’encontre de la loi sur la fin de vie, actuellement débattue au Parlement, va à l’encontre de tous les fondamentaux en faveur de la liberté, puisqu’il s’agit d’un texte qui accorde une nouvelle possibilité à ceux qui subissent la souffrance extrême dans le cadre de maladies incurables, sans empiéter sur les droits de quiconque. Un schéma que l’on a retrouvé lors du débat sur le Mariage pour tous.
Car, oui, là où la liberté peut être en berne, c’est que sous le cache-misère d’une prétention libérale, nous assistons en réalité à un retour violent du conservatisme. Parfois d’un conservatisme pur, axé sur la seule défense de traditions – souvent fantasmées au passage – aux contours religieux, le plus souvent sous la forme d’un mélange de ces idées avec un libéralisme économique mal exprimé.
Et qu’en est-il du progrès?
Il est trop souvent envisagé sous l’angle de l’effroi qu’il suscite. C’est une constante à travers l’Histoire. Et ce mouvement est accompagné par toute une cohorte de marchands de peur qui trompent un public n’ayant le plus souvent pas les moyens de s’appuyer sur des sources fiables, dans un monde où l’on retrouve le classique “trop d’information tue l’info”. Marchands de peur qui ont souvent aussi quelque chose à vendre, si l’on pense par exemple aux onéreux naturopathes qui s’opposent à la médecine et à la science. Ou, dans la sphère antivax, à ce fameux Reiner Fuellmich, avocat allemand dont la notoriété s’est établie lors de la pandémie de Covid avec l’idée d’un “Nuremberg 2.0” et qui a été arrêté, en étant soupçonné d’avoir soutiré à son seul profit plus d’1 million d’euros à ses crédules donateurs.
On retrouve le même schéma chez les promoteurs de l’écologie punitive et de la décroissance, comme dans une certaine extrême gauche, dont ceux qui s’en réclament, sans se priver de voyages hyper carbonés à l’autre bout du monde, fustigent le progrès qui alimente pourtant le succès de leurs comptes sociaux.
Une vision au carrefour du doctrinaire et du mercantile, qui s’appuie sur des réflexes idéologiques à l’opposé du réel. Mais aussi sur une haine hypocrite du capitalisme, de la science et de l’initiative privée, qui sont pourtant à l’origine de la baisse radicale de la pauvreté, de la faim et de la mortalité dans le monde depuis la fin de la Seconde Guerre mondiale, ainsi qu’en attestent toutes les statistiques. Mais le business de la peur contre le progrès est à la fois une manne pour ses promoteurs et, pour refermer le cercle, un moyen d’attenter aux libertés. Ce que font également très bien les Etats…
Qu’est-ce que le libéralisme pour vous?
Il y a plusieurs formes de libéralisme. Il peut être politique, économique, philosophique avec un impact sociétal, ou en synthétiser tous les aspects. Mais le vrai libéralisme, même si ce n’est pas exactement celui dont je peux me réclamer – de nombreuses nuances existent d’ailleurs dans notre rédaction à ce sujet – est celui dont John Locke a posé les bases, dans une époque, rappelons-le, où l’arbitraire monarchique dominait l’Europe. Ce qui en rend la définition contemporaine moins pertinente. Mais globalement, il se fonde sur les doubles notions de liberté et de responsabilité individuelle. Et, à travers Montesquieu, le libéralisme est le fruit des Lumières, donc de la défense de la raison et de l’humanisme. Loin de la vision économiquement prédatrice ayant fait de ce terme une insulte. Il implique un rapport à l’Etat qui reconnaît la nécessité de celui-ci – et pas seulement pour ses seuls privilèges régaliens, contrairement aux limites fixées par les amateurs de facilité – non pour rogner la liberté des citoyens, mais pour la protéger.
Mais ce principe a des limites et c’est là que j’affirme ma vision. La liberté absolue, dont on retrouve la défense dans l’approche libertarienne – qui n’est que la justification de la loi du plus fort – ne me convient pas. La liberté de la jungle, non merci. Car non la liberté et la responsabilité ne suffisent pas, dans bien des contextes individuels et malgré les efforts, à assurer la vie digne de certaines personnes. Pas davantage au niveau économique, et là je rejoins Adam Smith, autre prophète libéral, dans sa contrition. La fameuse “main invisible” du marché n’est pas suffisamment morale et rigide pour assurer une concurrence libre et non faussée dans tous les contextes. L’Etat doit corriger les errances du marché, ce qu’il ne fait pas, mais non se substituer à ce même marché, ce qu’il a trop tendance à envisager.
Mon approche, qui voisine avec celle de l’économiste et essayiste Alexis Karklins-Marchay, qui participe aux Electrons Libres, est celle de l’ordolibéralisme allemand de Walter Eucken, Hans Grossmann-Doerth ou Franz Böhm. Un courant né dans l’entre-deux-guerres et aux manettes du miracle économique germanique de l’après-guerre – certes bien aidé par le plan Marshall – qui conjugue la liberté avec la dignité, l’initiative avec l’engagement social, la responsabilité avec l’éthique et l’humanisme.
Au moment où les analogies avec les années 1930 sont légion, il faut se souvenir de ce temps où après quelques fictions socialisantes, l’Allemagne nazie, conjuguant conservatisme, ésotérisme et paganisme, s’est alliée par contrainte aux industriels pour prendre le même faux virage libéral auquel on assiste aujourd’hui. Or les ordolibéraux, souvent contraints à l’exil, s’y opposèrent comme ils le purent, permettant à leurs idées de survivre et d’influencer profondément l’Allemagne d’après-guerre.
Quelle position aurez-vous sur l’IA? Vous avez déjà expliqué dans L’Express que dans tous les cas, il ne sert rien defaire l’autruche sur ce sujet…
Voilà. L’IA est là. Et son impact et le mouvement qu’elle dicte s’apparentent à un tsunami qu’aucune velléité ne saurait contrarier. Prétendre ne pas y croire s’apparente à refuser l’impact du vent. Refuser de l’utiliser est une promesse de déclassement, à la fois professionnel et intellectuel. Comme si certains se promettaient de construire l’avenir en s’exemptant de la déjà ancienne domestication de l’électricité. Cela n’a aucun sens. Je le redis à l’adresse des décroissants.
L’homme, par nature, ne revient jamais en arrière. Appréhender l’IA pour en tirer le meilleur est la seule action possible. Ce qui n’empêche pas d’essayer d’en analyser les potentiels travers alors qu’elle présente tant de perspectives fascinantes. Ces travers peuvent notamment s’exprimer dans ses applications militaires ou de contrôle social. Mais pour ce qui n’engage que moi, qui travaille avec ses balbutiements, notamment en musique, depuis la fin des années 1990, elle représente la plus excitante des révolutions technologiques que j’aie pu connaître. Dans le cadre des Electrons libres, elle intervient déjà dans de nombreux process. De la création de films racontant certains de nos articles courts (ce qui sera une première), en passant par la veille média automatisée permettant d’anticiper la rédaction de papiers, à la structuration de la diffusion social first de nos contenus et d’autres aspects qu’il n’est pas temps de révéler.
Dans votre campagne promotionnelle pour Les Electrons Libres, vous affirmez que l’IA serait une chance pour l’environnement. N’est-ce pas une plaisanterie, alors que l’on parle aujourd’hui beaucoup du mauvais bilan carbone des data centers?
Ce sont des sujets que nous allons effectivement débunker. Aujourd’hui, les marchands de peur se focalisent sur la dépense énergétique de l’IA, sans considérer ce que cette même IA peut apporter dans de nombreux domaines. On parle notamment de la fameuse consommation d’eau de l’IA. Or, 95 % des data centers sont actuellement refroidis à l’air. Par ailleurs, ceux refroidis par eau utilisent souvent de l’eau recyclée, des systèmes fermés ou de technologies de refroidissement hybrides. Par exemple, certains centres n’utilisent l’eau qu’en complément du refroidissement par air lors des pics de chaleur. Mais l’évolution est rapide. Si les data centers utilisent actuellement entre 1 à 2 % de la consommation électrique, les scénarios réalistes ne devraient pas dépasser les 5 % à l’avenir avec des applications en mesure de changer positivement le monde. J’y reviendrai. Et ça vaut le coup.
D’ici 2030, l’impact de l’IA sur les data centers dépendra de la vitesse d’adoption des énergies décarbonées et des technologies de refroidissement avancées. Même avec la demande croissante, les innovations limiteront l’empreinte carbone et hydrique. D’autant que la partie la plus énergivore de l’IA s’exprime dans son entraînement. Et celui-ci va progressivement décliner, contrairement à l’inférence (l’utilisation des modèles), qui consomme bien moins de ressources. Quant à la décarbonation, l’IA peut s’y intégrer dans la gestion des systèmes de chauffage, dans les transports, dans l’optimisation des chaînes d’approvisionnement, dans l’agriculture, la gestion énergétique et on en passe.
Un mouvement qui n’en est qu’à ses balbutiements, il ne faut pas l’oublier. Mais sans doute que ces promesses sont moins rentables que celles des marchands de peur.
Par ailleurs, l’IA nous promet une véritable révolution dans le domaine de la médecine, en termes de diagnostics, d’approche psychologique et empathique – l’une des grandes faiblesses de la médecine contemporaine. Bref, je prends.
The Economist, 23 mai
Exit, pursued by an elephant : MAGA’s assault on science is an act of grievous self-harm
America will pay the price most of all
Full text :
The ATTACKS have been fast and furious. In a matter of months the Trump administration has cancelled thousands of research grants and withheld billions of dollars from scientists. Projects at Harvard and Columbia, among the world’s best universities, have been abruptly cut off. A proposed budget measure would slash as much as 50% from America’s main research-funding bodies. Because America’s technological and scientific prowess is world-beating, the country has long been a magnet for talent. Now some of the world’s brightest minds are anxiously looking for the exit.
Why is the administration undermining its own scientific establishment? On May 19th Michael Kratsios, a scientific adviser to President Donald Trump, laid out the logic. Science needs shaking up, he said, because it has become inefficient and sclerotic, and its practitioners have been captured by groupthink, especially on diversity, equity and inclusion (dei). You might find that reasonable enough. Look closely at what is happening, though, and the picture is alarming. The assault on science is unfocused and disingenuous. Far from unshackling scientific endeavour, the administration is doing it grievous damage. The consequences will be bad for the world, but America will pay the biggest price of all.
One problem is that actions are less targeted than the administration claims, as our special Science section this week explains. As Mr Trump’s officials seek to stamp out dei, punish universities for incidents of antisemitism and cut overall government spending, science has become collateral damage. A suspicion that scientists are pushing “woke” thinking has led grant-makers to become allergic to words like “trans” and “equity”. As a consequence, it is not only inclusive education schemes that are being culled, but an array of orthodox science. Funding has been nixed for studies that seek, say, to assess cancer risk factors by race, or the prevalence of sexually transmitted diseases by sex.
The attack on elite universities takes this to an illogical extreme. Because the White House sees colleges as bastions of wokeness and antisemitism, it has withheld funding for research at Harvard and Columbia, no matter in which subject. Overnight, projects on everything from Alzheimer’s disease to quantum physics have been stopped. When scientists warn of the harm this does, they risk being seen as part of a scornful anti-MAGA elite that has been protected for too long.
More fundamentally, the claim that Mr Trump will stop groupthink is disingenuous. maga reserves a special hatred for public-health and climate researchers, whom it regards as finger-wagging worrywarts determined to suppress Americans’ liberties—as they did in lockdowns and school closures during covid-19. The consequence is that spending on vaccine and climate research will be gutted most viciously of all. With the stroke of a pen, officials are trying to impose new rules that tell scientists what areas of inquiry they may pursue and what is off-limits—a shocking step backwards for a republic founded on the freethinking values of the Enlightenment.
Meanwhile, genuine problems with the way science works in America are being neglected. Mr Kratsios is right that there is too much bureaucracy. America’s best researchers say they spend two out of five days on form-filling and other administrative tasks, instead of in the lab. Research is becoming more incremental. New ways of funding, such as lotteries, are worth trying. So far, however, the White House has not set out plans to make science work better. Indeed, when scientists are uncertain whether their work will still be funded, or if they take to the courts to challenge arbitrary grant terminations, American science becomes less efficient, not more so.
Congress and the courts may yet act to limit the scale and the scope of these anti-science endeavours. Even so, the damage of the past few months will soon be felt. Savage cuts to the National Oceanic and Atmospheric Administration mean worse weather-forecasting, making it harder for farmers to know when to plant their crops, and for local authorities to prepare for natural disasters. Those to the Centres for Disease Control and Prevention will make it harder to monitor, and thus curb, outbreaks of disease.
There will also be longer-term harm. Although Mr Trump hopes his tariffs will lure businesses to invest in America, their research spending is unlikely to fill the same gaps as publicly funded basic work, much of which may not be commercialised for years, if ever. As funding is frozen, the danger of a brain drain looms. In the first three months of the year the number of applications for overseas jobs from American scientists rose by a third compared with the same period in 2024; foreign researchers applying to come to America fell by a quarter. The country’s reputation for welcoming talent will not be so easily regained. If the belief that academic freedom is curtailed takes hold, the scientists who remain could self-censor their lines of inquiry for years to come.
The consequences will be felt around the world. America is the planet’s biggest backer of public research; it is home to half of all science Nobel laureates and four of the ten best scientific-research universities. The knowledge uncovered by American scientists and resulting innovations such as the internet and mrna vaccines have been a boon to humanity. When America retreats, everyone is robbed of the fruits of this ingenuity.
Exit, pursued by an elephant
It is America, however, that will feel the pain most of all. At the beginning of the 20th century there was no branch of science in which Uncle Sam led the world. At the century’s end there was none where it did not. America’s triumphs—its economic prowess, and its technological and military might—were interwoven with that scientific success. As America pulls back, it will cede ground to authoritarian China as a scientific superpower, with all the benefits that confers. maga’s assault on science is not just about dei, nor is it about universities. It is first and foremost an act of self-harm. ■
The Wall Street Journal, 21 mai
The Tech Industry Is Huge—and Europe’s Share of It Is Very Small
A risk-averse business culture and complex regulations have stifled innovation on the continent, weighing on its future
Full text :
BERLIN—The world’s technology revolution is leaving Europe behind.
Europe lacks any homegrown alternatives to the likes of Google, Amazon or Meta. Apple’s market value is bigger than the entire German stock market. The continent’s inability to create more big technology firms is seen as one of its biggest challenges and is a major reason why its economies are stagnating. The issue is even more urgent with the prospect of higher tariffs threatening to further curb economic growth.
Investors and entrepreneurs say obstacles to tech growth are deeply entrenched: a timid and risk-averse business culture, strict labor laws, suffocating regulations, a smaller pool of venture capital and lackluster economic and demographic growth.
Thomas Odenwald, a German tech entrepreneur, left Silicon Valley in January of last year to join Aleph Alpha, a Heidelberg, Germany-based startup that aimed to go head-to-head with artificial intelligence leader OpenAI.
Odenwald had spent nearly three decades working in California but hoped he could help build a European tech giant to compete with the Americans. He was shocked by what he saw. Colleagues lacked engineering skills. None of his team had stock options, reducing their incentive to succeed. Everything moved slowly.
After two months, Odenwald quit and returned to California. “If I look at how quickly things change in Silicon Valley…it’s happening so fast that I don’t think Europe can keep up with that speed,” he said. Aleph Alpha has since said it would move away from building a large-scale AI model and focus instead on contract work for government and businesses. The company said more than 90% of employees participate in its stock option program.
Having largely missed out on the first digital revolution, Europe seems poised to miss out on the next wave, too. The U.S. and China, flush with venture capital and government funding, are spending heavily on AI and other technologies that hold the promise of boosting productivity and living standards. In Europe, venture capital tech investment is a fifth of U.S. levels.
Marc Andreessen, the U.S. tech investor, posted a meme on his X account that showed an image of big AI players like OpenAI and Chinese rival DeepSeek fighting for dominance. At a nearby table, a figure labeled with the European Union flag sat apart, staring at an image of a plastic cap tethered to a drinks bottle—a new legal requirement in Europe aimed at encouraging recycling. The message: Europe is focusing on the wrong battles.
“This is an existential challenge,” wrote Mario Draghi, the former European Central Bank president who was tasked by the European Union’s top official to help diagnose why Europe’s economy is stagnating. In a report published last September, Draghi pinpointed the lack of a thriving tech sector as a key factor. “The EU is weak in the emerging technologies that will drive future growth,” he wrote.
Only four of the world’s top 50 tech companies are European, despite Europe having a larger population and similar education levels to the U.S. and accounting for 21% of global economic output. None of the top 10 companies investing in quantum computing are in Europe.
The problems go deeper than just tech and reflect a broader truth about Europe: It isn’t creating its share of new, disruptive companies that shake up markets and spur innovation.
Over the past 50 years, the U.S. has created, from scratch, 241 companies with a market capitalization of more than $10 billion, while Europe has created just 14, according to calculations from Andrew McAfee, a principal research scientist at the MIT Sloan School of Management and co-founder of AI startup Workhelix.
New companies and industries—think autos replacing horse and buggies—allows a country to produce more goods with the same amount of workers, a key driver of prosperity. Europe is dominated by old-school industries like autos and banks that extracted productivity gains long ago. The typical company in the top 10 publicly traded U.S. firms was founded in 1985, while in Europe, it was in 1911, according to the International Monetary Fund.
By the late 1990s, when the digital revolution got under way, the average EU worker produced 95% of what their American counterparts made per hour. Now, the Europeans produce less than 80%.
The EU economy is now one-third smaller than the U.S.’s and is stuck in low gear, growing at a third of the U.S. pace over the past two years.
Digital winter
Europe has world-class research universities and a deep pool of engineering and scientific talent, much of which populates top U.S. firms. Spotify and fintech firms Revolut and Klarna are success stories. Venture capital arrived relatively late, but big U.S. venture-capital firms have set up shop in Europe in the past decade, including Sequoia Capital, Lightspeed, Iconiq and NEA.
“Europe is a much smaller market, but that doesn’t mean it doesn’t have great opportunities,” said Luciana Lixandru, a partner at Sequoia Capital based in London.
Europe had a promising start. At the start of the digital revolution in the 1990s, the region boasted several leading semiconductor companies (Netherlands-based ASML, Britain’s ARM), software giants (Germany’s SAP) and the dominant player in mobile phones (Finland’s Nokia). The World Wide Web was invented by a Brit, Tim Berners-Lee, working at a European research facility.
A big reason why Europe is now behind can be summed up as a lack of speed. Entrepreneurs complain that everything takes longer in Europe: raising money, complying with local regulations, and hiring and firing workers.
“In Germany a lot of people are just too cautious,” said Karlheinz Brandenburg, the German engineer who helped invent the MP3 digital audio compression format. German consumer-electronics companies didn’t think the invention was important and didn’t invest enough in it, he said, and then Apple seized on the invention in the early 2000s to sell nearly half a billion iPod players. Brandenburg is now seeking €5 million ($5.6 million) in financing for a next-generation headphones startup.
“What is different in America is the speed of almost everything,” said Fabrizio Capobianco, an early tech entrepreneur from Italy who lived for decades in Silicon Valley. “Americans make decisions very fast. Europeans need to talk to everybody—it takes months.”
Capobianco, who returned to Italy three years ago, is now building a startup factory in the Italian Alps to scout out European tech companies. The prize for the winners: a one-way ticket to Silicon Valley.
“I don’t think you can replicate Silicon Valley” in Europe, said Capobianco. He wants other European entrepreneurs to follow his example: implant themselves in America’s tech hub and manage teams of engineers located in Europe, where wages and living costs are lower. That inevitably means that the highest-value jobs will be in the U.S., Capobianco said.
Most European startups find it so difficult to expand at the same pace as their U.S. counterparts that they typically move to the U.S., are bought by U.S. companies, or partner with them. One of the U.K.’s largest startups, delivery company Deliveroo, recently agreed to sell its business to U.S.-based DoorDash for $3.9 billion.
Even Europe’s hottest AI firms are linking up with American firms rather than competing against them. London-based DeepMind was bought by Google parent Alphabet in 2014. Paris-based Mistral AI, which has raised over $1 billion in the race to build large AI models, has signed distribution deals with Microsoft, Google and Amazon.
In Europe, most business financing still comes from banks, which generally require physical collateral—a building, perhaps—in the event of losses. Other forms of financing include risk-averse public-pension funds. Early venture capital investors also demanded terms that left founders hamstrung, say entrepreneurs.
“There are a lot of scattered, small amounts of capital, and then you have these very large, slow-moving, bureaucratic, quasi-government agencies. And you don’t have very much in the middle—the more dynamic endowment capital that is in the U.S.,” said Hussein Kanji, an American tech investor who founded Hoxton Ventures, a London-based venture-capital firm.
Complex regulations
Scaling up quickly in Europe is hard. The U.S. is a large integrated market, while Europe has dozens of countries with their own language, laws and taxes. Labor laws slow down worker mobility by making it harder to hire and fire workers. (There is often a three-month notice period in Europe for leaving a firm, and in some cases a six-month noncompete clause, jokingly known in Britain as “gardening leave.”)
Until the past year or two, stock options in most European nations were little used because they were taxed as income before they vested.
Taxes are higher, and regulations designed to corral big business become a costly and time-consuming headache for startups.
It is easier for large AI companies in the U.S. or China to move to Europe than “growing out of Europe and to have to invest from the start to satisfy a much more complex regulatory framework,” said Sebastian Steinhäuser, chief strategy and operating officer at German software giant SAP.
Europe’s love of regulation is one reason why Han Xiao started to think about moving his Berlin-based AI startup to the U.S. He and two friends founded their company, Jina AI, five years ago after studying in Germany, aiming to apply machine learning to search information in unstructured data for companies.
“When Germans talk about AI, the first topic is ethics and regulation,” whereas investors in the U.S. and China focus on innovation, Xiao said. Engineers in Berlin are also hard to find, he said. Xiao’s attempts to fire underperforming workers have landed in court. His 17 employees tried to form a union.
Xiao initially raised about $7 million from American and Chinese venture-capital firms and SAP’s U.S. arm. His latest $30 million funding round was led by Silicon Valley investment firm Canaan Partners. The European market for AI technology is very small, Xiao said, with local clients adopting the technology slowly. After spending November and December in Palo Alto, Xiao decided to make the move to the U.S.
European businesses spend 40% of their IT budgets on complying with regulations, according to a recent survey by Amazon. Two-thirds of European businesses don’t understand their obligations under the EU’s AI Act, which came into force last summer, the survey found.
Meta delayed the launch of its latest AI model in Europe by nearly a year because of EU regulations. It began rolling out a limited version in March that doesn’t include features like image generation or editing. Apple also postponed its new AI features for iPhones in Europe until recent weeks.
Software company Bird, one of the Netherlands’ most successful startups, said recently it plans to move its main operations out of Europe to the U.S., Dubai and other locations due to restrictive AI regulation.
“Stop regulating, Europe. We might be the first, but we won’t be the last (to leave),” Robert Vis, the company’s founder, wrote on his LinkedIn page.
Culture matters
European cities crowd the top spots on quality of life rankings, far ahead of their American counterparts. That lifestyle might contribute to less appetite for risk, along with a culture of equality that frowns on naked ambition.
“I get a lot of pitch decks that say, ‘This could be a $50 to $100 million company,’ and that doesn’t really interest me,” said Chris Hill, a Santa Monica, Calif., native who lives in London and manages a fund for EdenBase. He also notes that pubs in London’s financial district are usually full at 2 p.m. on Thursdays.
The rise of venture capital in London could eventually create an entrepreneurial ecosystem where money, talent and ideas are circulating quickly, said Sebastian Mallaby, a fellow at the Council on Foreign Relations whose book “The Power Law” details how Silicon Valley built an entrepreneurial culture.
In some cases, though, old habits might die hard. The Draghi report, said McAfee at MIT, did a great job diagnosing Europe’s lagging tech sector, but then urged governments to spend more public money spurring the sector, missing the point that it was private money that was absent—most likely due to regulation and other problems.
Said McAfee: “That’s when I went from nodding my head in agreement to banging it on the table.”
https://www.wsj.com/tech/europe-big-tech-ai-1f3f862c?mod=hp_lead_pos7
The Economist, 21 mai
Prometheus unbound : Sam Altman is a visionary with a trustworthiness problem
Two books tell a similar tale about OpenAI. It is worrying
Full text :
The Optimist. By Keach Hagey. W.W. Norton; 384 pages; $31.99 and £25
Empire of AI. By Karen Hao. Penguin Press; 496 pages; $32 and £25
IN GREEK MYTH Prometheus stole fire from the gods and brought it to Earth. He paid for that by being bound for eternity to a rock face, where an eagle tormented him daily by pecking at his liver. Such was the price of humanity’s first great technology. In the 21st century the story of Sam Altman, the co-founder and boss of OpenAI, has a Promethean ring to it, too. He spearheaded the creation of ChatGPT, which was launched in late 2022, stunning the world: suddenly the revolutionary capabilities and risks of generative artificial intelligence (AI) were unleashed. A year later the capricious gods—that is to say, OpenAI’s non-profit board—sought to banish him. Unlike Prometheus, though, Mr Altman emerged unscathed.
This story is the subject of two excellent new books. They explore the murky mix of missionary zeal, rivalry and mistrust at OpenAI in the run-up to the birth of ChatGPT. The tensions are even more apparent in the chaos leading up to the attempt to fire Mr Altman during the abortive boardroom coup in November 2023.
It is a testimony to the skill of the authors, who are journalists, that they have produced deeply researched, gripping accounts, both published on May 20th, almost exactly a year and a half after that event. Better still, they tell the story in different ways.
Keach Hagey’s “The Optimist” is what could be called the authorised version. She had access to Mr Altman and many of the main characters in his story, including his family and friends. His personality is vivid and complicated enough that her story never flags. It is no hagiography.
Karen Hao got no such access for “Empire of AI”. OpenAI kept her at arm’s length, which gives her account more bite. Both books reveal disturbing traits about Mr Altman, OpenAI and the culture of Silicon Valley that are useful to bear in mind amid the hype about generative AI.
Mr Altman is a beguiling character. As Ms Hagey says, the first things you notice about him are his slight stature and the intensity of his gaze, “as though he is speaking to the most important person in the world”. Brought up in the American Midwest, from a young age he was a technology whizz who was surprisingly witty. He proved a natural crusader: at 17 he shocked a school assembly by revealing his homosexuality in order to promote gay rights.
Throughout his career, he has combined an ambition to create world-changing technologies with a gift for storytelling that helps him raise large sums of money to fund his dreams. He started with a location-tracking phone app called Loopt. Since then, his large bets have included a cryptocurrency backed by eye scans to certify digital identity in a world of AI; life extension through cellular-rejuvenation technology; nuclear fusion; and, of course, the quest for superintelligence.
Some liken his abilities to Steve Jobs’s “reality distortion field”—the Apple co-founder could make people believe in what they thought was impossible. But unlike Jobs, who was often abrasive, Mr Altman is a sensitive listener who knows how to frame what he offers in ways that people find alluring.
From early on, his people skills have attracted powerful mentors. Paul Graham, co-founder of Y Combinator (YC), a startup incubator, said of Mr Altman: “You could parachute him into an island full of cannibals and come back in five years and he’d be king.” Indeed Mr Graham and his partner, Jessica Livingston, handed the reins of YC to Mr Altman within a few years, elevating him at the age of 28 to a position of near-unrivalled power in the Silicon Valley startup scene.
Even then, there were misgivings about his candour. “If Sam smiles, it’s super deliberate,” a former YC founder tells Ms Hao. “Sam has smiled uncontrollably only once, when [Mr Graham] told him to take over YC.” At Loopt, which he sold for $43m in 2012, his colleagues twice sought to convince the board to sack him as CEO because, as Ms Hagey says, he pursued his own ideas without informing them. Their concerns about his trustworthiness are recounted in both books—even if, in the end, his financial backers remained loyal.
Likewise, at YC, Mr Graham and Ms Livingston grew frustrated with Mr Altman’s moonlighting at OpenAI, which he started with Elon Musk and others in 2015, while still running YC. Ms Livingston fired him, but as Ms Hagey recounts, he left chaos in his wake. Not only was he overseen by a non-functioning board, he had also used YC equity to help lure people to OpenAI. She says some YC partners saw a potential conflict of interest, “or at least an unseemly leveraging of the YC brand for Altman’s personal projects”.
These details are important. Both accounts suggest that his ambition, speed and silver-tongued way of telling people only what they want to hear have come close to unravelling OpenAI. Paradoxically, some of these same traits helped OpenAI amass the huge amounts of money and computational power, not to mention the troves of data scraped from the internet to feed its models, that helped give the firm the lead in generative AI.
On one occasion, known as “the divorce”, he so alienated some of OpenAI’s researchers focused on safety that they left the company and founded one of its main rivals, Anthropic, in 2021. On another, known as “the blip”, he was sensationally fired after his top lieutenants and the board lost trust in him because, as both books say, he told them conflicting stories and failed to give them straight answers about his and OpenAI’s investment activities. Yet he returned triumphantly a few days later when they realised that the company might collapse without him.
Underpinning both these episodes, and running through both books, is the ideological struggle between those who favour speed over safety when rolling out generative AI. OpenAI has suffered heavily from an internecine rift between “doomers” and “boomers”. Many of the “doomers” are part of the effective-altruism (EA) movement, a philanthropic philosophy aimed at finding the most potent way to help others, which took a keen interest in the possibly catastrophic risks of AI. The “boomers”, or “effective accelerationists”, are more concerned that if America does not win the AI race, China will. In reality, as Ms Hao points out, they are two sides of the same coin. Each is striving to push the boundaries of machine superintelligence as far as is safe or possible—even if one warns of “fire and brimstone” and the other offers “visions of heaven”.
Equally interesting are the rivalries in a field full of quasi-geniuses and the technological leaps they perform to keep ahead of each other. Both books chronicle the falling-out between Mr Musk and Mr Altman, which is vividly catalogued as part of a lawsuit Mr Musk has filed against OpenAI, its boss, and Microsoft, the biggest investor in OpenAI’s for-profit entity.
Throughout, the two books diverge in ways that underscore the question at the heart of their common story: does the end, the quest for superintelligent AI, justify the means? Ms Hagey appears to think so. She explains away some of Mr Altman’s behaviour as aversion to conflict and a “move fast and break things” mindset common in Silicon Valley.
Playing with fire
Ms Hao, meanwhile, accuses OpenAI of betraying its mission. She is critical not only of Mr Altman, but of the heads of rival firms, who she says are in the same power struggle. She says generative-AI models are “monstrosities”, consuming too much data, power and natural resources. She goes too far, however, in likening OpenAi and other labs to colonial empires.
But taking the evidence from both books, her concerns about Mr Altman seem valid. In any organisation a CEO who does not seem fully trustworthy is a problem. It is particularly so at the helm of a firm like OpenAI, which is building potentially Promethean technologies. ■
L’Express, 19 mai
Cancer : Raphaël Rodriguez, le chercheur qui a trouvé la faille des métastases
Sciences. Ce chimiste à l’Institut Curie a mis au point une molécule qui pourrait détruire ces tumeurs secondaires à l’origine de 70 % des décès par cancer. Ses travaux suscitent un immense intérêt dans la communauté scientifique.
Full text :
Raphaël Rodriguez a raté la première année de médecine, mais il n’a pas renoncé à sauver des vies humaines. Beaucoup de vies, même. Avec son frère aîné qui a, lui, choisi de poursuivre son parcours de carabin et est aujourd’hui anesthésiste-réanimateur, ils ont même leur “petite rivalité” à ce sujet : “Il soigne une dizaine de patients par jour. Ramené sur l’ensemble de sa carrière, cela fera peut-être quelques dizaines de milliers. Moi, j’ai finalement choisi d’aller faire de la chimie pour créer des médicaments, et si mes molécules fonctionnent, ce sera dix ou cent fois plus!”. Au-delà des taquineries fraternelles, ce scientifique affiche une ambition immense : trouver une solution pour éliminer les métastases. Le graal de la recherche en cancérologie moderne. Car si la médecine a fait d’immenses progrès et guérit toujours plus de patients, elle continue de buter contre ces tumeurs secondaires responsables de 70 % des décès par cancer.
Pour les vaincre, il faut trouver leur faille. La clé : comprendre pourquoi certaines cellules deviennent résistantes aux traitements et se diffusent dans l’organisme, quand toutes les autres cèdent face à notre arsenal de chimiothérapie et d’immunothérapie et sont éliminées. “Ce n’est pas une question de génétique, car leurs propriétés ne sont pas liées à des mutations. On parle ici de capacité d’adaptation, de plasticité cellulaire”, explique le chercheur. La réponse se cache dans les entrailles de ces redoutables tueuses, à l’échelle moléculaire et atomique. Il ne s’agit plus de biologie mais de chimie, ou plus exactement de “chemical biology” (biologie chimique), au croisement des deux disciplines. La spécialité de Raphaël Rodriguez.
Des pistes thérapeutiques inédites
Une thèse, deux postdocs et dix ans à décortiquer des tumeurs ont permis à ce quadragénaire, directeur de recherche au CNRS et chef de laboratoire à l’Institut Curie, de découvrir un des secrets des cellules à potentiel métastatique : leur boulimie pour les ions de cuivre et surtout de fer. “Elles utilisent ce métal comme un catalyseur pour accélérer leur adaptation”, résume-t-il. Mais ce qui fait leur force est aussi leur faiblesse. “Elles deviennent sensibles à l’oxydation, et meurent si elles n’arrivent pas à la contrôler”, précise Raphaël Rodriguez. Et justement, en bon chimiste, il a aussi réussi à synthétiser une molécule capable d’exacerber cette oxydation pour induire la “ferroposte”, cette forme de mort cellulaire causée par l’oxydation du fer.
Ces travaux lui ont valu des publications dans des revues prestigieuses, notamment dans Nature en 2023 et début mai, ainsi que de nombreux prix, dont la médaille d’argent du CNRS en 2024 et le Prix Liliane Bettencourt pour les sciences du vivant l’année précédente. “Son travail représente une avancée considérable : il transforme en profondeur notre compréhension des mécanismes du cancer et ouvre des pistes thérapeutiques inédites”, confirme Hugues de Thé, le président du conseil scientifique de la Fondation Bettencourt.
L’image est facile, mais c’est peu dire qu'”Ironman” – à la fois son surnom et son activité sportive favorite, combinaison de course à pied, de vélo et de natation – a une volonté… de fer. Tout jeune, il a osé pousser la porte de laboratoires prestigieux pour ses postdocs, à Oxford puis à Cambridge : “Beaucoup me prédisaient des échecs, mais cela a été mes années les plus productives”. Plus tard, il lui a aussi fallu faire valoir ses vues au sein de l’Institut Curie, où il dirige aujourd’hui non pas un, mais deux laboratoires : le premier pour la chimie de synthèse, le deuxième pour la biologie cellulaire et moléculaire. “J’ai été recruté pour faire de la chimie, il n’a pas toujours été facile de convaincre, car trois laboratoires, c’est coûteux, nous avons dû montrer que nous produisions des résultats”, se rappelle-t-il. A présent la question se pose moins. A tel point que ses collègues d’autres entités se sont montrés confiants quand il leur a donné son plan de bataille pour la synthèse de sa molécule, en 30 étapes. “Plus beaucoup de laboratoires ne font cela, c’est une discipline difficile qui se perd…”, constate-t-il.
Le produit a été testé sur tous les modèles de laboratoire possibles – cellules de patients atteints de tumeurs difficiles à traiter (pancréas, sarcome, cancers du sein triple négatif), organoïdes, animaux. Avec à chaque fois un effet démontré. Reste maintenant à passer chez l’homme. Une autre histoire : la molécule devra être produite aux normes pharmaceutiques, et il faudra lever de l’argent pour financer les essais cliniques. Pour conduire ces développements, une start-up se trouve en cours de création, sous l’égide de l’Institut Curie. Mais le chercheur l’annonce déjà : s’il restera comme conseiller, il ne s’en occupera pas directement. Lui cherche à présent… sa prochaine thématique de recherche. “Il y a une règle en science : quand on commence à se sentir trop à l’aise avec son sujet, c’est le début de la fin, il faut en changer”, explique-t-il. Après une décennie à travailler sur la chimie des métaux dans le cancer, il aimerait passer à autre chose, même s’il avoue volontiers que la perspective le “panique” un peu : “Cela fait partie de l’inconfort nécessaire à la recherche scientifique, si l’on veut apporter des idées nouvelles”.
The Wall Street Journal, 17 mai
MIT Says It No Longer Stands Behind Student’s AI Research Paper
The university says it has no confidence in a widely circulated paper by an economics graduate student
Full text :
The Massachusetts Institute of Technology said Friday it can no longer stand behind a widely circulated paper on artificial intelligence written by a doctoral student in its economics program.
The paper said that the introduction of an AI tool in a materials-science lab led to gains in new discoveries, but had more ambiguous effects on the scientists who used it.
MIT didn’t name the student in its statement Friday, but it did name the paper. That paper, by Aidan Toner-Rodgers, was covered by The Wall Street Journal and other media outlets.
In a press release, MIT said it “has no confidence in the provenance, reliability or validity of the data and has no confidence in the veracity of the research contained in the paper.”
The university said the author of the paper is no longer at MIT.
Toner-Rodgers didn’t respond to requests for comment.
The paper said that after an AI tool was implemented at a large materials-science lab, researchers discovered significantly more materials—a result that suggested that, in certain settings, AI could substantially improve worker productivity. But it also showed that most of the productivity gains went to scientists who were already highly effective, and that overall the AI tool made scientists less happy about their work.
The paper was championed by MIT economists Daron Acemoglu, who won the 2024 economics Nobel, and David Autor. The two said they were approached in January by a computer scientist with experience in materials science who questioned how the technology worked, and how a lab that he wasn’t aware of had experienced gains in innovation. Unable to resolve those concerns, they brought it to the attention of MIT, which began conducting a review.
MIT didn’t give details about what it believes is wrong with the paper. It cited “student privacy laws and MIT policy.”
Toner-Rodgers presented the paper at a National Bureau of Economic Research conference in November. The paper is on the preprint site arXiv, where researchers post papers prior to peer review.
MIT said it has asked for the paper to be removed from arXiv. The paper was submitted to the Quarterly Journal of Economics, a leading economics journal, but was still being evaluated. MIT has asked that it be withdrawn from consideration.
“More than just embarrassing, it’s heartbreaking,” Autor said.
The Economist, 16 mai
Jumbo jets : The race to build the fighter planes of the future
They can hold more fuel, carry more weaponry and boast more computing power
Full text :
“THERE’S NEVER been anything even close to it—from speed to manoeuverability…to payload,” gushed Donald Trump, as he announced on March 21st that America’s future fighter jet, the F-47, would be built by Boeing, an aerospace giant. The jet is one of several so-called sixth-generation aircraft on drawing boards around the world.
In December China showed off what was believed to be a prototype of the J-36, an imposing plane with stealthy features and a large flying-wing design. Britain, Italy and Japan are co-developing their own plane, in Britain provisionally called the Tempest, which is due to enter service in 2035. France, Germany and Spain hope that their Future Combat Air System (FCAS) will be ready by 2040. Together, these represent the future of aerial warfare.
Fighter jets tend to be categorised by their age, features and sophistication. The first generation appeared in the 1940s and 1950s. Many of those in NATO service today, like America’s ubiquitous F-16, are fourth-generation ones, built from the 1970s to the 1990s. The latest fifth-generation planes, such as the F-35 and F-22, the latter perhaps the leading fighter jet in operation today, tend to enjoy stealth, the capacity for sustained supersonic flight and advanced computer systems.
By comparison with earlier planes, the sixth generation of jets all have one thing in common—they’re big. Early images of the F-47 have been heavily obscured and edited, and might bear little resemblance to the final plane. But photos of the J-36 and models of the Tempest (pictured) indicate aircraft far larger than the fourth-generation Chinese J-20 and European Typhoon or fifth-gen American F-35 and F-22. The similarity suggests that all these countries have similar prognoses about the future of war in the air.
One shift they all predict is more, and better, surface-to-air missile systems, a lesson reinforced by the strong performance of air defences in Ukraine. That requires more stealth to keep planes hidden from enemy radar. Stealth, in turn, requires smooth surfaces—bombs and missiles cannot hang off the wing, but must be tucked away inside a larger body.
Keeping their distance
A second shift is in the increasing range of air combat. For the past 40 years, the proportion of air-to-air kills that occur “beyond visual range” has grown steadily—from a tiny fraction of all in the 1970s to more than half between 1990 and 2002. Since then air-to-air missiles have been able to travel ever farther. Europe’s Meteor, with a 200km range, was at the forefront of technology when it was first tested a decade ago. America’s AIM-174B and China’s PL-17 can now hit things 400km away. That means planes need better sensors to spot and fire at targets from farther away; they also need better electronic warfare equipment to parry incoming threats. These technologies require more space to generate power and remove all the heat that electronics tend to produce.
Finally, planes are especially vulnerable to long-range missiles when they are on the ground. That means they need to fly from more distant airfields, requiring larger fuel tanks and less drag for more efficient flight. The huge wings seen on the Tempest and the J-36 allow for both those things, notes Bill Sweetman, an aviation expert. Range is a particular concern for America. Its airbases in Japan are within reach of vast numbers of Chinese ballistic missiles. It plans to disperse its planes more widely in wartime and to fly them from more distant runways, such as those in Australia and on Pacific islands.
Long-range planes are appealing for several reasons. “We’re talking about really extreme ranges,” notes Group Captain Bill, the Royal Air Force (RAF) officer in charge of thinking through how the service will use the Tempest, speaking recently (without his surname) on the “Team Tempest” podcast, which is produced by the consortium building the aircraft. The plane will need to be able to cross the Atlantic Ocean on a single tank of fuel, he says, a journey that would require today’s Typhoon jet to be refuelled three or four times. One reason for that might be that big refuelling tankers, which once sat safely to the rear of the front line, are increasingly vulnerable to new air-to-air missiles, like China’s PL-17. Another is that the Tempest could then take circuitous routes, avoiding Russian air defences along the obvious paths.
Put all this together and you get planes that look like old-fashioned bombers. Mr Sweetman compares the hulking J-36, with massive wings and cavernous weapon bays, to an “airborne cruiser”, optimised for range, stealth and carrying capacity over dogfighting agility. The single most important requirement for the Tempest is the ability to carry a lot of weapons, says Group Captain Bill, noting that it will have roughly double the payload of the beefiest F-35. That makes sense: if you can deliver more firepower per sortie, you can destroy a target with fewer risky flights into enemy airspace. “The same answers tend to pop up for all,” says Mike Pryce, who has advised Britain’s defence ministry on combat air design. “Stand off, don’t be seen, shoot first, don’t get into a knife fight.”
As the planes get bigger, their insides are also evolving into what are essentially “flying supercomputers”, says Roberto Cingolani, the CEO of Leonardo, an Italian company that is developing the wider Tempest programme along with Britain’s BAE Systems and Japan’s Mitsubishi. Leonardo says that the Tempest will be able to “suck up” a medium-sized city’s worth of data in one second, according to Tim Robinson of the Royal Aeronautical Society. That could include anything from radio traffic to the emissions of air-defence radars. The point is to share that data with friendly forces, including tanks and ships, says Mr Cingolani, perhaps via satellite, with a “central artificial intelligence” making decisions—presumably which targets should be attacked, by what, and when. Some might suggest “that’s science fiction,” he says. “No, that’s a vision.”
Flying together
Perhaps the most contentious design choice is whether sixth-generation planes should have pilots. Elon Musk, Mr Trump’s aide, recently mocked the fact that “Some idiots are still building manned fighter jets.” In practice, most air forces believe that artificial intelligence (AI) and autonomy are not yet mature enough to allow a computer to replace a human pilot entirely; that will take until 2040, reckons the RAF. Images of the F-47, though unreliable guides to the final product, depict “a relatively large bubble canopy”, notes Thomas Newdick of the War Zone, a website, “providing the pilot with excellent vision”. Some missions are particularly sensitive: France will use the FCAS to deliver nuclear weapons, a task that may always remain a human prerogative.
Nevertheless, the prevailing idea is that sixth-generation planes will be the core of a larger “combat air system”, in which a human in the cockpit controls a larger fleet of uncrewed drones, known, in American parlance, as collaborative combat aircraft (CCA). “The concept is that you have an aircraft-carrier that is flying,” says Mr Cingolani. “It’s an entire fleet that moves in the sky and makes decisions.” The human in the cockpit is best described not as a pilot, says Group Captain Bill, but as a “weapons system officer”, the RAF’s term for someone managing sensors and weaponry.
On May 1st America’s air force announced that it had begun ground testing its two CCA prototypes in advance of flight tests later this year. Current order numbers suggest that each F-47 will get two CCAs. The drones might scout ahead, spot targets or carry weapons themselves—all within line-of-sight and under “tight control”, notes Frank Kendall, a former air-force secretary. Much of the intensive computing required to carry out these tasks will need to take place on board the crewed mothership, with relevant data shared to all craft instantaneously, says Mr Cingolani, speaking in the context of the Tempest. He emphasises that the communication links have to be secure. “I’m not sure in ten years we can make it.”
If he and his company can pull it off, it will cost a pretty penny. Mr Kendall, in the Biden administration, paused the development of the F-47 in large part because it was expected to cost twice as much as the F-35—perhaps as much as $160m-180m apiece—which would mean the government could afford only a small fleet of 200 or so planes. Many in the Pentagon wanted a greater emphasis on building CCAs to complement the existing fleet of F-35s, rather than pouring money into a new platform that might not turn up until long after a war with China.
In Britain, Justin Bronk, an air power expert at the Royal United Services Institute, expresses similar concerns, drawing an analogy with the experimental versus war-winning weapons of the second world war. “Pouring all the money that defence can spare…into a programme that, in the best case, will not deliver a fully operational capability before 2040 feels to me like the UK concentrating all Air Ministry resources on Avro Vulcan development in 1936,” he says, citing a plane that did not appear until a decade after the war was over, “rather than Hurricanes, Spitfires, Blenheims, Whitleys and Wellingtons.” ■
Frankfurter Allgemeine Zeitung, 15 mai
Gerätemedizin: : Leben retten, ohne das Sterben zu verlängern
Manche Intensiv- und Notpatienten werden behandelt, obwohl sie keine Überlebenschance haben. Wie lässt sich die Übertherapie verhindern?
Full text :
Etwa achtzig von einhunderttausend Personen erleiden jährlich einen akuten Stillstand von Herz und Kreislauf – dann muss es schnell gehen. Die Methode der Wiederbelebung, die sogenannte kardiopulmonale Reanimation, ist eine noch junge Kunst der Medizin. Vor knapp siebzig Jahren haben amerikanische Anästhesisten den Nutzen der Beatmung von Mund zu Mund belegen können. Im Jahr 1960 berichteten Ärzte aus Baltimore erstmals über den Erfolg einer extrakorporalen Herzmassage, also der Kompression des Brustkorbs von außen in sehr rascher Frequenz. Das Ziel ist, den Blutkreislauf aufrechtzuerhalten, um lebenswichtige Organe, insbesondere das Gehirn, mit sauerstoffreichem Blut zu versorgen.
Herzdruckmassage und Mund-zu-Mund-Beatmung kennen die meisten Bürger, sind sie doch Teil des Erste-Hilfe-Kurses für den Führerschein. Vielfach wird heute auch die Verabreichung eines Elektroschocks zur Wiederherstellung des Herzrhythmus unterrichtet. An vielen öffentlichen Orten gibt es dafür leicht zu bedienende Geräte, die Defibrillatoren. Viele Menschen verdanken einer Reanimation ihr Leben. Bei ihnen ist es gelungen, die Atmung und den Kreislauf wiederherzustellen.
Erreichen die reanimierten Patienten mit den Rettungsteams die Klinik, ist meistens eine erweiterte Wiederbelebung notwendig. Dann kommen Atemmaschinen zum Einsatz sowie Medikamente, die den Kreislauf unterstützen. Doch an diesem Punkt sind die Erfolgsaussichten nicht gut: Nur etwa jeder zehnte Patient überlebt.
Haut du formulaire
Bas du formulaire
Günstiger sind die Überlebenschancen, wenn der Atem- und Kreislaufstillstand in einer Klinik auftritt. Dort stehen die Patienten unter Beobachtung, Reanimationsteams sind rasch zur Stelle. Dennoch überleben auch dann lediglich fünfzehn bis dreißig Prozent der Betroffenen. Das haben Notfallmediziner um Sabina Hunziker aus Basel nach einer Auswertung internationaler Studien herausgefunden und im „Deutschen Ärzteblatt“ beschrieben.
Schnelle Hilfe ist überlebenswichtig
Im Falle eines akuten Herz-Kreislauf-Stillstands kommt es auf schnelle Hilfe an. Dies ist der Grund, warum es wesentlich davon abhängt, wo der Notfall sich ereignet. Experten unterscheiden bei ihren Untersuchungen daher einen „in-hospital cardiac arrest“ von einem „out-of-hospital cardiac arrest“. Im Krankenhaus gelingt es bei etwa der Hälfte der Patienten, den Kreislauf zu stabilisieren. Dieser Zustand nennt sich im Fachjargon „ROSC“ (Return of spontaneous circulation). Doch nicht selten ist ein ROSC nur von kurzer Dauer. Eine große Zahl gut dokumentierter Fälle kardiopulmonaler Reanimation in skandinavischen Ländern zeigt: Nur etwa jeder vierte Patient überlebt nach einem „in-hospital cardiac arrest“ länger als dreißig Tage und kann die Klinik wieder verlassen. Bei vielen von ihnen bleiben gravierende neurologische Schäden zurück.
Daraus ergibt sich für Ärztinnen und Ärzte eine medizinisch-technische und gleichzeitig auch ethische Herausforderung. Denn einerseits gilt es, möglichst vielen Patienten über die kritische Phase des Atem- und Kreislaufversagens hinwegzuhelfen. Andererseits soll den vielen Patienten mit aussichtsloser Prognose das Sterben nicht durch medizinische Interventionen, etwa durch Kompression des Brustkorbs, erschwert werden.
In der Praxis bedeutet das: Im Notfall muss zunächst schnell gehandelt werden. Doch dann muss unverzüglich die Entscheidung folgen, ob und wie lange eine Reanimation fortzuführen ist. Ist die Prognose günstig, müssen die Maßnahmen über viele Minuten, manchmal länger als eine Stunde fortgesetzt werden – mit manchmal auch für die Helfer sehr belastender Intensität. Bei vermutlich schlechtem Ausgang sollen sie beendet werden. Denn kein Patient soll im Sterben durch die Interventionen belastet werden.
Kriterien für die Prognose
Ärzte stehen so vor einem Dilemma, das sich nicht leicht auflösen lässt. Bisher gibt es für diese Situation keine anerkannten Entscheidungsregeln. Daher haben Forscher Kriterien identifiziert, die den Ausgang und Erfolg einer kardiopulmonalen Reanimation schon früh abschätzen lassen. Da sich die Situation im Notfall unübersichtlich gestalten kann, müssen die Kriterien einfach sein. Übermäßig komplexe Regeln wären unter Zeitdruck nicht anwendbar. Vielmehr kommt es darauf an, möglichst leicht und schnell zu erfassende Merkmale und Konstellationen zu identifizieren, die den Helfern, Rettungsteams und Notfallärzten als Grundlage der Entscheidung dienen.
Um solche Kriterien zur Vorhersage des Erfolgs einer kardiopulmonalen Reanimation zu entwickeln, hat ein internationales Team unter Leitung von Lars Andersen aus Dänemark jetzt Reanimationsregister aus Dänemark, Schweden und Norwegen rückblickend untersucht. In skandinavischen Ländern werden Gesundheits- und Krankheitsdaten vieler Patienten oft in Registern dokumentiert. Die Ergebnisse sind im „Journal of the American Medical Association“ publiziert. In der Studie wurden nur Patienten mit einem „in-hospital cardiac arrest“ berücksichtigt. In den Reanimationsregistern sind für eine große Zahl von Patienten die Umstände und Befunde eines Atem- und Kreislaufversagens dokumentiert. Zudem gibt es Informationen darüber, ob Patienten nach dreißig Tagen und nach einem Jahr noch lebten. Ebenso werden die neurologischen Befunde bei den Patienten notiert.
Vier Merkmale erhöhten die Wahrscheinlichkeit eines negativen Ausgangs mit großer Treffsicherheit: wenn der Vorfall von keinen Zeugen beobachtet wurde, wenn die Patienten nicht an einem Monitor überwacht worden waren, wenn die Ableitung des Elektrokardiogramms keine Herzaktion mehr anzeigte (Asystolie) und wenn die Reanimation länger als zehn Minuten andauerte.
Liegen diese Kriterien vor, dann kann die Aussichtslosigkeit der kardiopulmonalen Reanimation konstatiert werden. In einem nächsten Schritt haben die Ärzte rückblickend die Vorhersagekraft dieser Kombination für die Register in Schweden und Norwegen untersucht. In dieser Überprüfung (Validierung) hat sie sich ebenfalls als effektiv erwiesen. Die Experten haben dabei auch die Rate falsch positiver Befunde analysiert. Das ist die Häufigkeit, mit der die Methode einen Misserfolg der Reanimation für einen Patienten vorhergesagt hätte, der dann jedoch überlebt hat. Sie lag bei 0,6 Prozent. Unter Experten der Notfallmedizin gilt solch ein Wert als akzeptabel.
Lokale Gegebenheiten sind mitentscheidend
Der Vorteil dieser Entscheidungsregel sind ihre unmittelbare Verfügbarkeit und die einfache Erfassung der Kriterien. Die Forscher weisen jedoch darauf hin, dass der Erfolg einer kardiopulmonalen Reanimation von vielen Faktoren abhängt, nicht zuletzt von lokalen Gegebenheiten sowie der Struktur und Organisation der Gesundheitseinrichtungen. Dies hat Auswirkung auf die Vorhersagekraft einzelner Parameter. Daher empfehlen die Experten, die aus den skandinavischen Daten abgeleitete Entscheidungsregel vor ihrer Anwendung in anderen Ländern zu überprüfen.
Reanimation, Intensiv- und Notfallmedizin sind Grenzsituationen medizinischer Praxis. Vielen Patienten helfen sie, viele Leben können gerettet werden. Doch manchmal sind die Aussichten nach einer kardiopulmonalen Reanimation sehr ungünstig, oder Patienten und Personen lehnen sie aus unterschiedlichen Gründen ab. Denn nach Reanimation leiden Betroffene mitunter nicht nur an neurologischen Ausfällen, sondern haben auch weitere körperliche und psychische Folgeerscheinungen. Man fasst sie unter dem Begriff „Post-Intensive-Care-Syndrom“ zusammen. Daher ist es klug, Entscheidungen darüber, ob Maßnahmen der Wiederbelebung eingeleitet werden sollen, im Voraus zu treffen. Der European Resuscitation Council rät zu einer gemeinsamen Entscheidung mit den Patienten.
In einer Reihe von Kliniken und Pflegeheimen in Deutschland ist diese vorausschauende Gesundheitsplanung etabliert, die auch als Advance Care Planning bezeichnet wird. In vielen Einrichtungen wird zudem für alle Patienten dokumentiert, ob sie eine Patientenverfügung formuliert haben, in der Notfallsituationen geregelt sind. In der Schweiz etwa, so berichtet es die Forschergruppe aus Basel, wird empfohlen, alle Patienten bei Aufnahme in eine Klinik zu ihren Präferenzen betreffend einer Reanimation zu befragen.
Mit Blick auf die Intensivmedizin stellen sich ähnliche Fragen und Herausforderungen. Sie kann das Leben vieler Menschen retten und verlängern. Die Intensivstation ist der Ort zur Behandlung Schwerstkranker, wie Martin Rußwurm, Intensivmediziner an der Universitätsklinik in Marburg, im „Deutschen Ärzteblatt“ betont. Er hat sich mit dem Konzept des befristeten Therapieversuchs in der Intensivmedizin befasst.
Die Prognose vieler Patienten auf einer Intensivstation lässt sich kaum verlässlich abschätzen. Ob eine Behandlung unter Berücksichtigung der individuellen Krankengeschichte und der aktuellen Befunde angemessen ist, ist vielfach unklar. Gleichzeitig ist die Therapie, etwa eine maschinelle Beatmung, oft belastend. „Dass Menschen im Kontext der Intensivstation sterben“, sei problematisch, schreibt Rußwurm. Patienten seien vielerlei Einschränkungen ihrer Grundbedürfnisse unterworfen. Die Privatsphäre und körperliche Unversehrtheit seien beschränkt, die Nachtruhe sei gestört. Oft müssen Patienten mit Beruhigungsmitteln behandelt und sediert werden. Andererseits können realistische Therapieziele häufig nicht festgelegt werden. Und Untersuchungen zeigen, dass Ärzte nicht selten die Wahrscheinlichkeit des Überlebens ihrer Patienten falsch einschätzen.
Schon vor Jahren wurde deshalb das Konzept befristeter Therapieversuche entwickelt. Es soll die Kluft zwischen der begrenzten Vorhersagekraft klinischer Parameter bei der Abschätzung der Prognose von Patienten auf der Intensivstation und den Belastungen und der hohen Mortalität der Betroffenen verkleinern. Befristete Therapieversuche, international „time-limited trials“ genannt, sind Vereinbarungen zwischen Ärzten und Patienten beziehungsweise deren Vertretern, dass bei einer sehr unsicheren Prognose eine Therapie nur für einen begrenzten Zeitraum durchgeführt werden sollte. Rußwurm hat die wissenschaftliche Literatur durchforstet. Die Therapie sollte je nach zugrunde liegender Krankheit und dem Alter des Patienten etwa für fünf bis sieben Tage durchgeführt werden. Dies ist allerdings, wie der Intensivmediziner Rußwurm betont, nur eine Meinung von Experten. Es handelt sich nicht um empirisch in Studien belegte Intervalle. Stellt sich innerhalb dieser knappen Woche keine Besserung ein, sollen die Patienten palliativmedizinisch behandelt werden.
Wird eine solche befristete Therapie angegangen, ist es besonders wichtig, mit Betroffenen oder deren Vertretern offen über die Prognose zu sprechen: Es sollte ein sinnvolles Zeitintervall bis zur nächsten Überprüfung des Verlaufs festgelegt werden. Zudem sollte man Parameter definieren, die für die Entscheidung herangezogen werden.
Wie wirken sich befristete Therapieversuche auf die Sterblichkeit auf den Intensivstationen aus? Das wurde in einer prospektiven Studie untersucht. Das Ergebnis: Durch die Einführung der Befristung änderte sich die Sterblichkeit nicht. Daraus schließen die Ärzte, dass es nach zeitlich begrenzten Therapieversuchen gelungen ist, Patienten, die von einer Fortführung der Intensivtherapie nicht mehr profitieren, korrekt zu identifizieren. Was sich aber änderte: Die mittlere Behandlungsdauer im Intensivbereich verkürzte sich. Offenbar wurden nutzlose Therapien unterlassen. Mittlerweile werden befristete Therapieversuche in der Intensivmedizin von Experten und Leitlinienkommissionen empfohlen – denn es gilt, eine belastende Übertherapie zu vermeiden und bei Patienten mit guter Prognose die Gesundheit wiederherzustellen.
The Economist, 15 mai
Cash cows : Brazilian supercows are taking over the world
What a bovine beauty pageant says about the future of the world’s beef supply
Full text :
The master of ceremonies at ExpoZebu, a cow gala in the state of Minas Gerais in south-east Brazil, could see the dilemma. One animal had “elliptical eyes” and an “excellent mammary apparatus”. The other had a delicate neck and a curvaceous rump. The judges faced “a difficult decision”. When he finally announced the winner of the contest (they plumped for the rump), cowhands shed tears of joy and the crowd erupted with a riotous “yeehaw”.
ExpoZebu is the world’s largest fair of zebu, an Indian strain of cattle whose distinguishing features are a humped back and sagging dewlaps. Brought to Brazil in the 19th century, it proved more resistant to heat and parasites than European breeds. Today zebus make up 80% of Brazil’s 239m-strong herd of cattle. Their proliferation has helped to transform Brazil from a country where hunger was common to the world’s largest net exporter of food.
Brazil’s agricultural revolution began in the 1970s, when a series of military governments poured money into rural credit and created Embrapa, the state-owned agricultural-research firm. Its scientists developed crops well adapted to tropical weather, in particular a tall, drought-resistant grass from Africa called brachiaria. This opened the country’s vast interior up to farming and cattle-ranching (at the cost of massive deforestation). Breeding programmes then began beefing the zebus up. The average weight of a slaughtered cow in Brazil has gone up by 16% since 1997.
In a country of tropical supercows, crowning bovine beauty queens is a big deal. Buyers flock to ExpoZebu from as far afield as Angola and India to see the finest creatures. They then bid in auctions to buy elite genes from champion cows and bulls. The wealthiest ranchers compete for shares in the cows themselves. This year’s fair attracted 400,000 visitors. Its auctions raised $35m. The ultimate prize is a cow like Viatina-19, a zebu who fetched $4m in 2023 to become the most expensive ruminant ever sold at auction. She weighs 1,100kg (2,400 pounds), more than twice the average of less distinguished counterparts. In an auction in November her crown was stolen by Carina, another Brazilian cow. Each animal has three owners, each with the right to harvest their eggs for four months of the year and sell them. The owners have produced clones to insure their genes.
Famous country singers and powerful politicians roam ExpoZebu, but the cows are the stars (with names like “Genghis Khan” and “Lady Gaga”). Champions seem aware of their celebrity. When photographed, Viatina appears to straighten her legs, lift her head and peer thoughtfully into the sunset. Picture taken, she returns to munching her feed. Lorrany Martins, a vet whose family co-owns Viatina, says the cow is given daily baths with a clarifying shampoo to keep her hair gleaming white. Her horns are moisturised with sunflower oil and she receives regular pedicures. She is watched over by surveillance cameras and travels in her own lorry while her brethren cram into pickup trucks.
The improvements that Viatina embodies have allowed Brazil to account for almost a quarter of the world’s beef exports. That share is set to expand. The World Organisation for Animal Health, based in Paris, is expected soon to declare Brazil free of foot-and-mouth disease. The move “will totally change Brazil’s image”, says Luiz Josakhian of the Brazilian Association of Zebu Breeders. Protectionist countries may find it harder to refuse cheap Brazilian beef imports on sanitary grounds. Indeed, exports to the United States are soaring despite Donald Trump’s tariffs.
Beside the road out of Uberaba, an advertisement featuring muscular cows boldly declares Brazil’s mission: “Better cows for a better world.” ■
https://www.economist.com/the-americas/2025/05/14/brazilian-supercows-are-taking-over-the-world
Neue Zürcher Zeitung, 14 mai
Die wichtigste Idee der Biologie: Wie ein Konkurrent Darwin dazu brachte, seine Evolutionstheorie zu veröffentlichen
Charles Darwin zögerte, seine Gedanken über die Entstehung der Arten zu publizieren. Er hielt sie für zu brisant. Der erste Teil unserer Serie zu den grössten Erkenntnissen der Wissenschaft erzählt, wie die Welt trotzdem vom Prinzip der natürlichen Selektion erfuhr.
Full text :
An einem Morgen im Juni 1858 traf in Charles Darwins Landhaus ausserhalb von London ein sorgsam verpacktes dünnes Paket ein. Es kam von Ternate, einer kleinen Vulkaninsel im Pazifik westlich von Neuguinea. Darwin erkannte sogleich die Handschrift seines Landsmanns Alfred Russel Wallace. Dieser verdiente seinen Lebensunterhalt, indem er am anderen Ende der Welt seltene Tiere sammelte und als Präparate nach England schickte.
Darwin hatte ihn um die Häute asiatischer Hühnervögel gebeten. Doch im Paket fand er nichts dergleichen. Vielmehr enthielt es ein Schriftstück, das Darwins Lebenswerk zu zerschmettern drohte: In einem kurzen Aufsatz stellte Wallace seine Auffassung zur Evolution dar. Und die war mit Darwins noch unveröffentlichter Theorie der natürlichen Selektion nahezu identisch.
«Eine verblüffendere Duplizität der Ereignisse habe ich noch nie erlebt. Hätte Wallace das Manuskript meines Entwurfs in der Hand gehabt, er hätte keine treffendere Kurzfassung davon anfertigen können», schrieb der erschütterte Darwin noch am selben Tag einem Freund. Er fürchtete, den Anspruch auf seine Theorie zu verlieren, mit deren Veröffentlichung er seit zwanzig Jahren zögerte.
Darwin und Wallace hatten unabhängig voneinander den vielleicht wichtigsten Prozess der Biologie entdeckt. Beide Forscher hatten auf jahrelangen Weltreisen einen riesigen Erfahrungsschatz in der Natur gesammelt. Beide hatten vom Geologen Charles Lyell gelernt, dass Veränderungen in der Erdgeschichte äusserst langsam verlaufen. Und die entscheidende Inspiration fanden beide in einem ökonomischen Essay über die Bevölkerungsentwicklung der Menschheit. Doch nur einer der beiden sollte zu Weltruhm gelangen.
So funktioniert das Prinzip der natürlichen Selektion
In jeder Population unterscheiden sich Tiere geringfügig, etwa in ihrer Anatomie oder ihrer Färbung. So variiert auch die Form der Schnäbel von Finken.
Fliegt eine Gruppe von Finken vom Festland auf eine trockene Insel, auf der die einzigen essbaren Samen eine holzige Schale haben, können nur die Vögel mit den grössten Schnäbeln die Schalen öffnen.
Allein die Finken mit den grössten Schnäbeln überleben den Kampf ums Dasein. Nur sie finden genug Nahrung, um zu überleben und sich fortzupflanzen.
Die überlebenden Finken vererben ihre Eigenschaften weiter: Auch ihre Nachkommen haben grosse Schnäbel. Mit der Zeit entstehen Populationen, die immer besser an ihre Umwelt angepasst sind. Weicht eine Population genug von den nächsten Verwandten ab, ist eine neue Art entstanden.
Alles begann damit, dass sich der junge Charles Darwin – noch ganz gottesgläubig – an der Cambridge University einschrieb, um sich zum Pfarrer auszubilden. Während des Studiums entdeckte er die Naturtheologie, deren Ziel es war, Gottes Wirken in der Natur zu erkennen. Darwin fiel seinen Professoren als lernbegieriger Student auf. So erhielt er nach dem Abschluss ein Angebot, das seinem Leben die entscheidende Richtung wies: Als Naturforscher sollte er auf dem britischen Vermessungsschiff «Beagle» eine fünfjährige Weltreise unternehmen. Im Dezember 1831 stach er, gerade 22 Jahre alt, in See.
Während fünf Jahren umsegelte die «Beagle» die Erde und steuerte unter anderem die Kapverdischen Inseln, die Falkland-Inseln, verschiedene Küstenorte in Südamerika, die Galapagos-Inseln, Neuseeland, Australien und das Kap der Guten Hoffnung an. Wann immer möglich unternahm Darwin Exkursionen ins Landesinnere.
Ein Erdbeben in Chile
Zu seiner Reiselektüre gehörte das Werk Principles of Geology von Charles Lyell. Darin war beschrieben, dass die Gebirge nicht wie bisher vermutet durch längst vergangene Katastrophen biblischen Ausmasses entstanden sind, sondern in einem langsamen, graduellen Prozess, der noch immer im Gange ist. In Chile erlebte Darwin ein Erdbeben, das die Küste um einige Meter anhob. Danach war er überzeugt, dass Lyell recht hatte: Die Erde veränderte sich fortwährend.
Doch was bedeutete das für die belebte Welt? Darwin begann sich zu fragen, ob sich auch Tiere und Pflanzen über die Zeit verändern. Einiges sprach dafür: In Südamerika fand er Fossilien von ausgestorbenen Riesenfaultieren, die den noch lebenden Faultieren ähnelten.
Auf den Galapagos-Inseln war Darwin fasziniert von den Riesenschildkröten, deren Panzerform von Insel zu Insel leicht variierte.
Zurück in England übergab er die auf der Reise gesammelten Pflanzen, Fossilien und Tierpräparate an Experten, um sie richtig klassifizieren zu lassen. Darunter waren Finken, die Darwin auf den Galapagos-Inseln gesammelt hatte. Der Ornithologe John Gould stellte fest, dass es sich um verschiedene Arten handelte, die jeweils von einer anderen Insel stammten. Das brachte Darwin erneut ins Grübeln: Konnte es sein, dass die Finken einen gemeinsamen Vorfahren vom Festland besassen und sich im Verlauf der Zeit in der Inselwelt der Galapagos in verschiedene Arten aufgespalten hatten?
Die Idee der Evolution geisterte damals bereits herum. Die bekanntesten Theorien stammten vom französischen Naturforscher Jean-Baptiste de Lamarck und vom Mediziner Erasmus Darwin, Charles’ Grossvater. Beide waren der Ansicht, dass sich Tiere und Pflanzen in linearer Weise zu stets höherer Komplexität entwickelten. Doch ihre Vermutungen fanden kaum Anklang. In der Gesellschaft wie auch in Wissenschaftskreisen herrschte der Glaube vor, dass ein göttlicher Schöpfer alle Lebewesen fein säuberlich geschaffen und jeder Art eine fixe, unveränderliche Form gegeben hatte.
Charles las die Werke Lamarcks und seines Grossvaters im Frühling 1837 und begann seine eigenen Einfälle zur Evolution in privaten Notizbüchern festzuhalten. Bald zeichnete er einen weit verzweigten Stammbaum, an dessen Ende verschiedene Spezies standen. Darwin war zur Überzeugung gelangt, dass sich die Arten in verschiedene Richtungen entwickeln, und zwar in kleinen Schritten – wie die Gebirge bei Lyell.
Darwin rang mit sich, doch schliesslich war für ihn klar: Für die Entstehung von Tieren und Pflanzen braucht es keine göttliche Kraft. «O du Materialist!», notierte er. Was seiner Theorie aber noch fehlte, war der Mechanismus, der diesen Wandel vorantrieb.
Ein Jahr später las er den Essay on the Principle of Population des englischen Ökonomen Thomas Malthus. Laut dessen These zeigt die Menschheit eine so starke Wachstumstendenz, dass die Nahrungsversorgung niemals mit ihr Schritt halten kann. Trotzdem gibt es ein ungefähres Gleichgewicht, weil Hungersnöte oder Krankheiten die Bevölkerungszahl in Grenzen halten.
In der freien Wildbahn, so wurde Darwin bewusst, trifft man auf ganz ähnliche Umstände: Tiere setzen mehr Nachkommen in die Welt, als überleben, wodurch sich lediglich die Bestangepassten vermehren und ihre Eigenschaften an eine nächste Generation weitergeben können. Darwin hatte das Prinzip der natürlichen Selektion erkannt.
Darwins geheime Gedanken
Zunächst behielt er seine Ansichten für sich. Ihm war bewusst, welch revolutionäres Potenzial sie bargen. Denn die Annahme, dass sich alles Leben beständig entwickelt und alle Arten gemeinsame Vorfahren haben, stellte auch die Sonderstellung des Menschen infrage: Aus Sicht der Evolutionstheorie war er ein Tier wie jedes andere.
Darwin fürchtete, die viktorianische Gesellschaft in Aufruhr zu versetzen und von ihr lächerlich gemacht zu werden. In den folgenden Jahren sammelte er weitere Belege für seine Theorie und fasste sie 1844 in einer ersten Abhandlung zusammen, die er sicher verwahrte. Ein Buch wollte er später veröffentlichen.
Allmählich weihte er einige Naturforscher ein, darunter Charles Lyell, mit dem ihn inzwischen eine enge Freundschaft verband. Dieser ermunterte Darwin, mit seiner Theorie an die Öffentlichkeit zu treten, damit ihm niemand zuvorkam. Inzwischen fragten sich nämlich auch andere, ob sich Arten verändern.
Alfred Russel Wallace veröffentlichte 1855 einen Artikel zum Thema, eine ausgefeilte Theorie fehlte ihm aber noch. Darwin erkannte Wallace nicht als Konkurrenten, sondern hielt ihn für einen ahnungslosen Schöpfungsgläubigen. «Wir haben offenbar ähnliche Überlegungen angestellt, ich gehe jedoch viel weiter als Sie», schrieb er ihm.
Wallace erforschte zu dieser Zeit die Inseln des Malaiischen Archipels. Er beschrieb neue Arten und schickte Tausende Tierpräparate nach Europa. Inspiriert von den Schriften Lyells, brütete er selbst an einem Mechanismus des Artenwandels. Als ihn im Frühjahr 1858 eine Malariainfektion ins Bett zwang, erinnerte er sich im Fieberwahn an Malthus’ Essay zum Bevölkerungswachstum, das er Jahre zuvor gelesen hatte.
«Plötzlich durchfuhr es mich wie ein Blitz», erinnerte er sich später an diesen Moment: «In jeder Generation würde der Unterlegene wegsterben und der Überlegene erhalten bleiben – das bedeutet, der am besten Angepasste würde überleben.» Wallace hatte seine eigenen Worte gefunden, um den Prozess der natürlichen Selektion zu beschreiben.
Ein folgenschwerer Brief
Er brachte seine Gedanken eiligst zu Papier und schickte sie ausgerechnet an Darwin, mit dem er seit einigen Jahren in Briefkontakt stand. Darwin war nach Erhalt des Schreibens wie gelähmt. Um sich die Urheberschaft der Theorie zu sichern, stimmte er dem Plan von Lyell zu, Wallaceʼ Aufsatz gemeinsam mit einer alten Niederschrift seiner eigenen Theorie zu veröffentlichen. Wallace wurde darüber nicht informiert.
Darwin stellte auf schnellstem Weg das seit langem geplante Artenbuch fertig: On the Origin of Species erschien im November 1859. Es war vollgepackt mit all den wissenschaftlichen Beweisen, die Darwin über die Jahre zusammengetragen hatte. Damit erreichte das Konzept der natürlichen Selektion die breite Öffentlichkeit und war unabdingbar mit Darwins Namen verbunden.
Als Wallace 1862 nach England zurückkehrte, ertrug er die Situation mit Demut. Er übte nie Kritik am heiklen Veröffentlichungsverfahren und behielt höchste Achtung vor Darwin. Sein eigenes Werk über die Evolution nannte der bescheidene Wallace schlicht Darwinism.
https://www.nzz.ch/geschichte/evolutionstheorie-das-duell-zwischen-darwin-und-wallace-ld.1874958
Frankfurter Allgemeine Zeitung, 13 mai
Technologische Souveränität: Europa ist abhängig von Amerika
Petabytes an europäischen Daten liegen auf den Servern von Amazon, Microsoft und Google. Unternehmen und Verwaltungen sind auf Technik aus den USA angewiesen. Das alarmiert Politiker. Wird Europa zur „Datenkolonie“?
Full text :
Es waren einfachere Zeiten im Jahr 2019. Doch schon damals wollten der deutsche Wirtschaftsminister Peter Altmaier und sein französischer Kollege Bruno Le Maire erreichen, dass europäische Unternehmen nicht mehr so sehr auf Technik aus Amerika angewiesen sind. Europa sollte eine eigene Cloud bekommen, in der Unternehmen ihre Daten speichern könnten. Damals sagte Altmaier, Deutschland und Europa müssten einen Anspruch auf technologische Souveränität haben.
Inzwischen sind sechs Jahre vergangen. Eine Pandemie kam und ging, Russland überfiel die Ukraine, in den USA kam zum zweiten Mal Donald Trump an die Macht – und die amerikanischen Cloud-Dienste haben ihre Dominanz in Europa sogar noch weiter ausgebaut. Vor ein paar Jahren betrug der Marktanteil europäischer Anbieter 27 Prozent, nach den jüngsten Schätzungen hat er sich in der Zwischenzeit halbiert.
Wird Europa zur „Datenkolonie“?
Das alarmiert Politiker. Der Unions-Europaabgeordnete Axel Voss warnt: „Das Zeitfenster schließt sich.“ Er drängt: „Vor sechs Jahren hätte ich gesagt: Wir haben eigentlich nur noch fünf Jahre. Jetzt müssen wir den letzten Versuch starten, sonst werden wir nur zu Anwendern von Produkten anderer. Dann sind wir eine Datenkolonie und brutalst abhängig.“
So eine Situation wäre ein Problem. Technologisch eigenständig zu sein, das hat in den vergangenen Jahren ja nicht an Bedeutung verloren. Stattdessen ist technische Souveränität heute viel wichtiger als damals. Seit in Amerika Donald Trump wieder Präsident ist, sorgen sich viele Europäer um die technischen Grundlagen von Unternehmen, Staat und allgemeiner Sicherheit. Zu unsicher ist die Frage, was aus dem Verhältnis zu den USA wird.
In den Zehnerjahren war technologische Souveränität vor allem attraktiv, damit amerikanische Unternehmen nicht gegen europäische Gesetze verstoßen, damit sie nicht Europäer ausspionieren – und auch damit Europa selbst etwas vom Wohlstand abbekommt. Inzwischen ist die Lage kritischer: Inzwischen muss man damit rechnen, dass die amerikanische Regierung die EU in vielen Belangen als Gegner sieht. Vielleicht macht sie es sich eines Tages zunutze, wenn Europa von ihren Technologiekonzernen abhängig ist. Stand heute würde Europa es den USA leicht machen. „Donald Trump könnte den deutschen Unternehmen den Stecker ziehen“, bemängelt die SPD-Politikerin Verena Hubertz, die einst selbst ein Start-up gründete, in der vergangenen Legislaturperiode stellvertretende Fraktionschefin war und das Wirtschaftskapitel im Koalitionsvertrag mitverhandelt hat.
Schleswig-Holstein setzt auf kostenlose Software
Petabytes an Daten liegen auf den Servern von Amazon, Microsoft und Google. Ungezählte Websites deutscher Unternehmen werden von Amazon ausgeliefert. Millionen Dokumente werden mit Software von Microsoft verfasst. Unternehmen kommunizieren mit Videokonferenzen von Teams oder in Chaträumen von Slack, bei Kundenanfragen hilft oft die Künstliche Intelligenz von Open AI oder Anthropic. Gegen Cyberangriffe verteidigen sich Unternehmen mithilfe von Cisco oder Palo Alto Networks, und die Polizei lässt sich in einigen Bundesländern schon lange von Palantir helfen.
90 Prozent der deutschen Firmen, die digitale Dienste aus dem Ausland beziehen, halten sich zumindest für „eher abhängig“, so hat es der IT-Verband Bitkom gerade erst erfragt – und 90 Prozent dieser Unternehmen glauben, dass sie ohne diese Dienste höchstens zwei Jahre überleben könnten. Das pessimistische Fazit der Umfrage: „Sie zeigt eine wachsende Abhängigkeit der deutschen Wirtschaft vom Import ausländischer digitaler Technologien und Dienstleistungen, obwohl diese die Herausforderungen erkannt und Schutzmaßnahmen implementiert hat.“
Das Land Schleswig-Holstein probiert gerade, sich unabhängiger zu machen. So wie einige Gemeinden oder die Stadt München will das Land wenigstens auf das Office-Paket von Microsoft verzichten und es durch kostenlose Software ersetzen. Libre-Office heißt der geplante Ersatz, er wird von ungezählten Freiwilligen aus aller Welt entwickelt, organisiert von einer Stiftung in Berlin. Selbst dieses Projekt war schwieriger zu verwirklichen, als es anfangs aussah. Dabei steht Office-Software längst nicht mehr an der Spitze des technischen Fortschritts.
Schwierige Suche nach Alternativen
Trotzdem ließe sich da etwas holen, findet SPD-Politikerin Hubertz. „Im Bundeshaushalt haben wir 20 Milliarden Euro für Digitales, und ein großer Anteil entfällt auf Lizenzen. Wir geben richtig Geld aus, um die ganzen Dienste aus den USA zu nutzen. Das Geld sollten wir lieber für europäische Unternehmen ausgeben und für die Entwicklung von Software, die jeder kostenlos nutzen kann.“
Microsoft jedenfalls geht schon in die Verteidigung und hat am Mittwoch „digitale Zusicherungen für Europa“ veröffentlicht: ein Fünf-Punkte-Programm, das der amerikanischen Regierung den Zugriff auf Microsofts europäische Rechenzentren erschwert und in dem es heißt: „Wir sind uns darüber im Klaren, dass Microsoft sich weiterhin darauf konzentrieren muss, seine ‚Betriebslizenz‘ in jedem Land Europas zu verdienen und aufrechtzuerhalten.“
Doch Alternativen zu finden, ist gar nicht so leicht. Schon 2021 fragte das Zentrum für Europäische Wirtschaftsforschung deutsche Unternehmen nach den Gründen dafür, dass sie keine anderen Unternehmen beauftragten. Hohe Preise spielten damals nur eine kleinere Rolle. Mehr als 60 Prozent der Unternehmen sagten aber, ihre aktuellen Anbieter seien den anderen technisch überlegen. Und mehr als 70 Prozent der Unternehmen benutzen sogar Anwendungen, für die es gar keine Alternative aus der EU gibt.
„Beschwerlich und teuer“
Wahr ist: Wer eine gute Gefahrenabwehr braucht oder sehr schlaue Künstliche Intelligenz verwenden möchte, der hat in Europa nicht mehr so viele Anlaufstellen. Das hat möglicherweise System. In einem Interview mit der F.A.S. hat die amerikanische Ökonomin Fiona Scott Morton im vergangenen Herbst aufgelistet, warum sie Europa damals gerade nicht den Aufbau eigener Digitalplattformen empfehlen wollte. „Es ist beschwerlich und teuer“, sagte sie damals. Und: „Die meisten Digitalplattformen hatten Ärger im Umgang mit Frauen, Rassismus und Mobbing. Manche bezahlen Frauen das Einfrieren der Eizellen, viele Leute halten Kinder und Karriere offenbar nicht für vereinbar. Wenn Aktienkurse fallen, werden viele Leute entlassen, beinahe sofort. Das passt nicht zur EU.“
Viel wird jedenfalls davon abhängen, was Europa bereit ist, für seine technische Souveränität zu tun. Unionspolitiker Voss sagt: „Europa muss nicht nur versuchen, digital souverän zu sein. Wir müssen versuchen, digital zu überleben. Dazu brauchen wir in den Mitgliedstaaten erst mal ein Bewusstsein und dann den unbedingten Willen.“
Digitale Souveränität bedeutet nicht für jeden, dass Europa digital komplett autark werden muss. Das entspricht nicht dem Freihandelsgedanken, den Europa immer noch gern hochhält – und realistisch wäre es wahrscheinlich sowieso nicht. Ein paar digitale Branchen, in denen man vorne ist und dank derer Europas Politiker dann erhobenen Hauptes in Verhandlungen gehen können: Damit wäre schon viel gewonnen. Richtig stark ist Europa im Moment nur darin, Maschinen für die Chipherstellung zu produzieren. In dieser Disziplin ist das niederländische Unternehmen ASML praktisch konkurrenzlos. Chancen könnte Europa außerdem in der Entwicklung von Quantencomputern haben. Auch die Robotik ist ein aussichtsreicher Kandidat, in der die Künstliche Intelligenz sich längst nicht so schnell entwickelt wie auf anderen Feldern – und in der Europa mit seiner Industrie schon eine gewisse Stärke mitbringt.
Größer denken!
Marietje Schaake reicht das nicht aus. Die Niederländerin vertrat bis 2019 im Europaparlament die linksliberale D 66 und lehrt heute an der Stanford-Universität im Silicon Valley. „Man kann Technologie nicht mehr als eine einzelne Branche betrachten“, sagt sie. „Es ist eher eine Grundlagenschicht für jeden Teil unserer Wirtschaft, unserer Regierungen und unseres Lebens als Menschen.“ Sie will nicht bei einzelnen Branchen stehen bleiben. „Wir können diese Zeit nutzen und größer denken.“ Jetzt könnten Europäer manche Verträge mit amerikanischen Unternehmen auflösen, die sie nur aus Sicherheitsgründen kündigen dürften. „Es ist wichtig, dass die EU die aktuelle Dynamik versteht und vielleicht einmal im Leben wirklich auf europäische Alternativen setzt.“
Dazu müsse Europa erst mal einen Stresstest machen – bisher wisse noch niemand ganz genau, in welchen Techniken Europa wie abhängig sei. „Wir brauchen ein besseres Gefühl dafür, wo wir stehen und wohin wir gehen wollen.“
All das wird jedenfalls nur gelingen, wenn Europa es ernst meint: nicht nur die Bundespolitik, sondern auch die EU-Kommission und die Europäer selbst. Wenn Europa wieder an die Spitze kommen will, dann sind sie es, die an all diesen Technologien arbeiten müssen. Die nicht nur Technik erforschen, sondern sich auch die Arbeit machen und Unternehmen daraus gründen – oder wenigstens Geld in diese Unternehmen investieren müssen.
Europas Datenarmut
Der Unions-Politiker Voss plädiert dafür, dass die EU ihre Initiativen eher zusammen mit anderen Ländern wie Kanada und Australien vorantreibt. Die Datenschutz-Grundverordnung müsse gelockert werden, damit Europas Unternehmen mehr aus den Daten ihres Kontinents machen können. „Der Datenreichtum von USA und China ist derart immens, dass wir hier mit unserer Datenarmut so gut wie gar nicht vorankommen können. Sämtliche neuen Entwicklungen basieren nun mal auf vielen Daten. Und wenn wir die nicht zur Verfügung stellen, dann werden wir nie vernünftig mithalten können.“
Voss zweifelt am Zuschnitt des neuen Digitalministeriums in Berlin. „Jetzt habe ich gehört, die Technologie soll ins Raumfahrtministerium zu Frau Bär“, sagt er. „Wie wollen Sie denn da mit KI vorankommen? Wenn Sie das jetzt wieder trennen, dann müssen sich wieder alle abstimmen, und dann dauert es Wochen, bis man zu Lösungen kommt“, sagt er. „Wir sind anscheinend kaum in der Lage, selbst die Idee eines Digitalministeriums vernünftig umzusetzen. Das macht mich supernervös, um es nett auszudrücken.“ Etwas müsse sich ändern. „Wenn wir so weiterdenken wie bisher, dann wird das nicht funktionieren“, sagt Voss. „Wir haben jetzt die letzte Möglichkeit, abzubiegen.“
The Wall Street Journal, 12 mai
The Giants of Silicon Valley Are Having a Midlife Crisis Over AI
Apple, Facebook, Google and Tesla are all facing the ‘innovator’s dilemma’ at the same time
Full text:
Middle age hits hard—even for the Kings of Silicon Valley.
One minute you’re upending established industries as the young disrupter. The next, you’re staring into the abyss, eating glass—as Elon Musk likes to say—watching the disruption at your door.
Most, if not all, of the Magnificent Seven are in that position—weirdly trying at the same time to figure out the threat of artificial intelligence to their kingdoms.
That dynamic has been on display the past few weeks: Alphabet’s GOOGL -0.99%decrease; red down pointing triangle stock dropped more than 7% Wednesday after a senior Apple AAPL 0.53%increase; green up pointing triangle executive disclosed that Google search-traffic on its devices using Safari fell for the first time in 20 years. (Google later clarified it continues to see overall search growth, even from Apple devices.)
For his part, Apple Chief Executive Tim Cook is trying to buy time for his company, pushing investors during his latest earnings call to be patient with the iPhone maker’s delays around AI features.
Then there is Facebook META -0.92%decrease; red down pointing triangle co-founder Mark Zuckerberg’s attempt to paint a bright future for his ad-dollar juggernaut as something of an AI-buddy for the lonely.
Even Musk seems to be sweating things as he returns from his DOGE sojourn to Tesla, seeking to counter a slide in the electric carmaker’s stock price with promises of deploying driverless cars. “We’re not on edge of death—not even close,” Musk told analysts recently.
His protests sounded like that “Monty Python and the Holy Grail” character about to be thrown on a pile of corpses: “I’m not dead! … I feel happy!”
To be fair, none of these giants are dead—yet. And they have lots of reasons to feel happy—they are wildly profitable pillars of corporate America and together represent around $7 trillion of market value.
Yet the crossroads they all stand at, collectively, and how they react, individually, look like ready-made case studies for a 21st century update of the classic business school book “The Innovator’s Dilemma.”
Author Clayton Christensen tried to explain how new products or services displace existing players by creating new markets. It was a book that made the term “disruption” wildly popular in boardrooms—even if used in a way the late Christensen didn’t always intend.
The gist of his theory was that successful companies doing everything seemingly right can fail when smaller companies—not constrained by what has been—rise up, often with new technologies or processes. Think Netflix targeting through-the-mail subscribers versus Blockbuster’s in-store model.
Many turned to this book to explain the dot-com boom that helped usher in the current crop of Silicon Valley heroes. There are rough parallels today.
Just as the internet was a new technology that could do lots of things, AI holds many promises. But in these early innings, it isn’t clear how AI will be deployed—or by whom or when.
Pets.com, for example, wasn’t the winner many thought. That’s the rub. Even Christensen had a hard time predicting disrupters, like Apple’s iPhone.
When the gadget came out in 2007, the Harvard professor didn’t see it as a threat to phones. In fact, the device ushered in a new era of mobile computing and the App Economy.
That app marketplace, however, might look a lot different if companies are reaching customers in different ways. AI agents, for example, could upend the App Store way of the world.
So far, Apple’s answer to AI has appeared to be heavy on the hype. “We just need more time to complete the work so they meet our high-quality bar,” Cook told investors during Apple’s recent earnings call about the delay.
At least Google has an AI assistant, Gemini, though it’s unclear if that chatbot will be enough to save its real business—advertising, which accounted for most of its revenue last year. That’s a lot of ads sold off users clicking on links in a world where people increasingly ask a chatbot their questions, like: What is “The Innovator’s Dilemma” about?
Still, it might be surprising that no dominant platform seems to have a winning formula just yet.
That gives hope to the likes of Sarah Guo, a young venture capitalist in Silicon Valley. She is trying to make her mark by investing in the next hot AI startup that might dethrone the big dogs.
“There are many claims you can make strategically about why a company shouldn’t exist: because Microsoft should build it or Apple should build or Google should build it,” she told me during the recent episode of the “Bold Names” podcast. But, often for these established companies, she said, it can be hard “being creative with a risky new product.”
Just ask Google. The early days of Gemini were marred by apologies and promises to do better after its chat responses were seen as biased and—according to CEO Sundar Pichai—unacceptable. The rollout occurred amid concerns that startup OpenAI was ahead in the space, even though Google had been working on AI for a long while.
“No AI is perfect, especially at this emerging stage of the industry’s development, but we know the bar is high for us and we will keep at it for however long it takes,” Pichai wrote at the time.
Sometimes big breakthrough innovations, which we want to call disruptive, in fact help sustain existing businesses.
Microsoft—with a market value that has again surpassed Apple—is looking pretty savvy having embraced AI for its workplace products. Nvidia, too, has been a big beneficiary of AI companies gobbling up its high-price chips needed for developing their models.
Yet the emergence of China’s DeepSeek and other new AI models that supposedly use far less pricey computing power raise new questions. It remains unclear where the value of the new technology will land.
It’s all such a dilemma. At least, nobody is dead—yet.
Neue Zürcher Zeitung, 10 mai
Elektroden im Gehirn und Kopfhörer, die Gedanken lesen: Die Neurotechnologie kommt. Wie schützen wir uns vor Missbrauch?
Firmen arbeiten an kommerziellen Produkten, die unsere Gehirnaktivität im Alltag auswerten sollen. Experten fürchten den Diebstahl der privatesten aller Daten – und fordern «Neurorechte».
Full text:
«Rot. Gelb. Halten. Rot. Blau . . .» Farben flackern über den Bildschirm vor Ian Burkharts Augen. Der junge Mann verharrt still, seinen Blick auf den Bildschirm gerichtet. Mit der rechten Hand drückt er die Knöpfe auf dem Hals einer Plastikgitarre. Sie sind farbcodiert in Rot, Gelb, Grün, Orange und Blau – passend zu den bunten Lichtern, die über den Bildschirm vor ihm flimmern. Aus dem Lautsprecher der Playstation erklingen etwas scheppernd die ersten Gitarrenakkorde des Metallica-Songs «One».
Diese Szene, festgehalten in einem Video von Forschern der Ohio State University, mag keine musikalische Höchstleistung zeigen. Doch dass der Amerikaner Ian Burkhart mit seiner Hand überhaupt wieder Musik machen kann, ist nicht selbstverständlich. Denn seit einem Tauchunfall im Jahr 2010 ist er querschnittgelähmt.
Burkhart wurde 2016 als einer der ersten Patienten berühmt, die dank Elektroden im Gehirn die Finger wieder bewegen können. Die Elektroden messen die Aktivität seiner motorischen Hirnareale und senden die Daten über ein Kabel, das sich aus Burkharts Hinterkopf schlängelt, an einen Computer. Dieser übersetzt sie in elektrische Bewegungsinstruktionen, die ein weiteres Kabel zu einer Manschette an seinem rechten Unterarm leitet. Seine Handmuskeln bewegen sich durch die Impulse wie bei einem gesunden Menschen. Elektrische Kabel übernehmen die Funktion, die ursprünglich Burkharts Rückenmark hatte.
Neurotechnologie erlaubt den Blick ins Hirn
Hirn-Computer-Schnittstellen nennt man Systeme wie jenes, das Ian Burkharts Hand die Funktion zurückgibt. Geforscht wird daran schon seit Jahrzehnten, die Technologie wird immer raffinierter. Mittlerweile können Forscher aus Gehirndaten sogar Rückschlüsse auf Emotionen oder Absichten von Versuchspersonen ziehen.
Doch nicht nur Wissenschafter könnten zukünftig Einblick ins Gehirn erhalten. Immer mehr Unternehmen wollen Neurotechnologie auch im Alltag von gesunden Menschen verankern. So arbeitet auch Elon Musks Firma Neuralink seit 2016 an sogenannten Neuroprothesen. Die sollen zunächst Querschnittgelähmten helfen. Langfristig träumt Musk jedoch davon, «telepathische» Verbindungen zu Geräten, künstlicher Intelligenz oder Mitmenschen zu ermöglichen – auch für Gesunde.
Können Hirn-Computer-Schnittstellen Gedanken lesen?
Die Vorstellung, dass Technologiefirmen auf diese Weise Zugriff auf das menschliche Gehirn und die potenziell heiklen Informationen darin erhalten könnten, bereitet vielen Experten Sorge. Denn dies könnte grundlegende Menschenrechte wie jenes auf Privatsphäre bedrohen. Als für Wissenschaftsethik verantwortliche Unterorganisation der Vereinten Nationen arbeitet deshalb die Unesco seit 2021 an einem Entwurf für sogenannte Neurorechte. Sie sollen einen ethischen Rahmen für Regelungen bilden, um unsere Gehirne vor Datendiebstahl zu schützen. Aber wie realistisch ist dieses Szenario?
Bis jetzt sind Gehirn-Computer-Schnittstellen wie jene von Ian Burkhart noch klobige Ungetüme aus Rechnern, Kabeln und Platinen. Doch es wird emsig daran geforscht, die Systeme kompakter zu gestalten. Wirklich mobil seien zwar auch die neuen Systeme nicht, sagt der Neurologe Simon Jacob vom Klinikum rechts der Isar in München. Man könne sie nun aber beim Patienten im Wohnzimmer aufbauen anstatt im Labor.
Jacob war es, der erstmals in Europa eine Schlaganfall-Patientin mit einem Gehirnimplantat ausstattete. Die Patientin hatte ihre Sprechfähigkeit verloren und lernt, mithilfe der Neurotechnologie und der Kraft ihrer Gedanken wieder zu kommunizieren. Weltweit leben heute knapp 70 Patienten mit solchen Gehirnimplantaten.
Neurotechnologie auf dem Weg zum Konsumprodukt
Als Massenprodukt bleiben solche Implantate sicher noch lange Science-Fiction. Denn den Chip einzusetzen, erfordert eine Operation am offenen Gehirn mit enormen Risiken – der Nutzen müsste also schon erheblich über die gedankengesteuerte Bedienung einer Mikrowelle hinausgehen.
Doch es gibt noch eine nichtinvasive Methode, auf das Gehirn zuzugreifen: über die Kopfhaut. Diesen Weg nutzt schon seit einem Jahrhundert die Elektroenzephalografie (EEG), in deren Hirnstrom-Kurven sich zum Beispiel Auffälligkeiten von Menschen mit Epilepsie nachweisen lassen.
Das Prinzip der EEG macht die Neurotechnologie nun auch als Konsumprodukt interessant. Zahllose Forschungseinrichtungen und Firmen – Schätzungen belaufen sich auf über tausend – entwickeln inzwischen Produkte für Konsumenten. Sie heissen «mindmesh», «neorythm» und «mindwave» und sollen den Schlaf verbessern, die Konzentration steigern oder Depressionen linden. Der Markt wird schon jetzt auf 15 Milliarden Dollar geschätzt.
EEG-Kopfhörer liefern hauptsächlich Rauschen
Doch im Gegensatz zu EEG-Hauben aus Medizin und Hirnforschung, die zum Teil Hunderte von Elektroden besitzen, handelt es sich bei den kommerziellen Angeboten häufig um Kopfhörer-ähnliche Produkte, die der gesunde Nutzer beliebig auf- und absetzen kann.
Doch damit liessen sich Gehirnströme nur sehr ungenau erfassen, sagt der Neurologe Jacob. «Diese Produkte sind letztlich Spielzeuge. Die Gehirnsignale sind so gedämpft, dass es äusserst schwer ist, Informationen aus ihnen herauszuziehen», sagt er. Sie seien weit davon entfernt, unsere Gedanken zu entschlüsseln.
Dennoch ist Jacob sich sicher, dass in Zukunft Durchbrüche im Bereich der Neurotechnologie zu erwarten sind. Leistungsstärkere Algorithmen könnten bisher unzugängliche Informationen aus dem Rauschen der Gehirndaten filtern.
Neurorechte sollen die Information aus unserem Gehirn schützen
Solche Durchbrüche erwartet auch Marcello Ienca: «Das Ziel der Neurotechnologie ist, dass jeder sie im Alltag nutzen kann. Genauso wie wir heute Smartphones und Computer nutzen.» Der Neuroethiker an der EPFL Lausanne sieht seine Aussage dadurch bestätigt, dass sich Tech-Giganten schon auf dem Neurotechnologiemarkt in Position bringen.
So bewarb sich der Technologiegigant Apple 2023 um ein Patent für eine neue Version seiner In-Ear-Kopfhörer. Mit bis zu 40 Elektroden sollen sie die Hirnströme der Träger aufzeichnen, während diese Musik hören. Das könnte Apple Zugriff auf Hirndaten von Millionen Menschen weltweit geben. Bis jetzt gibt es keine Entscheidung zum Patent.
Was Firmen heute wirklich aus diesen Daten lesen könnten, ist unklar. Trotzdem bereitet es Ienca und anderen Fachleuten Sorge, dass Unternehmen womöglich eines Tages dank besseren Algorithmen Zugriff auf heikle Information bekommen könnten.
Gehirndaten geben ein ungefiltertes Bild des Trägers
Diese Sorge treibt auch die Morningside Group um, eine Gruppe von Experten aus Hirnforschung, Computerwissenschaften und von Tech-Firmen wie Google. In einem 2017 im Journal «Nature» veröffentlichten Grundsatzpapier warnen die Experten davor, dass Firmen in Zukunft unsere Interessen, Wünsche und Ängste ausspionieren könnten.
Denn Gehirndaten könnten heikler sein als die Daten, die wir im Internet und in den sozialen Netzwerken hinterlassen. Welche Suchbegriffe wir bei Google eingeben, entscheiden wir bewusst. Doch Hirnströme – so die Sorge der Forscher – könnten ein ungefiltertes Abbild von uns selbst zeigen, das wir niemals willentlich entblössen würden.
«Wo Messungen der Gehirnaktivität als Enthüllung mentaler Inhalte interpretiert würden, gäben sie Information über das Denken selbst frei» schrieben die Forscher der Morningside Group. Was wäre, wenn diese Informationen Technologiefirmen, dem Arbeitgeber oder dem Staat zur Verfügung stünden?
Solche Sorgen werden mittlerweile weltweit ernst genommen. Einige Länder wie Chile, Brasilien oder Frankreich und auch der amerikanische Gliedstaat Kalifornien haben bereits sogenannte Neurorechte in Kraft gesetzt. Sie sollen die Privatsphäre der Gedanken und die Unversehrtheit der mentalen Prozesse schützen.
Unesco arbeitet an einem Entwurf für Neurorechte
Seit 2023 beschäftigt sich ein Gremium aus 24 internationalen Neurotechnologie-Experten im Auftrag der Unesco mit Richtlinien zur globalen Regulierung von Neurotechnologie. Marcello Ienca repräsentiert Westeuropa in diesem Gremium: «Wir brauchen eine Art Genfer Konvention, einen globalen Konsens, wie Neurotechnologie in der Zukunft genutzt und speziell wie sie nicht genutzt werden darf.»
Neurotechnologie entwickle sich rasant und unvorhersehbar, so Ienca. «Es braucht einen dynamischen Ansatz. Zu spezifische Regulierungen würden die Neurorechte gleich wieder obsolet machen.» Ienca bereitet Sorge, dass es künftig für Technologiegiganten möglich werden könnte, verschiedene Datenströme einer Person zu kombinieren, beispielsweise die Standortdaten des Handys und gleichzeitig aufgenommene Kopfhörer-Daten der Gehirnaktivität. So könnten Apple und Co. in der Zukunft wissen, wo wir uns wie gefühlt haben.
Aus diesem Grund schliesst die Unesco-Gesetzesempfehlung die Nutzung von Neurotechnologie zur Überwachung im zivilen, aber auch militärischen Kontext strikt aus. Zurzeit tauschen sich die Unesco-Experten mit den Regierungen aller Uno-Mitgliedstaaten über den Entwurf der Neurorechte aus. Bis Ende Jahr können die Staaten ihr Feedback einbringen, 2026 plant die Unesco dann die Verabschiedung von Neurorechten.
Allzu gross ist die Eile nicht. Zwar entwickelt sich die Neurotechnologie schnell, bis ein iPhone unsere Gedanken liest, dürfte es aber trotzdem noch viele Jahre dauern.
https://www.nzz.ch/wissenschaft/neurotechnologie-wie-schuetzen-wir-uns-vor-missbrauch-ld.1879615
Le Figaro, 9 mai
Les réseaux sociaux sont-ils vraiment responsables de la dégradation de la santé mentale des adolescents ?
DÉCRYPTAGE – La hausse des troubles psychiatriques chez les jeunes est observée en France comme dans de nombreux pays. Et les réseaux sociaux sont pointés du doigt. Pour autant, le consensus scientifique n’existe pas sur leur responsabilité directe.
Full text:
La question hante tous les parents d’adolescents : doivent-ils limiter l’usage de leur smartphone et, surtout, l’accès à leurs réseaux sociaux ? Anxiété, troubles du sommeil, idées suicidaires, isolement, cyberharcèlement… la liste des dangers auxquels les jeunes peuvent être exposés en ligne ne cesse de s’allonger. Parallèlement, les experts ne cessent d’alerter sur une dégradation sans précédent de la santé mentale des adolescents. Une étude de la Fédération hospitalière de France, en mars 2025, montre que les séjours des enfants et des jeunes adultes en service de psychiatrie ont excédé de 32 % les prévisions pour 2024. Une autre recherche, parue dans la revue Jama Network Open en janvier dernier, montre une augmentation des consultations psychiatriques de 15 % chez les 13-17 ans. Une tendance qui s’observe également ailleurs en Europe et outre-Atlantique.
Bas du formulaire
Pour autant, les réseaux sociaux sont-ils les vrais et les seuls coupables de ce mal-être grandissant ? Sur le sujet, le consensus scientifique n’est pas établi. Plusieurs recherches pointent qu’une grande partie de jeunes vulnérables ou souffrant déjà de troubles mentaux ont en réalité tendance à se « réfugier » sur les réseaux sociaux. Certains y trouvent du réconfort, d’autres, nombreux, y adoptent alors un comportement inadapté : scrolling chronophage, comparaison sociale, visionnage de contenus angoissants, violents ou dégradants, etc.
L’étude ne dit pas que la comparaison sociale via les médias sociaux aggrave les symptômes des troubles mentaux internes. Cela pourrait être l’inverse
Luisa Fassi, doctorante en psychiatrie à l’unité cognition et sciences du cerveau à l’université de Cambridge, à propos de son étude
Une nouvelle étude, parue lundi 5 mai dans la revue Nature Human Behaviour, se penche de nouveau sur la question. Luisa Fassi, doctorante en psychiatrie à l’unité cognition et sciences du cerveau à l’université de Cambridge, s’est demandé si le comportement d’adolescents souffrant déjà de problèmes mentaux diagnostiqués différait en ligne de celui des jeunes sans troubles mentaux. Et s’il y avait également des différences de comportement selon le type de difficultés psychiques : celles dites « internes », comme l’anxiété ou la dépression, et celles dites « externes », comme les troubles de l’attention, de l’hyperactivité ou du comportement. Résultat : les adolescents ayant un trouble mental passent plus de temps sur les réseaux sociaux et sont moins satisfaits du nombre de leurs amis en ligne que les adolescents bien dans leur peau.
La chercheuse a analysé les données de 3340 adolescents, âgés de 11 à 19 ans, issus d’une vaste étude (« Mental Health of Children and Young People ») menée en 2017 par le NHS, le système de santé publique du Royaume-Uni. Son étude montre en outre que les adolescents souffrant d’anxiété ou de dépression sont particulièrement vulnérables. Ils ont davantage tendance à se comparer à d’autres personnes en ligne, et leur humeur est bien plus affectée par les retours en ligne (nombre de « j’aime », de partages ou de commentaire reçus sous leurs messages). L’étude, toutefois, n’a pu établir de relation causale entre l’usage des réseaux sociaux et une éventuelle aggravation de leurs symptômes. Par exemple, souligne la chercheuse, « l’étude ne dit pas que la comparaison sociale via les médias sociaux aggrave les symptômes des troubles mentaux internes. Cela pourrait être l’inverse. » Simplement, « des comportements observés d’ordinaire hors ligne » chez des personnes souffrant d’anxiété et de dépression « peuvent aussi survenir dans leur expérience en ligne », précise-t-elle.
Des études contradictoires, sans causalité
De fait, les recherches sur le sujet sont contradictoires – certaines mettent d’ailleurs en avant des effets positifs sur la sociabilisation ou l’éducation par les pairs. Aujourd’hui, un seul consensus existe : « Les écrans altèrent la quantité et la qualité du sommeil, car on a tendance à se coucher plus tard, mais cela vaut à tout âge », souligne ainsi Serge Tisseron, psychiatre, docteur en psychologie et créateur de l’association 3-6-9-12+ pour un usage raisonné des écrans chez les enfants et les adolescents. Or, on sait que les troubles du sommeil sont responsables et/ou associés à de nombreux troubles de l’humeur ou du comportement…
Pour le reste, comment expliquer l’absence de consensus ? « Le sujet est intrinsèquement complexe, explique Luisa Fassi. L’usage des médias sociaux implique un large éventail de comportements, de médias, et d’expérience – envoyer des messages à des amis, scroller passivement, s’engager dans la comparaison sociale, etc. » Des comportements ayant des effets très variés sur la santé mentale, qui dépendent en outre de facteurs comme « l’âge, le genre, le contexte socio-économique et des difficultés de santé mentale préexistantes », poursuit-elle.
Des études ont montré un risque de conduite “addictive” avec TikTok. Mais tous les ados qui vont sur TikTok n’y vont pas forcément pour scroller ou swiper
Serge Tisseron, psychiatre et docteur en psychologie
Autre facteur déterminant : la difficulté méthodologique à établir la causalité. L’idéal serait de pouvoir mener des expériences randomisées, mais « les chercheurs ne peuvent facilement manipuler les médias sociaux pour contrôler, par exemple, les algorithmes ou modifier les fonctionnalités », relève Luisa Fassi. C’est pourquoi « la plupart des études s’appuient sur des données observationnelles, qui peuvent identifier des associations, sans déterminer ce qui cause quoi ». « C’est le principal problème, appuie Serge Tisseron. Plein d’études montrent des corrélations, mais on ne sait pas s’il y a causalité. »
L’addiction, un terme problématique
« Des études ont montré un risque de conduite “addictive” avec TikTok. Mais tous les ados qui vont sur TikTok n’y vont pas forcément pour scroller ou swiper », poursuit Serge Tisseron. Les adolescents se rendent sur les réseaux sociaux avant tout « pour retrouver des gens de leur âge, qu’ils connaissent », assure le spécialiste. « Le mot d’addiction n’existe pas dans le milieu scientifique pour les réseaux sociaux. Seul le “gaming disorder”, un trouble du jeu vidéo, a été reconnu par l’OMS. Il est établi si un enfant est totalement désocialisé et déscolarisé, ce depuis plus d’un an. Aucun expert n’a trouvé un adolescent totalement désocialisé et déscolarisé parce qu’il n’était plus que sur les réseaux sociaux depuis plus d’un an. »
Pour une meilleure prévention, Serge Tisseron invite à comprendre les responsabilités partagées dans les mésusages des réseaux sociaux : « les fabricants » et leurs algorithmes, pensés pour inciter les utilisateurs à passer bien davantage de temps que nécessaire en ligne ; mais aussi « les inégalités sociales » – des études montrent ainsi une inégalité dans l’éducation et la prévention à un usage raisonné des écrans selon le milieu social – les « fragilités psychiques » préexistantes, notamment. Enfin, interdire plutôt qu’éduquer à leur usage raisonné en fonction de l’âge, en responsabilisant les parents, serait à ses yeux une erreur.
The Wall Street Journal, 8 mai
Apple’s Existential Crisis: Can It Build a Future Around AI?
The iPhone maker has an uncertain path ahead: shiny but less smart hardware or a smarter Siri that turbocharges everything
Full text:
Tim Cook was having a terrible, horrible, no good, very bad year.
First, Siri couldn’t do any of the cool things Apple had promised. Then came the tariffs, potentially chomping away at iPhone profit margins. A judge suggested the company be investigated over antitrust violations. Its lucrative iPhone Google search partnership came under fire. And remember the Vision Pro? Anyone?
Tim sighed. “Hey Siri, will things get better soon?”
“According to the CDC,” Siri replied, “most people with a mild case of Covid-19 will begin to feel better after about a week.”
Welcome to Apple AAPL -1.14%decrease; red down pointing triangle in 2025, where things could either get a heck of a lot worse or a whole lot more happily-ever-after. (And yes, that really is Siri’s answer when you ask if things will get better soon.)
Of all those issues, AI might pose the biggest long-term threat. Apple built its trillion-dollar empire on great products—products that succeed because of a “deep integration of software, hardware and services,” as Cook likes to remind us at every keynote.
Lately, those crucial software and services pillars lean into AI. And Apple isn’t anywhere near the shortlist of companies leading the AI charge. Google. Meta. Microsoft. OpenAI. Every few weeks they share shiny new generative-AI tools and updates. Apple? At least it still makes the hardware to run everyone else’s cool stuff, right? (Insert Genmoji-me shrugging.)
On Wednesday, during testimony in the Alphabet GOOGL -7.26%decrease; red down pointing triangle (Google) antitrust case, Eddy Cue, Apple’s senior vice president of services, said the company is working with AI companies to integrate more of their technology into Safari and other products. Meanwhile, Bloomberg and The Information report that Apple has made internal changes to clean up the Siri mess. An Apple spokeswoman declined to comment.
So what happens next? There seem to be two clear paths. Join me in playing Choose Your Own AI-Venture, Apple Edition.
Path 1: Apple fails at AI
Back in 2011, Apple executive Phil Schiller introduced Siri as “your intelligent assistant that helps you get things done just by asking.” Ever since, Apple’s been trying (key word: trying) to deliver that promise. Given that history and how disappointing the initial Apple Intelligence tools have been, it’s understandable to doubt Apple’s chances of success.
Now, the stakes are higher. We’re no longer just talking about voice commands and dad jokes. We’re talking about the tech that will power the interface of every device, from current gadgets (iPhones, AirPods, Apple Watches) to future ones (smart glasses, home robots and more).
If Apple can’t break through with strong, functional AI, its route through the Land of Mis-Siri (get it?) will have two stops:
Vessel Valley. Apple’s superior hardware is already a vessel for other companies’ products—think about Google’s Gmail, Docs and Calendar, for one thing. AI could hollow it out even more.
It’s already starting to happen. I now spend car rides talking to ChatGPT’s in-app voice mode to prep for upcoming meetings and talk through project planning. Perplexity’s new voice assistant, released in late April, can even control music, email, reminders and other iPhone functions.
During his court testimony, Cue said Apple has talked with Perplexity about deeper iPhone integration. He also predicted that AI search providers—including OpenAI, Perplexity and Anthropic—will eventually replace traditional search engines like Google. (Insert Genmoji-me saying this a few weeks ago.)
Hardware Bluffs. Without the ability to keep up in software, Apple loses its hardware edge, especially in wearables. Just look at Meta: It took basic camera-equipped sunglasses and turned them into the best AI gadget around. I wear Meta’s Ray-Bans almost daily and ask the AI questions—basic weather forecasts or how to fix that annoying leaky garden hose—instead of Siri.
Google’s also working on competing glasses, and OpenAI’s reportedly teaming up with former Apple design chief Jony Ive on…something. I’ve heard whispers of earbuds or some other screenless device. In a 2023 interview, OpenAI Chief Executive Sam Altman assured me it wasn’t a smartphone. Representatives from OpenAI and Ive’s LoveFrom declined to comment.
Yes, Apple is reportedly working on similar projects: AirPods with cameras, smart glasses and home devices. But without the core AI tech to power them, they might fail to wow the masses.
“Apple has become a classic fast follower. It’s no longer going to be a leading innovator in almost any area,” said Harvard Business School professor David Yoffie, who’s studied Apple for years. That’s not a death sentence. Apple’s huge customer base gives it some cushion, he said, but the danger is what happens if it lags too far behind.
Path 2: Apple nails AI
The other path is a rose-gold road to Siri-topia. In this land, Apple has fixed all its AI problems. It’s no longer wasting time on emoji generators that put a pig’s nose on a dog’s head. Instead, it strengthened its small and large language models, beefed up its natural language processing and sprinkled in some secret Cupertino dust. Skipping along this road, you find:
Bot’s Landing. My kids finally stop shouting “Siri, you stupidhead” from the back seat. The assistant now lives up to the original promise. No more ridiculous text flubs, impromptu web searches or “let me ask ChatGPT” moments.
It’s got deeper knowledge and a human-sounding voice like Meta and OpenAI’s assistants. Unlike them, it does actual Siri stuff, like turning on your lights or opening your garage. Yes, just like the promised Alexa+ that still hasn’t arrived.
Wearable Wonderland. Good Siri lives in your stylish Apple sunglasses. It sees what you see and chimes in with useful info—identifying a weird rash or that new employee. (“That’s Bertha—with the blond hair,” it whispers.)
Meanwhile, your Apple Watch is finally the medical assistant that Dr. Tim, Medicine Man, has always dreamed of. It explains your symptoms, gives you useful health tips and even alerts you when you’re about to get sick.
Automation Alley. Apple’s sleek home robot polishes my hardwood floors, handles laundry folding and makes my almond milk latte. It can’t groom the dog but it can make the grooming appointment.
Of course, living in this dreamland requires a $29.99/month Apple Intelligence+ subscription.
“You may not need an iPhone 10 years from now, as crazy as it sounds,” Cue said in his testimony, adding that technology shifts like AI create new opportunities for new entrants and new products. If it isn’t the iPhone, then it’s clear Apple would like to be at the core of whatever is next.
To do that, Apple might need to hit the gas harder, but without overpromising and underdelivering.
We’ll find out how fast Apple is moving toward Siri-topia next month at the company’s big developer conference.
Apple’s Craig Federighi told me in October it’s “a many year—even decades long—arc of this technology playing out.” Let’s hope we aren’t waiting until 2035.
https://www.wsj.com/tech/personal-tech/apple-ai-future-two-paths-75fcf12a?mod=wknd_pos1
The Wall Street Journal, 7 mai
United Bets on Photosynthesis and Limestone to Fuel Net-Zero Flight Path
The Chicago-based carrier has partnered with a number of clean-tech startups in recent months in a renewed effort to meet its climate goals
Full text:
Airlines are shifting their approach to a low-carbon future, seeking not only to offset the emissions they generate, but remove them altogether and then use the CO2 to make sustainable aviation fuel.
For United Airlines, this means teaming up with startups that are working to pull carbon dioxide out of the air, mimic photosynthesis to produce jet fuel and revolutionize aircraft design to slash emissions.
Earlier this year, the Chicago-based carrier joined forces with Heirloom, a company specializing in direct air capture of carbon dioxide, in a partnership that not only sees the companies sequester CO2 but also — potentially — use it to make sustainable aviation fuel, or SAF. In another deal announced Tuesday, United said it was working with Twelve, a startup that uses “industrial photosynthesis” to produce SAF from CO2 and water.
Last month, United said it was investing in next-generation blended-wing startup JetZero in a deal that could see the airline buy up to 200 of the wide-bodied aircraft, which according to United, have the potential to reduce fuel burn by up to 50% per passenger mile compared with traditional planes.
All three investments are part of United’s wider push toward net-zero emissions by 2050. Lauren Riley, the airline’s chief sustainability officer, sets the company’s decarbonization strategy. Her mandate includes reaching an interim sustainability target by 2035: a 50% reduction in carbon intensity compared with 2019, as verified by the Science Based Targets initiative—a goal she says she’s “optimistic and hopeful” of achieving.
At the center of the airline’s strategy is United Airlines Ventures’ Sustainable Flight Fund, a $200 million investment vehicle backed by the carrier and 22 partners, including Air Canada, Air New Zealand, Boeing and Google. United contributes a third of the capital and retains control of investment decisions, but all partners benefit if the investments are successful, United said.
Andrew Chang, head of corporate development at United, is the managing director of UAV and oversees its investments. “Decarbonizing aviation is fundamentally an energy challenge,” he said.
United’s Heirloom deal fits squarely into that framework. The startup captures CO2 using limestone. Chang said the technology is built on abundant, low-cost materials and doesn’t rely on novel catalysts—factors that make it commercially attractive and scalable.
Limestone naturally absorbs carbon. Heirloom accelerates the natural process so it takes days instead of years. To remove carbon from the air, the company warms up crushed limestone in a kiln heated to about 1,650 degrees Fahrenheit and powered by renewable electricity. That heat separates the carbon dioxide, which is stored underground or in concrete, and leaves a chemical powder called calcium oxide.
That powder is then combined with water to become calcium hydroxide and spread onto trays the size of picnic blankets. Outside, the calcium hydroxide puffs up like a cookie in the oven as it absorbs carbon dioxide over about three days. The resulting limestone can go back into the kiln to restart the cycle.
But what makes United’s deal with Heirloom unusual is its versatility: The captured CO2 can either be permanently sequestered—generating carbon-dioxide removal, or CDR, credits—or used in the production of power-to-liquid SAF. For United, the investment ticks two boxes: credible carbon removal today, and the potential for future fuel feedstock.
“You need CO2, you need hydrogen, you need renewable power. The idea is if you can commercialize and reduce unit costs for each of those, you have ubiquity of feedstock,” said Chang.
United’s Sustainable Flight Fund has the option to buy 500,000 tons of CO2 from Heirloom. It said capturing that amount of CO2 from the air and sequestering it permanently underground is the equivalent to abating CO2 emissions from a 737 MAX flying about 33 million miles.
The airline acknowledged that SAF, like regular jet fuel, emits CO2 into the atmosphere when burned. But it pointed out the CO2 used to make SAF primarily comes from the atmosphere, whereas the CO2 used to make jet fuel comes from oil that was underground. The advantage of burning SAF is that it results in no net change to atmospheric CO2, the company says.
However, United added capturing and sequestering CO2 using Heirloom’s technology while continuing to use regular jet fuel is currently cheaper than using CO2 to make sustainable aviation fuel. That is because making SAF also requires making hydrogen and combining it with the captured CO2, which is expensive.
Riley said that the type of carbon removal Heirloom offers is preferable to traditional nature- based offsets, which she said lack permanence and are harder to measure. “We want something that we can quantify and have confidence in the permanent reduction associated with that,” she said.
Chang didn’t disclose exactly how much UAV invested in the three deals, saying only when it comes to investments, “our sweet spot is $5 million to $10 million, maybe sometimes up to $15 million.”
How Twelve makes sustainable aviation fuel
In Twelve’s carbon dioxide electrolyzer, carbon dioxide flows in and comes into contact with a metal catalyst. One of the oxygen atoms in CO2 gets separated, leaving carbon monoxide (CO).
While the Heirloom deal is key to lowering emissions in the short term, United’s real decarbonization challenge lies in its long-term fuel strategy. In 2024, United sourced 14 million gallons of SAF—some 0.3% of its total fuel usage for the year. Yet, with SAF costing three to four times more than conventional jet fuel, increasing that share represents a challenge
“Scaling the SAF industry is the major hurdle air travel needs to clear in order to increase the supply and reduce the price of lower carbon fuels,” said Chang.
United’s deal with Twelve goes some way to address that. It follows an $83 million funding round secured by the startup for its first production facility in Moses Lake, Wash. The plant is expected to begin production this year and plans to produce 50,000 gallons of SAF annually, with the potential to reduce life cycle emissions by up to 90% compared with conventional jet fuel, according to United.
Riley and her team helped shape the SAF provisions in the Inflation Reduction Act, including the 45Z Clean Fuel Production Tax Credit, which provides a credit of 35 cents a gallon for sustainable aviation fuel. Today, following the election of President Trump, questions continue to hang over the future of the IRA, and the path ahead for the aviation industry appears turbulent.
Yet Riley remains bullish. She points to the SAF Coalition, a 60-member nonprofit advocacy group established last year including oil majors, startups, labor unions and agriculture stakeholders that she says are all pushing for the continuation of 45Z.
“What’s really interesting in the U.S. is that the states that are benefiting from new SAF production facilities coming online are largely in red states. It is largely in the geographies that you wouldn’t expect would be behind any kind of climate ambition. This is good for the economy. This is creating jobs in a transitioning industry,” she said.
L’Express, 1 mai
La maladie mentale, une urgence nationale, par Eric Chol
L’édito de la semaine. Deux drames récents, provoqués par des jeunes garçons atteints de troubles psychiatriques, viennent rappeler l’urgence d’agir dans un domaine érigé au titre de grande cause nationale.
Full text:
Lorène, 15 ans, lycéenne à Notre-Dame-de-Toutes-Aides, un établissement privé de Nantes, est morte jeudi 17 avril, poignardée par un garçon qui venait d’avoir 16 ans, lui aussi élève dans le même établissement, et décrit comme un garçon “suicidaire”, “extrêmement solitaire”, ayant “une fascination pour Hitler” et qui avait à plusieurs reprises ces derniers mois rencontré le personnel de la Maison des adolescents de Nantes.
Judith, 31 ans, jeune femme au parcours académique et professionnel extrêmement brillant, attendait un RER le lundi 24 mars sur le quai de la station de Massy, dans l’Essonne, quand un individu âgé de 23 ans l’a violemment poussée sur la voie : plongée dans le coma, elle décédera deux jours plus tard. Son meurtrier, apprendra-t-on, atteint de troubles psychiatriques, avait fugué quelques semaines plus tôt d’un établissement spécialisé.
Deux histoires atroces, qui ont suscité une très vive émotion, mais aussi une grande incompréhension. Deux drames terribles qui témoignent d’une façon extrême de la forte dégradation de la santé mentale chez les jeunes, en particulier depuis la pandémie du Covid, attestée par toutes les enquêtes récentes, mais aussi d’un manque de moyens criant que l’on prend aujourd’hui en boomerang.
Sujet tabou
Alors non, les pouvoirs publics ne sont pas restés passifs ces dernières années. Depuis le lancement d’une feuille de route sur le sujet (2018) jusqu’à la promulgation de la santé mentale comme grande cause nationale en 2025 par Michel Barnier, en passant par la nomination d’un délégué ministériel à la santé, le démarrage de dispositifs d’alertes et de soins (Mon soutien psy, formation de secouriste en santé mentale, créations de nouvelles maisons des adolescents…), l’accroissement des budgets (+ 3,3 milliards d’euros entre 2018 et 2026), les initiatives se sont multipliées. Est-ce suffisant ? A l’évidence, non, ni en termes de prévention – quasi nulle jusqu’à présent -, ni surtout en termes de personnel de santé. Trop longtemps sous-valorisée chez le grand public aussi bien que parmi les soignants, la psychiatrie n’attire pas les étudiants en médecine. Combien de postes de psychiatres ou d’infirmiers en psychiatrie non pourvus ?
“Toutes les études le montrent : on fait face à une augmentation de la consommation des médicaments, des consultations, des hospitalisations entre avant et après la pandémie. C’est dur de rattraper le déficit de moyens accumulé depuis des années”, regrette Jasmina Mallet, psychiatre au CHU d’Orléans et à l’EPSM du Loiret.
La santé mentale, premier poste de dépenses de l’assurance-maladie, demeure un sujet tabou au moment où ses structures d’accueil, en particulier à destination des enfants et des adolescents, sont “à bout de souffle”, selon le sénateur (LR) Jean Sol. Il est indispensable de lutter contre cette stigmatisation, et plus qu’une grande cause, de faire de la santé mentale une urgence nationale, avec les moyens de détection, de soins et de sécurisation appropriés.
Directeur de la rédaction
The Economist, 30 avril
MAGA v MAMAA : Donald Trump is proving disastrous for big tech
Silicon Valley’s stars are beset by trustbusters and the trade war
Full text:
In the weeks after the re-election of Donald Trump, the bosses of America’s tech giants worked hard to ingratiate themselves with the returning president, congratulating him publicly and dutifully turning up to his inauguration. Mark Zuckerberg, the boss of Meta, gushed that it was nice to have an administration that was “proud” of America’s tech champions.
There was good reason for the obsequiousness. During the campaign Mr Trump referred to Meta as an “enemy of the people”. Many in his MAGA movement have accused America’s tech giants of censoring right-wing views. In 2021 J.D. Vance, now Mr Trump’s vice-president, called the behemoths “parasitic”. Even the techies surrounding Mr Trump, such as Elon Musk, belong to a different Silicon Valley tribe that is suspicious of big tech.
Three months in, and the bosses of America’s most valuable firms have little to show for all their toadying. Mr Trump appears unwilling to spare them from the trustbuster’s snare, and is adding to their troubles with his trade war. On April 29th the White House accused Amazon of a “hostile and political act” after the company was reported to be planning to display the cost of tariffs for items sold through its website. (Amazon swiftly clarified that the idea had been considered only for Amazon Haul, where it sells ultra-cheap products, and that it would not be implemented.)
Since Mr Trump’s inauguration the combined market value of the five big platforms—Alphabet, Amazon, Apple, Meta and Microsoft—plus Nvidia, America’s semiconductor superstar, has fallen by $2.3trn, or 16% (see chart). Just how bad could things get?
Start with antitrust. Neither Andrew Ferguson, whom Mr Trump appointed as chair of the Federal Trade Commission (FTC), or Gail Slater, his pick as head of the antitrust division of the Department of Justice (DoJ), have shown much interest in halting the cases against big tech begun by the Biden administration. Ms Slater, who on April 21st described Google as a threat to freedom of speech, freedom of thought and “free American digital markets”, inherited two cases against Alphabet, its corporate parent. On April 17th a district judge ruled in one of them that the company operates an illegal monopoly in digital advertising. In the other case, a court ruled last year that Google’s search business was an illegal monopoly, too; hearings to decide on remedies will start on May 2nd. The DoJ has urged the court to force Google to sell its Chrome browser, alongside other changes to its business.
Alphabet is not alone. On April 14th hearings began in the FTC’s case against Meta, which the regulator accuses of having maintained an illegal monopoly through its purchase of Instagram in 2012 and WhatsApp in 2014 (which the company denies). Meta has reportedly sought Mr Trump’s help in reaching a settlement with the FTC, with little success so far. The antitrust agencies are also suing Amazon and Apple and investigating Microsoft and Nvidia, for good measure.
On top of all this comes Mr Trump’s trade war. Apple assembles four-fifths of its iPhones and Macs in China, which explains why its share price fell by almost a quarter in the week after Mr Trump unveiled his “reciprocal tariffs” on April 2nd. It recovered somewhat when carve-outs were announced for smartphones and PCs. Even so, an earlier 20% rate on Chinese goods still applies. Prices for iPhones are likely to rise, weighing on already slowing sales. Apple is now reportedly planning to shift assembly of its America-bound smartphones from China to India by the end of 2026.
Nvidia is in the cross-fire, too. Prices for its chips, which are mostly produced abroad, are likewise set to rise for American customers, which may cool the firm’s red-hot growth. An even bigger problem is its business in China, which accounted for 13% of revenue in 2024. The American government recently barred it from selling its H20 chip there without an export licence. Nvidia has said that the new rules will wipe $5.5bn from the value of its inventory, a sign that it expects to be granted few permits, if any. Although analysts reckon it will design a new, less powerful chip for export, the new restrictions will give a leg up to Huawei, a Chinese tech giant that is making ever more sophisticated ai chips.
As for Amazon, Bernstein reckons that about a fifth of the goods it sells in America through its e-commerce platform are made in China, many of which now faces import duties of 145%. On May 2nd the de minimis exemption, which spares from tariffs packages valued below $800, will also be removed for Chinese wares.
Making matters worse, America’s tech giants are also at risk of becoming a “retaliatory lightning rod” in the trade war, notes Mark Shmulik of Bernstein, a broker. China’s watchdogs are already probing Alphabet and Nvidia. Last year the country introduced rules to phase out products made by Microsoft, such as Windows, from government computers. Investors worry that an iPhone ban among state officials could follow.
Ursula von der Leyen, president of the European Commission, has talked of hitting America’s tech giants with levies in response to Mr Trump’s tariffs. On April 23rd the EU slapped Apple and Meta with €700m ($796m) in fines for breaching its Digital Markets Act—though that was much less than the maximum possible figure, perhaps signalling that Brussels wants to avoid an escalating trade conflict.
Then there are the indirect effects of Mr Trump’s tariff war. Ad sales from Chinese e-commerce companies such as Shein and Temu, which rely heavily on the de minimis trade, could be jeopardised. Last year Meta said that such firms accounted for a tenth of its ad revenue the year before. On April 25th Sundar Pichai, Alphabet’s boss, admitted on an earnings call that the removal of the de minimis exemption would create a “slight headwind” for its ad business. That may be just the start. If, as expected, America’s economy slows as a result of tariffs, ad spending more broadly could slump.
Big tech’s cloud-computing revenues may take a hit as well. Enterprise customers and startups are already delaying committing themselves to contracts owing to uncertainty over economic conditions, according to JPMorgan Chase, a bank. A pullback in spending on artificial-intelligence (AI), on which the tech giants are pinning their hopes for growth, seems possible. Johnson & Johnson, a pharmaceutical firm, recently said that it is cutting spending on AI projects that are not generating returns.
Some remain optimistic that the rest of the president’s term will be brighter for big tech. An insider at one of the giants says he believes that Mr Trump, unlike his predecessor, is willing to “go out to bat” for America’s tech champions abroad. Mr Trump’s first 100 days do not bode well, though. It could be a tricky four years for the tech titans. ■
https://www.economist.com/business/2025/04/29/donald-trump-is-proving-disastrous-for-big-tech
The Wall Street Journal, 29 avril
We Now Know How AI ‘Thinks’—and It’s Barely Thinking at All
The vast ‘brains’ of artificial intelligence models can memorize endless lists of rules. That’s useful, but not how humans solve problems.
Full text:
The big names in artificial intelligence—leaders at OpenAI, Anthropic, Google and others—still confidently predict that AI attaining human-level smarts is right around the corner. But the naysayers are growing in number and volume. AI, they say, just doesn’t think like us.
The work of these researchers suggests there’s something fundamentally limiting about the underlying architecture of today’s AI models. Today’s AIs are able to simulate intelligence by, in essence, learning an enormous number of rules of thumb, which they selectively apply to all the information they encounter.
This contrasts with the many ways that humans and even animals are able to reason about the world, and predict the future. We biological beings build “world models” of how things work, which include cause and effect.
Many AI engineers claim that their models, too, have built such world models inside their vast webs of artificial neurons, as evidenced by their ability to write fluent prose that indicates apparent reasoning. Recent advances in so-called “reasoning models” have further convinced some observers that ChatGPT and others have already reached human-level ability, known in the industry as AGI, for artificial general intelligence.
For much of their existence, ChatGPT and its rivals were mysterious black boxes.
There was no visibility into how they produced the results they did, because they were trained rather than programmed, and the vast number of parameters that comprised their artificial “brains” encoded information and logic in ways that were inscrutable to their creators. But researchers are developing new tools that allow them to look inside these models. The results leave many questioning the conclusion that they are anywhere close to AGI.
“There’s a controversy about what these models are actually doing, and some of the anthropomorphic language that is used to describe them,” says Melanie Mitchell, a professor at the Santa Fe Institute who studies AI.
‘Bag of heuristics’
New techniques for probing large language models—part of a growing field known as “mechanistic interpretability”—show researchers the way these AIs do mathematics, learn to play games or navigate through environments. In a series of recent essays, Mitchell argued that a growing body of work shows that it seems possible models develop gigantic “bags of heuristics,” rather than create more efficient mental models of situations and then reasoning through the tasks at hand. (“Heuristic” is a fancy word for a problem-solving shortcut.)
When Keyon Vafa, an AI researcher at Harvard University, first heard the “bag of heuristics” theory, “I feel like it unlocked something for me,” he says. “This is exactly the thing that we’re trying to describe.”
Vafa’s own research was an effort to see what kind of mental map an AI builds when it’s trained on millions of turn-by-turn directions like what you would see on Google Maps. Vafa and his colleagues used as source material Manhattan’s dense network of streets and avenues.
The result did not look anything like a street map of Manhattan. Close inspection revealed the AI had inferred all kinds of impossible maneuvers—routes that leapt over Central Park, or traveled diagonally for many blocks. Yet the resulting model managed to give usable turn-by-turn directions between any two points in the borough with 99% accuracy.
Even though its topsy-turvy map would drive any motorist mad, the model had essentially learned separate rules for navigating in a multitude of situations, from every possible starting point, Vafa says.
The vast “brains” of AIs, paired with unprecedented processing power, allow them to learn how to solve problems in a messy way which would be impossible for a person.
Thinking or memorizing?
Other research looks at the peculiarities that arise when large language models try to do math, something they’re historically bad at doing, but are getting better at. Some studies show that models learn a separate set of rules for multiplying numbers in a certain range—say, from 200 to 210—than they use for multiplying numbers in some other range. If you think that’s a less than ideal way to do math, you’re right.
All of this work suggests that under the hood, today’s AIs are overly complicated, patched-together Rube Goldberg machines full of ad-hoc solutions for answering our prompts. Understanding that these systems are long lists of cobbled-together rules of thumb could go a long way to explaining why they struggle when they’re asked to do things even a little bit outside their training, says Vafa. When his team blocked just 1% of the virtual Manhattan’s roads, forcing the AI to navigate around detours, its performance plummeted.
This illustrates a big difference between today’s AIs and people, he adds. A person might not be able to recite turn-by-turn directions around New York City with 99% accuracy, but they’d be mentally flexible enough to avoid a bit of roadwork.
This research also suggests why many models are so massive: They have to memorize an endless list of rules of thumb, and can’t compress that knowledge into a mental model like a person can. It might also help explain why they have to learn on such enormous amounts of data, where a person can pick something up after just a few trials: To derive all those individual rules of thumb, they have to see every possible combination of words, images, game-board positions and the like. And to really train them well, they need to see those combinations over and over.
This research might also explain why AIs from different companies all seem to be “thinking” the same way, and are even converging on the same level of performance—performance that might be plateauing.

AI researchers have gotten ahead of themselves before. In 1970, Massachusetts Institute of Technology professor Marvin Minsky told Life magazine that a computer would have the intelligence of an average human being in “three to eight years.”
Last year, Elon Musk claimed that AI will exceed human intelligence by 2026. In February, Sam Altman wrote on his blog that “systems that start to point to AGI are coming into view,” and that this moment in history represents “the beginning of something for which it’s hard not to say, ‘This time it’s different.’” On Tuesday, Anthropic’s chief security officer warned that “virtual employees” will be working in U.S. companies within a year.
Even if these prognostications prove premature, AI is here to stay, and to change our lives. Software developers are only just figuring out how to use these undeniably impressive systems to help us all be more productive. And while their inherent smarts might be leveling off, work on refining them continues.
Meanwhile, research into the limitations of how AI “thinks” could be an important part of making them better. In a recent essay, MIT AI researcher Jacob Andreas wrote that better understanding of language models’ challenges leads to new ways to train them: “We can make LMs better (more accurate, more trustworthy, more controllable) as we start to address those limitations.”
https://www.wsj.com/tech/ai/how-ai-thinks-356969f8?mod=hp_lead_pos11
Le Point, 28 avril
Tuer l’ennemi par écrans interposés : notre récit avec les militaires ukrainiens qui lancent leurs drones sur l’armée de Poutine
EXCLUSIF – Alors que les négociations de paix patinent et que les combats s’intensifient, l’Ukraine s’est lancée dans une course à l’innovation technologique avec un objectif : sortir de la guerre de tranchées. Elle veut produire 4,5 millions de drones en 2025 pour faire reculer l’armée russe.
Full text:
La radio grésille, les trois soldats juvéniles quittent leur lit de camp et se précipitent sur leurs écrans d’ordinateur. Des Russes ont été repérés au point du jour à quelques kilomètres de leur abri souterrain. Elvis – de son nom de guerre – demande quelques précisions en parlant au talkie-walkie. Sous ses yeux, plusieurs images défilent sur un serveur en ligne. Ils montrent, sous différents angles filmés en direct par des drones de surveillance, des mouvements russes dans les ruines d’une maison du village de Kostyantynopil’, une localité disputée du Donbass (est de l’Ukraine).
En vitesse, Sacha, le sapeur, fixe une munition explosive à un drone kamikaze, qui doit voler jusqu’à exploser contre les Russes. Il sort prudemment de l’abri pour le faire décoller. Le soleil n’est levé que depuis quelques minutes, et les Russes, qui surveillent en permanence – comme les Ukrainiens – la longue ligne de front, pourraient le repérer. Il faut faire vite. Elvis, derrière son ordinateur, suit le trajet de son engin en temps réel grâce à sa caméra avant, et contrôle d’un œil les mouvements russes sur l’autre écran.
L’appareil se faufile dans les rues d’un village boueux, surmonte un tas de gravats et pénètre dans une pièce où se sont réfugiés deux soldats ennemis. Elvis l’envoie à pleine vitesse contre eux. Les dernières images, hachurées, montrent la peur dans leur regard. Sur l’autre écran, un drone de surveillance dévoile l’impact en temps réel : une explosion, puis de la fumée s’échappe des ruines. À la radio, le commandement confirme : cible touchée. « Un bon Russe est un Russe mort », lâche-t-il. Son regard bleu acier exprime la certitude, sans morgue ni insolence.
Une guerre de déstabilisation
Igor, le troisième soldat, ressort pour faire atterrir le transmetteur. Durant tout le vol du petit drone kamikaze, le sien, de large envergure, demeurait stationnaire au-dessus de l’abri, à près d’une vingtaine de mètres. Son utilisation est nécessaire pour maintenir une permanence radio entre le pilote et l’aéronef. D’autant que les Russes, malins, surveillent les fréquences pour déstabiliser les engins adverses. En moyenne, entre 75 et 90% des drones au pilotage en immersion (FPV, en anglais) – c’est-à-dire avec une caméra à l’avant qui permet de suivre le trajet comme un pilote réel – sont brouillés grâce à la guerre électronique.
En redescendant dans l’abri, Igor range son transmetteur près de son lit de camp. Elvis se lève de sa chaise, s’étire et regarde ses camarades sans sourire. Les trois militaires de la 148e brigade d’artillerie vivent depuis plusieurs jours dans ce réduit creusé dans la terre, retenue par des bâches en plastique. Trois lits, deux tables encombrées de nombreuses munitions composent leur mobilier. Dehors, à quelques mètres de l’abri, des toilettes sèches ont été montées, protégées par une cahute en bois. Mais s’y rendre, surtout en plein jour, expose aux drones russes qui survolent chaque centimètre carré du front. Avec le risque de mourir, comme ces soldats de Moscou repliés dans une maison en ruine.
Appels aux dons pour une usine de drones
Désormais commence le quotidien du soldat en campagne : l’attente, interminable. La radio s’est calmée, et les drones de surveillance poursuivent leur patrouille dans les airs. « La plupart des attaques se déroulent entre 4 et 6 heures du matin », explique Elvis. À 20 ans, il combat l’ennemi depuis un an et demi. Patiemment, il examine ses drones. Dans ce groupe de trois, il occupe aussi la place d’ingénieur. Ce matin-là, 10 aéronefs ont été perçus par son unité. Ils étaient convoyés, depuis Kiev – à 700 kilomètres environ – par Lidia Volkova, 25 ans, membre de l’association Frontline Care. Cette sémillante femme blonde, juriste dans le civil, fait partie des 71% d’Ukrainiens engagés dans le volontariat, très majoritairement à destination de l’armée.
Avec son association, elle a mené une levée de fonds pour acquérir ces drones de l’entreprise Vyriy. « Avec ces appareils, nous avons un bon retour de la part de nos soldats. Ils présentent aussi la caractéristique d’être fabriqués en Ukraine et en partie grâce à l’imprimante 3D », explique-t-elle, au volant de sa voiture, entre deux cahots. Ces drones kamikazes, peu onéreux – environ une centaine d’euros –, sont très régulièrement utilisés sur le front.
Après les avoir reçus, dans la cour d’un quartier branché de Kiev, Lidia et Kateryna Kuptsiv, qui coordonne les volontaires, ont appliqué des autocollants photographiques sur les batteries des engins volants. Chacun d’eux représente un soldat tombé au combat, connu de l’association. Un visage se dégage : celui d’un jeune garçon brun à lunettes, l’air mi-grave, mi-souriant. Ivan Rybytva avait 19 ans, il a été tué pendant la bataille de Bakhmout, en 2023. « Ainsi, les morts poursuivent leur mission », confie son frère, membre de l’association.
Les besoins de l’armée ukrainienne sont tels que la mobilisation de la société civile est nécessaire. Il est courant de recevoir des appels au don par message téléphonique, à la radio ou à la télévision. L’an dernier, Frontline Care a récolté près d’un million de hryvnias (environ 200.000 euros) pour acheter plusieurs dizaines de drones. Pendant trois jours, Lidia avait arpenté l’est de l’Ukraine pour les livrer. Dès les premiers jours du conflit, en 2022, les forces ukrainiennes ont pris la mesure du plein potentiel de ces engins volants.
Ceux-ci étaient principalement utilisés par les Américains depuis une dizaine d’années pour des missions de surveillance, puis d’élimination ciblée, surtout dans leur « guerre contre le terrorisme ». Mais leur usage était limité, principalement à cause du coût. « La guerre de 2020 entre l’Azerbaïdjan et le Haut-Karabakh a montré qu’il était possible d’envisager un conflit conventionnel de haute intensité où les drones auraient à jouer un rôle bien plus prégnant », écrivait Léo Péria-Peigné, chercheur au Centre des études de sécurité de l’Institut français des relations internationales (Ifri), dans sa Géopolitique de l’armement (Le Cavalier Bleu).
Surveiller un front de 1000 kilomètres
Les drones turcs Bayraktar en ont été l’emblème le plus important. « L’intensité des combats et des pertes a d’abord permis de faire un tri rapide entre les drones adaptés à un conflit de haute intensité et ceux trop fragiles : les drones aériens tactiques d’observation de grande taille ont ainsi rapidement disparu du champ de bataille, au profit d’appareils plus petits, souvent issus du marché civil et adaptés sur le terrain pour remplir des missions d’observation mais aussi de frappe à un niveau de plus en plus microtactique », ajoutait Léo Péria-Peigné. Ils présentent en effet un double avantage : un faible coût et une grande disponibilité sur le marché. Encore aujourd’hui, malgré l’émergence d’une industrie nationale, 90% des drones utilisés par l’Ukraine sont de fabrication chinoise
« Le complexe reconnaissance-frappes (c’est-à-dire localisation de la cible, puis tir, NDLR) est modernisé et massifié par le basculement dans une logique dronisée entraînant des concentrations plus efficaces. Le drone agissant à la fois comme moyen de détection pour les attaques d’artillerie classiques et comme capacité de frappe par le recours aux engins tactiques », souligne Thibault Fouillet, chercheur associé à la Fondation pour la recherche stratégique, dans une note récente consacrée à l’évolution des méthodes de combat à l’aune de la guerre en Ukraine. Début janvier, Oleksandr Syrsky, patron de l’armée ukrainienne, annonçait avoir atteint 54 000 cibles en décembre, dont 49 % grâce aux drones kamikazes.
Ces besoins croissent devant l’utilisation de ces engins parfois miniaturisés pour également surveiller une ligne de front qui s’étend sur plus de 1000 kilomètres. « Rien que l’année dernière, grâce aux efforts de l’Ukraine et de ses partenaires, nous avons produit plus de 1,5 million de drones de différents types. L’Ukraine assume désormais le leadership mondial de la guerre par ce genre d’appareils », se félicitait Volodymyr Zelensky, le président ukrainien, en février 2025. Le gouvernement veut augmenter sa production à 4,5 millions d’unités pour l’année en cours. Aux premiers temps de l’invasion, la fabrication nationale se concentrait surtout dans des garages. Les drones étaient conçus par des techniciens et des ingénieurs pointus. Désormais, de véritables usines ont été montées. Leurs localisations sont tenues secrètes. Elles représentent des cibles de grande valeur pour l’armée russe.
Des engins toujours plus novateurs
Oleksi Babenko, catogan brun et fine barbe, a lancé son usine Vyriy à 24 ans. Les débuts étaient artisanaux. « À la fin de l’été 2023, nous avons constaté que les petits drones étaient plus utilisés que les gros sur la ligne de front », se souvient-il, attablé dans un café branché de Kiev. Son entreprise est devenue l’une des principales du pays – 4000 drones par mois –, et fabrique une gamme 100% ukrainienne. « Nous avons quatre critères : l’efficacité de la production ; la création d’un univers complet car il nous faut aussi fournir des logiciels au pilote, pas seulement l’aéronef ; le prix, bien sûr ; et enfin la création nationale »,ajoute-t-il.
Toutefois, cette solution locale demeure environ 5% plus cher, malgré le recours à l’imprimante 3D. Preuve de l’intérêt des Russes pour son entreprise, ses services ont démasqué une candidature poussée par Moscou. Elle a été signalée aux autorités compétentes. Deux innovations sont à surveiller de près selon le patron de Vyriy : la création d’essaims de drones, c’est-à-dire de nombreux aéronefs volant de manière coordonnée, et les drones filoguidés avec de la fibre optique.
Ces derniers sont utilisés depuis le début de l’année 2025. Ils sont commandés à l’aide d’un cordon de fibre optique fin et léger qui peut atteindre plusieurs dizaines de kilomètres. Ils présentent surtout l’avantage d’être invulnérables au brouillage, mais ne peuvent emporter une charge importante. Si les Ukrainiens moquaient ces « drones en laisse », ils les ont rapidement adoptés pour leur redoutable efficacité.
Ils incarnent aussi le paradoxe de la guerre en Ukraine qui voit des soldats, au fond de tranchées boueuses semblables à celles de Verdun, manier des engins d’une grande modernité fabriqués en Chine. Ceux-ci attendent, paradoxalement, une innovation technologique pour espérer prendre l’avantage sur l’adversaire. D’autant que face au drone filoguidé, la riposte est difficile. « Il reste le bon vieux calibre 12 », rigole Elvis au fond de sa tranchée. Toutefois, quand il sort de l’abri souterrain pour aller aux toilettes, il prend son arme AK-74 : « On ne sait jamais ! » À son retour, la radio grésille de nouveau. Une nouvelle cible attend ces soldats de 20 ans, condamnés à donner la mort par écrans interposés.
Neue Zürcher Zeitung, Buchbesprechung, 27 avril
Für die Physik waren die 1920er Jahre goldene Zeiten
Vor hundert Jahren entstand die Quantenmechanik. In seinem Buch «Quantenlicht» erzählt Thomas de Padova die Entstehungsgeschichte dieser bahnbrechenden Theorie des Mikrokosmos.
Full text:
Als Max Planck im Jahr 1874 das Studium der Physik begann, bekam er von seinem Professor den Rat, ein anderes Fach zu wählen. In der Physik sei schon fast alles erforscht, es seien nur noch einige unbedeutende Lücken zu schliessen.
Zum Glück ignorierte Planck die Empfehlung. Ein halbes Jahrhundert später war die klassische Physik des 19. Jahrhunderts vom Sockel gestürzt. Das 20. Jahrhundert wurde durch die Relativitätstheorie Albert Einsteins und durch die Quantenmechanik geprägt, zu der ausgerechnet Max Planck entscheidende Impulse gegeben hatte.
Die Quantenmechanik beschreibt, wie sich die Natur im Kleinen verhält, also auf der Grössenskala von Atomen. Das grenzt sie von der klassischen Physik ab, die sich mit makroskopischen Dingen beschäftigt. Schon zu Beginn des 20. Jahrhunderts mussten Physiker erkennen, dass vertraute Konzepte wie Welle oder Teilchen in die Sackgasse führen, wenn man sie auf Atome oder das Licht überträgt. Was folgte, war ein verzweifeltes Ringen um ein neues Verständnis der Natur, das 1925 schliesslich in der Formulierung der Quantenmechanik gipfelte.
Was zwischen 1900 und 1925 geschah, ist eines der spannendsten Kapitel der Wissenschaftsgeschichte. Wer es nicht glaubt, dem sei das Buch «Quantenlicht» von Thomas de Padova empfohlen, das rechtzeitig zum Quantenjubiläum erschienen ist.
Der deutsche Wissenschaftsjournalist erzählt die Geschichte der Quantenmechanik anhand der Personen, die dieser Theorie zum Durchbruch verholfen haben. Die Charaktere geben einiges her. Auf der einen Seite standen arrivierte Wissenschafter wie Max Planck, Albert Einstein oder Niels Bohr, die von ihren Schülern scherzhaft als «Bonzen» bezeichnet wurden. Auf der anderen Seite gab es junge Physiker wie Wolfgang Pauli, Werner Heisenberg oder Paul Dirac, die ihre fehlende Erfahrung mit Ehrgeiz und Genialität wettmachten. Das ergab eine brisante Mischung.
Die Väter der Quantenmechanik waren sich freundschaftlich zugetan. Aber in der Sache schenkten sie sich nichts. Davon zeugen zahlreiche Briefe aus der damaligen Zeit, aus denen de Padova ausführlich zitiert. Legendär waren zum Beispiel die Diskussionen, die Niels Bohr mit seinen Schülern führte. Nicht selten endeten sie in kollektiver Erschöpfung.
Der Autor schildert das alles sehr lebendig. Und er vergisst auch nicht, die Ereignisse politisch einzuordnen. Die Quantenmechanik entstand zu einer Zeit, die von den Nachwehen des Ersten Weltkriegs geprägt war. Deutschland war nach dem Krieg politisch isoliert. Doch in den 1920er Jahren erlebten Kunst, Kultur und Wissenschaft eine Blütezeit. Gleichzeitig nahmen in der Weimarer Republik die politischen Spannungen zu. Jüdische Wissenschafter wurden zunehmend angefeindet. Das bekam vor allem Albert Einstein zu spüren, der schon damals in Erwägung zog, Deutschland zu verlassen.
Die Väter der Quantenmechanik setzen sich über diese schwierige Situation hinweg. Was sie einte, war die Erkenntnis, dass sie nur zusammen erfolgreich sein können. Dieser unbedingte Wille zur Zusammenarbeit über alles Trennende hinweg ist heute selten geworden – auch in der Wissenschaft.
Natürlich darf in einem Buch über die Quantenmechanik auch die Physik nicht zu kurz kommen. De Padova schildert, mit welchen weltanschaulichen Problemen die Physiker zu kämpfen hatten, wie sie sich ein ums andere Mal verrannten und schliesslich doch auf den richtigen Weg fanden. So entsteht ein lebendiges Bild der goldenen 1920er Jahre der Physik.
Thomas de Padova: Quantenlicht. Das Jahrzehnt der Physik 1919–1929. Hanser-Verlag, 2024. 432 S., Fr. 41.90.
The Economist, 26 avril
Bog data : Economists don’t know what’s going on
Blame crumbling statistical offices
Full text:
The British government has launched an investigation into the Office for National Statistics. Last month the ONS found errors in some numbers that underpin its GDP calculations, and investors no longer trust its monthly jobs report. The episode hints at a wider trend: global economic data have become alarmingly poor.
Analysts are sceptical about the reliability of New Zealand’s inflation statistics. Following a botched technology update last year, no one could access data on Germany’s national-statistics website. Budget cuts meant that America stopped publishing some national-accounts data last year; a cull of bureaucrats means that more series may soon be discontinued. Western politicians do not appear to be strong-arming the nerds to produce favourable numbers. At the same time, international statistical bodies worry about the example of Dominik Rozkrut, who at the end of last year was mysteriously dismissed as Poland’s chief statistician.
These developments are muddying the economic picture. GDP revisions in the European Union are far bigger than just before the covid-19 pandemic. In 2024 America’s statisticians revised their third estimate of monthly job growth, relative to their first, by 48,000 on average—much higher than in the 2010s. Economic “surprises” in rich countries, where the reported data point either beats or falls short of analysts’ expectations, soared during the pandemic. Years later, surprises remain 30% bigger than before it.
The confusion represents a reversal of a trend. In 1941 Britain’s Parliament received estimates of national income for the first time. After the second world war, governments expanded data collection. By the 2010s anyone could answer an esoteric question—“how many sticks of chewing gum did Spain import last year?”—in seconds. (The answer: 840m.) Then, during the pandemic, “real-time data”, based on private sources, took off. The OECD began publishing a weekly GDP index; statistical offices launched real-time surveys.
Two factors have now brought progress to a halt. First, funding. America’s Bureau of Labour Statistics (BLS) has faced a real-terms cut of 20% since 2012. Other statistical offices are retrenching, having overextended during covid. One sign of this is cancelled data series. The ONS, facing real-terms cuts, has paused some work to measure family incomes and pared back statistics on well-being. Last year Spain suddenly suspended surveys on services, retail trade and consumer behaviour. With fewer surveys, producing headline estimates such as GDP becomes more difficult.
The second issue is people’s relationship with the state. The average response rate to a crucial population survey produced by the BLS has fallen from 88% to 69% in the past decade. Canadians are 15% less likely to respond to a labour-force survey than pre-covid. Over the past decade the response rate to Britain’s labour-force survey has gone from 48% to 20%.
When people deign to respond, partisanship clouds their answers. This is a particular problem in America. Just before the presidential election 42% of Democrats believed that the economy was getting better, whereas just 6% of Republicans did. Today 6% of Democrats and 53% of Republicans respond in the same manner. Surveys find that Americans’ expectations of inflation are rising. The trend is worrying, but how meaningful is it? After all, Democrats’ expectations are soaring well above those of Republicans.
Statisticians are aware of these problems. Many are looking for ways around them. Some have successfully argued for bigger budgets. But response rates remain stubbornly low, and the end of partisanship is some way off. ■
https://www.economist.com/finance-and-economics/2025/04/24/economists-dont-know-whats-going-on
The Economist, 25 avril
Schumpeter : Watch out, Elon Musk. Chinese robots are coming
Why China may win the great automaton race
Full text:
AND THEY’RE off! Well, some of them. One weak-kneed participant collapsed before the starting line. Another did so a few steps later. A third quickly ran into a railing. Still, the remaining 18 humanoid robots taking part in a Beijing half-marathon on April 19th leapt, skipped or trundled glitchlessly onto a special track in a technology park on the outskirts of the Chinese capital—and into the future. The winner crossed the finishing line in a stately two hours and 40 minutes; five more completed the 21.1km course. Some of the 12,000 human runners (the best of whom covered the distance in just over an hour) looked on, bemusedly.
A gimmick? Sure. But also an irresistible—and clearly intentional—metaphor for China’s ambition in the technological contest with America. As far as automatons that look and move like human beings go, it is one that now seems China’s to lose.
Fascination with human-like machines predates “robots”, a word coined in a 1920 play by Karel Capek (and which evokes the word for drudgery in his native Czech). Although robotic arms became widespread in manufacturing from the 1960s, it is only now that researchers can recreate human mobility in metal and, thanks to artificial intelligence (AI), human minds in silicon.
As a result, humanoid robots are at last beginning to leave the lab and enter the workplace. On April 22nd Elon Musk reasserted during an earnings call that he expects “thousands” of Tesla’s Optimus robots to be working in its electric-car factories by the end of the year. He predicted that the firm would be churning out 1m Optimuses by 2030, maybe even 2029. In January he suggested that they would one day be generating more than $10trn in annual sales for Tesla. “Like it’s really bananas,” he gushed.
Wall Street is less fruity in its enthusiasm. But only a touch. Goldman Sachs now forecasts that within a decade the market for humanoid robots could be worth $200bn, up from a bull case in 2023 of $150bn. Citigroup reckons sales may reach $7trn by 2050. Bank of America talks of 3bn humanoids by 2060, or one for every three people, doing everything from handling hazardous materials to caring for the swelling ranks of elderly H. sapiens. All three banks expect China to be at the forefront of the revolution. So does Mr Musk. He told analysts this week that, of course, he expects Tesla to be number one. But, he added, “I’m a little concerned that…ranks two through ten will be Chinese companies.”
That concern is justified. Mr Musk knows well what happens when China’s leaders go gaga for an emerging industry. In China and elsewhere Tesla’s electric-vehicle sales are crashing as Chinese challengers, nurtured on state support then left to compete among themselves, offer EVs that are cheaper, better or both.
Now the Communist Party is making a similar song and dance about humanoids, both as a matter of technological pride and, given the shrivelling working-age population, out of demographic necessity. In January robots devised by Unitree, a startup from Hangzhou, literally pranced on stage during the Spring Festival Gala, a televised state-sponsored celebration of the Chinese new year. In a speech last month Li Qiang, China’s premier, name-checked Unitree alongside DeepSeek, the national AI superstar.
That is encouraging the private sector to pile in. Unitree’s corporate backers include Meituan, an e-commerce giant. AgiBot, another humanoid startup, has attracted investments by BYD, Tesla’s main EV rival, and Tencent, a vast digital conglomerate. Huawei, China’s mightiest tech titan, is pursuing its own android dreams. UBTech, a rare listed humanoid-maker which went public in 2023 and sells its robots for around $70,000 a pop, expects to ship 500-1,000 of them this year and more than 10,000 in 2027.
On top of state support, Chinese robot-makers enjoy another, bigger advantage over rich-world rivals: a well-oiled supply chain. America retains the edge in robot brains, notably in top-notch AI models (OpenAI and Google) and the chips these need to run (Nvidia, which also provides a software platform to program robots). To keep it that way, this month President Donald Trump again tightened curbs on the export of semiconductors to China.
But China is catching up fast in machine thinking. DeepSeek has shown that Chinese algorithms are clever and can do without fancy chips (a day after America’s new restrictions came to light Nvidia’s boss, Jensen Huang, flew to Beijing in a show of commitment to Chinese customers). Meanwhile, Chinese firms dominate the manufacture of components for machine bodies.
Androids dream of electric hips
Of the 60 or so listed makers of robotic eyes (ie, cameras and sensors) and hands, muscles and joints (actuators), 48 are Chinese. Their combined market value of $217bn is up by 56% since September, even after the stockmarket rout provoked by Mr Trump’s tariffs. In the past year 12 had sales exceeding $1bn, compared with just two of their dozen non-Chinese rivals. That is not counting CATL, the world’s leading maker of electric stomachs (batteries). Bank of America says this supply chain will help halve the cost of materials in a Chinese humanoid by 2030, to $17,000.
What about America? A $20,000 robot replacing the typical American factory worker would pay for itself in less than two months, thinks Citigroup. Sadly for the country’s manufacturers, making the gubbins at scale domestically would be costlier, for it means starting from scratch.
This would matter less if Mr Trump were not hacking off allies in Asia and Europe, whose firms already make sundry robotic bits and bobs. The two big non-Chinese parts-suppliers are German (Schaeffler) and Swedish (SKF); Japanese industrial-robot firms like Fanuc make components in-house and could be persuaded to sell them. With their help, America could give Chinese humanoids a run for their money. Alone, it risks being lapped. ■
https://www.economist.com/business/2025/04/24/watch-out-elon-musk-chinese-robots-are-coming
IREF, 25 avril
Les internautes optent pour Google par choix, pas par obligation
Full text:
« Google est un monopole et il a agi comme tel pour maintenir son monopole. » Telle était la conclusion d’un tribunal fédéral, en août 2024, à l’issue du procès États-Unis contre Google, la plus importante affaire antitrust intentée par le gouvernement américain depuis des décennies. Une nouvelle procédure a commencé contre Google le lundi 21 avril. Elle concerne les dommages et intérêts que la société devrait payer pour, selon les procureurs, « réparer efficacement les dommages causés par des décennies de mauvaise conduite de Google. » La justice lui reproche de profiter d’un monopole. Depuis de nombreuses années, Google utiliserait une série d’accords qui en font le moteur de recherche par défaut sur la plupart des téléphones et navigateurs web aux États-Unis. Grâce à ce monopole, des milliards de requêtes de recherche s’orientent vers Google chaque jour, « privant ses concurrents des données nécessaires à une concurrence efficace et créant des barrières à l’entrée ». Google aurait acquis un monopole sur la recherche et la publicité sur Internet (la justice veut forcer Google à vendre son navigateur Chrome), captant près de 90 % des requêtes de recherche générale sur Internet aux États-Unis et près de 95 % sur les appareils mobiles.
Le problème, c’est que personne n’oblige les utilisateurs à choisir Google, ils le font parce qu’ils en ont envie. La décision de justice, en revanche, contraindrait les navigateurs et les téléphones à utiliser par défaut des services de recherche que ces mêmes utilisateurs n’ont pas demandés. La décision de justice obligerait Google à partager les requêtes de recherche les plus sensibles et privées avec des entreprises dont on n’a peut-être jamais entendu parler, mettant ainsi en péril et la vie privée, et la sécurité. Des informations personnelles pourraient arriver à des entreprises ne bénéficiant pas des protections de pointe dont peut se targuer Google, et elles pourraient être exploitées par des acteurs malveillants. Il est aussi question d’un comité qui veillerait à la réglementation, à la conception et au développement des produits Google. Ce n’est pas à l’administration de se mêler d’innovation, encore moins au moment où l’on assiste au boom de l’IA. Google est à la pointe de l’innovation, elle offre des services et des produits gratuits. Punir cette entreprise, ce serait non seulement punir les milliards de consommateurs qui l’utilisent, mais aussi mettre en danger son avenir et faire gagner les Chinois dans la course aux nouvelles technologies.
Frankfurter Allgemeine Zeitung, 23 avril
Therapiefortschritte: Frische Zellen für Parkinsonpatienten
Zellersatz fürs Gehirn: Stehen bald Stammzellen für die Behandlung der unheilbaren Parkinsonkrankheit zur Verfügung? Zwei wegweisende Studien zur Sicherheit des Verfahrens wecken Hoffnung.
Full text:
Mehr als zwanzig Jahre lang schwelt diese medizinische Hoffnung schon, jetzt ist eine wichtige Hürde offenbar genommen. Das Ziel lautet: Morbus Parkinson, eine der häufigsten Formen des Hirnabbaus, rückgängig zu machen, indem verloren gegangene Nervenzellen im Gehirn durch implantierte, funktionstüchtige Zellen ersetzt werden. Zwei Forschungsteams haben unabhängig voneinander wertvolle neue Daten aus klinischen Studien geliefert.
Bei Parkinsonpatienten sterben in bestimmten Regionen sukzessive Nervenzellen im Gehirn ab – und zwar solche, die den Botenstoff Dopamin produzieren. Dieser ist wichtig für die Steuerung von Bewegungsabläufen, er beeinflusst die Motivation und das Belohnungssystem. Wieso die dopaminproduzierenden Zellen im Einzelfall zerstört werden, bleibt oft unklar. Es werden viele Ursachen diskutiert – neben genetischen dürften auch Umweltfaktoren oft eine wichtige Rolle spielen. In der Folge dieser Hirndegeneration werden Hirnsignale nicht mehr weitergeleitet, und Bewegungsstörungen wie Steifheit und Zittern entwickeln und verschlimmern sich. Viele Patienten erhalten inzwischen durch eine tiefe Hirnstimulation mit Elektroden ins Gehirn eine Zeit lang eine gewisse Linderung. Medikamente, die Dopamin ersetzen, können den Abbau vor allem am Anfang zeitweise aufhalten. Sie lindern, wenn die Patienten gut eingestellt sind, die Symptome. Sie wirken aber nicht auf Dauer und können Nebenwirkungen verursachen.
Stammzelltherapie als sichere Alternative?
Deshalb setzt die Forschung seit Ende der Achtzigerjahre und dem Aufstieg der Stammzellen als möglicher Zellersatz auf neue Optionen: Aus den Stammzellen sollen im Labor neue, funktionale Hirnzellen und Nervenvorläuferzellen gewonnen werden, die anschließend ins Gehirn der Patienten transplantiert werden könnten. Erste Transplantationen in den Achtzigerjahren zeigten jedoch vor allem Nebenwirkungen wie Dyskinesien – unangenehme, unwillkürliche Muskelbewegungen. Außerdem wurden die Nervenzellen damals aus fötalem Gewebe gewonnen, was ethisch bedenklich ist und nur wenige Zellen liefert. Das erste Ziel war deshalb, funktionstüchtige, aber vor allem sichere Zellquellen zu finden, die es ermöglichen, mehr Zellen zu erzeugen, sagt Frank Edenhofer vom Institut für Molekularbiologie der Universität Innsbruck.
In den zwei nun in „Nature“ erschienenen Studien wird die Sicherheit von Zelltransplantaten getestet, die aus unterschiedlichen Stammzelltypen hergestellt und anschließend auf Patienten im fortgeschrittenen Stadium getestet wurden. Als Ausgangszellen dienten der einen Gruppe die seit der ersten Gewinnung aus künstlich erzeugten frühen Embryonen kultivierten embryonalen Stammzellen. Das andere Forscherteam verwendete Transplantate, die aus sogenannten induzierten – sprich: im Reagenzglas aus gewöhnlichen Körperzellen erzeugten, pluripotenten – Stammzellen (iPS) hergestellt wurden. Im Entwicklungspotential ähneln sich die beiden Stammzelltypen.
Sicher, aber nicht vollkommen unbedenklich
In der ersten, einer klinischen Phase-1-Studie von Forschern aus den USA und Kanada um Viviane Tabar vom Memorial Sloan Kettering Cancer Center in New York kamen Zellprodukte aus embryonalen Stammzellen zum Einsatz, die eine Vorstufe von Dopamin-produzierenden Nervenzellen darstellen. Diese aufgereinigten Zellen wurden in das Gehirn von zwölf Parkinsonpatienten transplantiert, und zwar direkt in das betroffene Kerngebiet des Großhirns, das Putamen. Dabei erhielten fünf Personen eine vergleichsweise niedrigere Dosis mit rund einer Millionen Zellen, sieben Patienten ein größeres Zelltransplantat mit dreimal so vielen Nervenzellen. Alle Patienten bekamen zudem für ein Jahr eine Immunsuppression, um eine Abstoßungsreaktion gegenüber den fremden Zellen im Gehirn zu minimieren.
Über 18 Monate hinweg beobachteten die nordamerikanischen Wissenschaftler die Patienten und untersuchten dabei die Sicherheit der Behandlung: Sie konnten weder schwere Nebenwirkungen noch Tumore nachweisen. Die Immunsuppression führte bei einige Patienten zu Übelkeit und Gelenkschmerzen. Radiologische Bildgebung, die Positronenemissionstomographie (PET), ergab, dass die neuen Nervenzellen überlebten und Dopamin produzierten.
An Parkinson beteiligte Regionen des Gehirnsdpa
Die Forscher schätzten außerdem die Schwere der Parkinsonsymptome ein. Es zeigte sich, dass sich insbesondere die Patienten, die die höhere Zelldosis bekommen hatten, nach der Therapie etwas besser bewegen konnten. „Außerdem wurden keine transplantatbedingten Störungen des Bewegungsablaufes beobachtet, wie sie zuvor bei der Transplantation von fetalen Zellen berichtet worden waren“, ergänzt Edenhofer, der selbst nicht an der Studie beteiligt war. „Diese Daten zeigen, dass die Behandlung sicher und gut verträglich war.“
Doch embryonale Stammzellen für die Therapie zu nutzen, wäre in vielen Ländern, nicht zuletzt in Deutschland, umstritten. Die in der Studie genutzten Zelllinien waren aus IVF-Behandlungen übrig und wurden von den betroffenen Paaren zur Forschung gespendet. Tabar und ihre Kollegen nutzen eine seit Längerem bereits existierende Zelllinie, sie mussten also keine neuen Zellen gewinnen. Die Studie wurde zusammen mit der Bayer-Tochter Bluerock Therapeutics durchgeführt.
Positive Effekte auch in zweiter Studie
Die Wissenschaftler der zweiten Studie, einer Phase-2-Studie, wählten mit den iPS eine ethisch weniger umstrittene Stammzellquelle. Das Team aus Japan nutzte Blutzellen von einem gesunden Spender. Diese wurden im Labor zu den iPS-Zellen umprogrammiert, die dann als Ausgangssubstrat für den Zellersatz dienen.
Nobukatsu Sawamoto und sein Team von der Kyoto University Graduate School of Medicine stellten daraus ähnlich wie in der ersten Studie Vorläufer von Dopamin-produzierenden Nervenzellen her. Insgesamt sieben Patienten erhielten diese Zellen ebenfalls ins Putamen, drei davon in niedriger Dosierung. Die Patienten bekamen eine fünzehnmonatige Immunsuppression und wurden über zwei Jahre wissenschaftlich beobachtet.
„Die Therapie wurde im Wesentlichen gut vertragen“, fasst Paul Lingor von der Klinik für Neurologie am Klinikum Rechts der Isar der Technischen Universität München die Ergebnisse der Japaner zusammen. „Bei einem Patienten kam es zu Dyskinesien, weitere berichteten von Nebenwirkungen der Immunsuppression.“ In der Bildgebung konnte man innerhalb der zwei Jahre keine Tumore entdecken, die Symptome der Patienten verbesserten sich leicht.
Wirksamkeit noch unklar
Die Ergebnisse deuten den unabhängigen Experten zufolge an, dass die Transplantate mit beiden Ausgangszellen sicher und verträglich sind. Jedoch lässt sich längst nicht sagen, ob und wie wirksam die transplantierten Nervenzellen sind. Denn keine der Studien analysierte die Wirksamkeit der Therapie, sondern vorrangig die Sicherheit. Wie sich die Symptome verbesserten, wurde nicht mit objektiven Messmethoden wie digitaler Bewegungsanalytik untersucht. Lingor betont, dass Aussagen zur Wirksamkeit deshalb nicht überinterpretiert werden sollten.
„Es liegen über 18 Monate beziehungsweise 24 Monate hinaus keine Langzeitdaten vor“, ergänzt Frank Edenhofer. Langzeitstudien seien aber wichtig, um zum Beispiel besser einschätzen zu können, ob sich auch später noch Tumore bilden. Außerdem wurde nur eine begrenzte Zahl von Patienten in den Studien behandelt. Wie bei frühen klinischen Untersuchungen gab es keine Kontrollgruppe, und alle Beteiligten wussten, wer die Behandlung erhält.
Ob Ärzte ihre Parkinsonpatienten irgendwann mit solchen Transplantaten behandeln, wird erst nach weiteren Studien geklärt werden können. Der chirurgische Eingriff muss am Ende für den jeweiligen Patienten auch bei bestehenden Risiken einen Nutzen versprechen. Für welche Patienten das zutrifft, ist noch unklar. Lingor betont außerdem, dass die Zelltransplantation nichts an der Grunderkrankung ändert, der Zellabbau gehe weiter. „Eine Heilung der Parkinsonerkrankung stellen diese Therapien nicht dar, aber sie könnten signifikant zu einer längeren guten Lebensqualität beitragen.“
The Wall Street Journal, 22 avril
Do Food Stamps Make People Fat?
The government shouldn’t subsidize soda and candy, which have no nutritional benefit whatever.
Full text:
American waistlines have ballooned in tandem with government welfare. Is there a connection? Studies show people on food stamps eat less healthily than other low-income Americans.
Now governors in Indiana, Arkansas and Idaho want to conduct real-world experiments by asking the U.S. Department of Agriculture for waivers to exclude soda, candy and other sweets from the Supplemental Nutrition Assistance Program—i.e., food stamps.
Cue the protests from so-called antihunger groups on the left, which have made common cause with the candy and beverage industries. In their telling, it’s unfair to “punish” lower-income folks by barring them from using government handouts to purchase sugary treats.
But nobody is being punished. Recipients could still buy a Kit Kat or a Coke with cash. The states’ experiment will test whether the restrictions might nudge recipients to eat better. Would candy and soda manufacturers be screaming from the rooftops if they didn’t think this might plausibly be a result?
Soda and sweets aren’t the only causes of obesity, but they are major sources of empty calories. The stated purpose of the food stamp program is to support “nutrition.” Are Skittles nutritious?
Alcoholic drinks, which you can’t buy with food stamps, at least have some demonstrated cardiovascular benefits. Soft drinks and candy have no health upside. They create pleasure by triggering a release of dopamine in the brain, but this can lead to overindulgence and cravings when the sugar high ebbs. They can thus lead people to consume more calories than they otherwise would.
Call it a diet-multiplier effect. A soda once in awhile won’t give you diabetes or pile on the pounds, but having one every day can add up. While such ultraprocessed foods aren’t literally “poison,” as Robert F. Kennedy Jr. calls them, they aren’t good for you. Why should government pay for them?
Democrats deceptively labeled food stamps the “Supplemental Nutrition Assistance Program” in 2008 to increase public support. But for far too many Americans, food stamps aren’t supplementing earned income. They are supplementing other government programs.
The U.S. boasts more than a dozen “nutrition,” programs including free school lunches and the WIC program for low-income pregnant women, infants and children. The Biden administration even allowed states to spend federal Medicaid dollars on “nutritious” meal deliveries. This seems a tacit admission that food stamps aren’t paying for nutritious foods.
Studies bear that out. More food-stamp money is spent on soda and sweets than fruits, vegetables, eggs, pasta, beans and rice combined, according to a report by the Foundation for Government Accountability. Sweetened beverages and candy alone account for 11% of food-stamp spending. A 2018 study in the Journal of the American Medical Association examined diet quality of food-stamp beneficiaries and people of similar incomes who didn’t receive the handouts from 2003 to 2014. Nonbeneficiaries ate better than beneficiaries, and their diets improved more over time.
USDA studies show that working-age adults on food stamps consume more added sugars and refined grains, and less fruit and vegetables, than nonrecipients with similar demographics. They are also more likely to have severe hypertension and low levels of “good” cholesterol. Women on food stamps in particular have much higher obesity and diabetes rates.
Does this prove that food stamps make people fat? Well, no. People who subsist on government payments may be less health-conscious. On the other hand, it’s plausible that when government gives people more money to spend, they buy more junk. (Food stamps may also free up more money in household budgets to buy tobacco, alcohol and other unhealthy products.)
America doesn’t have a “hunger” problem. About three-quarters of adult food-stamp beneficiaries are overweight or obese. Only 3% are underweight. More Americans of all income levels die from illnesses caused by overindulgence than by hunger. Yet the government keeps subsidizing more people to eat more junk.
Over the past 15 years, food-stamp enrollment has swelled as eligibility standards eased through waivers of work requirements while Congress and the USDA boosted payments. There are now 50% more people on food stamps than in 2008, and payments have nearly tripled.
In 2021 the Biden administration boosted allotments by 27% on average based on the rationale that—get this—Americans need to consume more calories because they are fatter. The costs of poor diet are socialized through government and private insurance. Taxpayers pick up the tab via Medicaid, and healthy people have to pay higher insurance premiums.
Zooming out, the bigger problem is that government encourages indulgent and indolent behavior. You don’t have to work to qualify for most welfare programs, and if you work too much, you lose eligibility. Members of both parties lack the appetite to shrink bloated entitlements. Democrats are protesting even modest trims to Medicaid spending on able-bodied adults.
No single program is to blame for the government’s $36.7 trillion debt. Spending adds up like calories and pounds, and America would be healthier and more prosperous if Washington went on a diet.
Frankfurter Allgemeine Zeitung, 22 avril
Ungesunde Ernährung: Wir futtern uns zu Tode
Zu zuckrig, zu salzig, zu verarbeitet: Fachleute warnen schon lange vor den Folgen unserer Ernährung. Doch während es anderswo Zuckersteuern und Werbeverbote gibt, setzt Deutschland auf Freiwilligkeit.

Full text:
Eigentlich war es noch nie so leicht wie heute, sich gesund zu ernähren. Selbst beim Discounter gibt es frisches Gemüse, Lebensmittel-Ampeln zeigen den Nährwert von Produkten an, und jeder kann mit Apps seine Kalorien zählen. Es war aber auch noch nie so schwer. An jeder Ecke steht eine Dönerbude, Tiefkühlpizzas sind günstiger als die Zutaten für einen frischen Salat, und abends bringt der Lieferservice gebratene Nudeln und Burger bis an die Haustür.
Da ist es fast überraschend, dass nur die Hälfte der Deutschen zu dick ist. Dafür ist jeder Vierte gefährlich fettleibig, und auch jedes sechste Kind wiegt zu viel. 2050 könnte es ein Drittel aller Kinder sein. Die Zahl der zuckerkranken Kinder, die vor ihrem 19. Geburtstag an „Altersdiabetes“ erkranken, hat sich seit 2002 verdreifacht. Auch später ist Adipositas mitverantwortlich für Herzleiden, Bluthochdruck, Schlaganfälle und Krebs. Das kommt die Gesellschaft teuer zu stehen. Nach einer Studie der Universität Hamburg belaufen sich die Kosten durch Adipositas auf 63 Milliarden Euro – pro Jahr.
Immer mehr Menschen sind aber nicht nur zu dick, sondern gleichzeitig mangelernährt. Zahlen aus Deutschland gibt es dazu nicht, aber in den USA leidet rund die Hälfte der Menschen mit Adipositas an einem Nährstoffmangel. Das liegt in den Augen vieler Mediziner und Ernährungsexperten nicht nur am Zucker, sondern auch am übermäßigen Verzehr hochverarbeiteter oder „ultraprozessierter“ Lebensmittel.
Zucker, Farbstoff, Stabilisatoren
Nicht nur Kartoffelchips, Tiefkühlpizza, Eiscreme und gesüßte Limonaden oder Eistees gehören dazu, sondern auch Wurst, Frühstücksflocken, Säfte und Fruchtjoghurts. Hochverarbeitete Lebensmittel machten in Deutschland schon Anfang der 2000er-Jahre die Hälfte aller täglichen Kalorien aus.
In gigantischen Maschinen produziert die Industrie Lebensmittel, die man selbst so nie herstellen könnte. Rohstoffe werden erst in ihre Bestandteile zerlegt und dann neu zusammengemischt. Sie werden hocherhitzt, sprühgetrocknet, aromatisiert. Kartoffelchips werden „hyperschmackhaft“ gemacht, indem ihnen gesättigte Fettsäuren, Konservierungsmittel, Aromen, Salz und Zucker beigemischt werden. In Laboren kann ausgeklügelt werden, welcher Chemiecocktail für uns nach „Pumpkin Spice“ riecht und wie die Chipstüte rascheln muss – damit man möglichst viel isst.
Selbst die Textur der Lebensmittel wird so gestaltet, dass man kaum noch kauen muss. Naturjoghurt mit frischen Erdbeeren ist eine Vitaminbombe. Industriell hergestellter Erdbeerjoghurt enthält Zucker, Farbstoffe, Stabilisatoren, Säuerungsmittel, Aromastoffe. Und bloß Spuren von Erdbeeren.
Wie genau hochprozessierte Lebensmittel auf den Körper wirken, verstehen Wissenschaftler erst langsam. Studien legen aber nahe, dass Chips oder hochverarbeitete Wurst chronische Entzündungen hervorrufen können. Auch stören sie offenbar den Stoffwechsel, die Körperzellen reagieren dann nicht mehr richtig auf das Hormon Insulin, das dafür sorgt, dass Zucker aus dem Blut aufgenommen werden kann.
Wer viel Hochprozessiertes zu sich nimmt, hat nach Studien ein höheres Risiko für Diabetes, Herz-Kreislauf-Erkrankungen, Schlaganfälle oder Darmkrebs – und leidet eher an Schlafstörungen und Depressionen. Im Alter können hochprozessierte Lebensmittel womöglich sogar den geistigen Verfall beschleunigen und die Demenzgefahr steigern.
Manche Forscher glauben zudem, dass hochprozessierte Lebensmittel körpereigene Signalwege schwächen, die für das Sättigungsgefühl sorgen. So wird nach einer Fertiglasagne weniger vom Peptid YY ausgeschüttet, das satt macht.
Wer täglich fettige und süße Snacks isst, will immer mehr
Nicht nur überzuckerte, auch ultraprozessierte Lebensmittel verleiten uns also dazu, mehr zu essen, als wir sollten. Für eine Studie aßen 20 Freiwillige zwei Wochen lang frisches Essen, dann zwei Wochen fast nur Hochverarbeitetes wie Blaubeermuffins oder Dosenravioli. Die Mahlzeiten lieferten jeweils dieselben Kalorien – dennoch waren die Teilnehmer unter der hochprozessierten Diät noch hungrig und aßen täglich rund 500 Kalorien mehr.
Wenn die Studienteilnehmer im Gehirnscanner lagen und dabei einen Milchshake schlürften, waren Hirnareale besonders aktiv, die als Teil des Belohnungssystems unser Verhalten steuern und bei der Entstehung von Sucht entscheidend sind. Diese Nervenzellen feuern auch, wenn wir uns durch soziale Medien klicken, shoppen oder Drogen nehmen. Wenn man täglich fettige und süße Snacks isst, verändert sich das Belohnungssystem, wie eine Studie zeigte: Man will immer mehr.
Viele Länder haben die Gefahren, die von überzuckerten und hochprozessierten Lebensmitteln ausgehen, längst erkannt – und reagiert. In Großbritannien schmeckt eine Fanta weniger süß als in Deutschland, weil dort seit 2018, wie in mehr als fünfzig anderen Ländern, eine Zuckersteuer auf süße Getränke gilt. Limos oder Eistees enthalten nun 44 Prozent weniger Zucker, weil die Unternehmen die Steuer umgehen wollen.
Britische Kinder nehmen pro Tag durchschnittlich fünf Gramm weniger Zucker zu sich als davor; Forscher berichten, die Steuer habe Tausende Adipositas-Fälle verhindert. Auch in der amerikanischen Stadt Philadelphia ist der Durchschnitts-BMI drei Jahre nach der Einführung einer Zuckersteuer leicht gesunken.
Ein anderes Instrument nutzt Dänemark: Hier sind seit 2003 Transfette verboten, also industriell gehärtete Fette, die in Fast Food oder Fertigbackwaren stecken und die Blutgefäße schädigen. Das hat zu einem signifikanten Rückgang der Todesfälle durch koronare Herzkrankheiten geführt. In Mexiko hat der Versuch einer „Junk Food“-Steuer 2014 immerhin dazu geführt, dass fünf Prozent weniger hochkalorische Snacks wie Chips verkauft wurden. Seit Kurzem darf in mexikanischen Schulen kein Junk Food mehr angeboten werden.
Deutschland ist von solchen Maßnahmen weit entfernt, hier setzt man auf Freiwilligkeit statt auf Gesetze. 2018 hat das Bundesernährungsministerium unter Julia Klöckner von der CDU mit der Lebensmittelindustrie eine „Nationale Reduktions- und Innovationsstrategie“ für weniger Zucker, Fett und Salz in Fertigprodukten beschlossen. Darin wurde unter anderem vereinbart, den Zuckergehalt von Softdrinks bis 2025 um 15 Prozent zu senken. Laut dem Max-Rubner-Institut, das den Erfolg der Strategie überwacht, reduzierte die Industrie Zucker, Fett und Salz in einigen Produktgruppen zwar anfangs tatsächlich, ließ dann aber schnell wieder nach.
Eder: Die Politik ist bei Regulierungen scheu geworden
So ist der Zuckergehalt in Softdrinks nach einer Studie der Deutschen Allianz Nichtübertragbare Krankheiten, der Ludwig-Maximilians-Universität München und der Technischen Universität München zwischen 2018 und 2023 nur um zwei Prozent gesunken. Der Lebensmittelverband Deutschland verweist hingegen auf „erhebliche Erfolge“ bei vielen Produkten. Auch sei die Reduktion von Zucker, Fett und Salz oft „technologisch schwierig und nicht grenzenlos umsetzbar“, sagte Hauptgeschäftsführer Christoph Minhoff der F.A.S. Schließlich müssten die Produkte schmecken und sicher sein.
Im vergangenen Juli forderten neun von sechzehn Bundesländern die Bundesregierung auf, eine Steuer auf besonders zuckerhaltige Getränke wie in Großbritannien zu prüfen. In der Ampel scheiterte das vor allem an der FDP, doch selbst vehemente Befürworter einer „Zuckersteuer“ argumentieren mittlerweile auffallend leiser. „Die Politik ist sehr scheu geworden, was Regulierungen anbelangt“, gibt die grüne Umweltministerin Karin Eder aus Rheinland-Pfalz zu, die auch für den Verbraucherschutz zuständig ist. Eine isolierte Zuckersteuer, glaubt sie, würde die Menschen nur noch mehr gegen die Politik aufbringen, von der sie sich ohnehin bevormundet fühlten. „Wir brauchen eine Reform des gesamten Mehrwertsteuer- und des Ernährungssystems“, sagt Eder. Gesunde Lebensmittel müssten günstiger werden – und ungesunde „perspektivisch“ teurer.
Auch der Bundestagsabgeordnete Janosch Dahmen von den Grünen sieht höhere Steuern auf einzelne Produkte kritisch. Er würde lieber Unternehmen danach besteuern, wie viel Zucker, Salz oder Zusatzstoffe sie insgesamt verarbeiten. Das, glaubt er, würde in der ganzen Industrie den Anreiz erhöhen, auf schädliche Inhaltsstoffe zu verzichten. Die Ernährungsindustrie sei mit ihren Produkten „substanziell“ für die hohe Krankheitslast in Deutschland verantwortlich. Deshalb müsse sie stärker zur Verantwortung gezogen werden, so Dahmen.
Der Lebensmittelverband lehnt das ab. Steuern auf einzelne Lebensmittel oder Nährstoffe seien „ineffektiv, wettbewerbsverzerrend und sozial ungerecht“, sagte Hauptgeschäftsführer Minhoff. Außerdem widersprächen sie dem „Prinzip des mündigen Bürgers“.
Die Berliner Verbraucherschutzsenatorin Felor Badenberg von der CDU warnt ebenfalls davor, die Industrie „zu sehr zu belasten“. Sie schlägt einen Deal vor: Die Politik entlastet die Unternehmen bei der Bürokratie, dafür sparen diese beim Zucker, um eine höhere Besteuerung zu vermeiden. „Wenn man Bürokratieabbau und Lenkungspolitik so verknüpfen würde, wäre die Akzeptanz viel größer, als wenn man jetzt wieder mit der nächsten Besteuerungsidee für einzelne Lebensmittel um die Ecke kommt.“
Dahmen: Wir überschätzen die Wirksamkeit von Verhaltensprävention
Viele Gesundheitspolitiker halten noch etwas anderes für überfällig: ein Verbot der „Quengelware“ an den Kassen – und ein Werbeverbot für ungesunde Lebensmittel. Denn gerade Kinder sind eine leichte Beute für die Industrie. Im Schnitt sehen sie in Deutschland jeden Tag 15 Werbespots für ungesunde Lebensmittel, leicht verpackt mit Comicfiguren und lustigen Liedchen. Wie sich Werbeverbote auswirken würden, lässt sich nur schwer beziffern. Aber es gibt Indizien.
Im kanadischen Bundesstaat Quebec gilt seit 1980 ein striktes Verbot von Süßigkeitenwerbung, die sich an Kinder unter 13 Jahren richtet. Nach Studien geben französischsprachige Familien seither 13 Prozent weniger Geld für Schokolade, Happy Meals oder Puddings aus. Auch in England gilt von Oktober an ein Werbeverbot – nicht nur für Süßigkeiten, sondern für alle als ungesund eingestuften Lebensmittel. Im Fernsehen dürfen dann vor 21 Uhr keine Spots mehr für Junkfood oder süße Joghurts gezeigt werden, aus dem Internet soll die Werbung ganz verschwinden. Die Regierung glaubt, dass so 20.000 Kinder vor Adipositas bewahrt werden können. Ein solches Werbeverbot hatte auch der scheidende Bundesernährungsminister Cem Özdemir von den Grünen vergeblich vorgeschlagen.
In Deutschland, wo Lenkungspolitik von vielen gleich als Eingriff in die Privatsphäre begriffen wird, setzt man eben lieber auf den „mündigen Bürger“ – und auf eine bessere Ernährungsbildung. Viele Bundesländer versuchen mit Projekten in Schulen und Kitas schon den Jüngsten beizubringen, wie man sich gesund ernährt. Das sei wichtig, glaubt auch der Grüne Dahmen – aber nicht genug.
Dahmen sagt, in keinem westeuropäischen Land werde die Wirksamkeit von Verhaltensprävention so überschätzt wie hierzulande. Dabei sei das naiv: den Menschen gut zuzureden und darauf zu hoffen, dass sie von selbst geläutert werden. So werde es mit der Ernährungspolitik aber auch in der großen Koalition weitergehen, fürchten Gesundheitspolitiker: Viel Betroffenheit, wenig Druck. Schon gar nicht auf die Industrie.
Le Figaro, 19 avril
À l’hôpital, les pédopsychiatres face aux ravages de l’addiction aux écrans
REPORTAGE – Interdiction des réseaux sociaux avant 15 ans ? Des portables à l’école ? Clara Chappaz, ministre chargée du Numérique, s’est rendue à l’Hôpital Robert-Debré pour évaluer ces différentes pistes.
Full text:
Il est huit heures du matin, ce jeudi, et les longs couloirs blancs ornés de fresques du service de psychiatrie de l’enfant et de l’adolescent sont plongés dans le silence. « Tous les enfants sont encore en train de dormir, et c’est ce qui peut leur arriver de mieux, commente un médecin de cette unité de l’Hôpital Robert-Debré, fleuron de la pédiatrie, à Paris. On essaie de respecter leur rythme au maximum. » Idées suicidaires, conduites autoagressives, cyberharcèlement : ici, sont soignés des jeunes « addicts » aux écrans, aux substances, ou parfois aux deux. Faut-il interdire totalement les écrans avant 3 ans ? À l’école ? « Rompre la lune de miel entre les enfants et le numérique », comme le préconise un rapport remis il y a un an au chef de l’État ? Devant la ministre déléguée chargée de l’Intelligence artificielle et du Numérique, Clara Chappaz, les experts de l’hôpital parisien se montrent plus mesurés : « Plutôt éducation qu’interdiction », plaident-ils.
Bas du formulaire
« L’usage des réseaux sociaux , c’est la question que les parents nous posent systématiquement, pointant “la responsabilité de TikTok ” dans le mal-être de leur enfant, rapporte le Dr Vincent Trebossen, pédopsychiatre. On leur donne des conseils, mais aujourd’hui, on n’a pas de connaissances assez précises sur l’impact des réseaux sociaux sur le développement cognitif de l’enfant. Un ado déprimé va passer plus de temps sur les réseaux, et ceux-ci peuvent mener à la dépression… C’est pour cela que nous voulons, à terme, infiltrer ces réseaux sociaux. Il existe d’ailleurs déjà des initiatives de jeunes qui y montent des groupes de soutien pour s’entraider entre pairs. Guider les influenceurs vers les bonnes pratiques aurait aussi un effet vertueux. »
Psychiatre, le DrEmmmanuelle Peyret se souvient de ces jeunes « Hikikomori », un syndrome venu du Japon : « Des gamins qu’on était obligé d’aller voir chez eux car ils ne sortaient plus, raconte-t-elle. Déscolarisés, pour la plupart obèses, complètement déstructurés dans leur mode de vie. C’est heureusement très rare, mais ça peut aller très loin ! Depuis deux ans, on est confrontés autant à l’addiction aux écrans qu’à celle aux produits. On a aussi une grave problématique de prostitution chez les très jeunes filles, parfois dès 11 ans ! Elles sont harcelées, toutes les minutes, elles reçoivent une notification sur Snapchat ! »
« Des parents en demande de règles claires »
Alors que l’on constate « une hausse de 40 % des troubles anxieux chez les adolescents très connectés », que « 60 % des 11-12 ans ont déjà vu des contenus violents ou pornographiques », le rapport de la commission Écrans recommande une interdiction des écrans avant 3 ans et un cadre progressif structuré jusqu’à 17 ans. La ministre déléguée Clara Chappaz, qui a fait de « la protection des mineurs en ligne une priorité », a souhaité aller à la rencontre « des personnes qui sont en première ligne : soignants, enquêteurs, chercheurs », pour l’aider à « avancer dans (sa) réflexion politique ».
Il faut plutôt être dans la guidance parentale. La clé, c’est aussi l’échange que l’on va avoir avec l’enfant
Dr Vincent Trebossen
« J’ai rencontré pas mal de parents en demande de règles claires, fait valoir Clara Chappaz. “On est tellement dépassés”, me disent-ils, que ce serait bien si on pouvait dire à nos enfants que c’est interdit. Ça permettrait de faire descendre la pression à la maison. » Une mesure qui ne convainc guère les soignants. « Il faut plutôt être dans la guidance parentale, suggère le Dr Vincent Trebossen. La clé, c’est aussi l’échange que l’on va avoir avec l’enfant. » Un « conseil très simple et efficace » serait de demander à « toute la famille » de « poser son portable le soir dans un panier ». Car il s’agit de ne pas donner le mauvais exemple, avertit le Dr Sylvie Derobert, spécialisée en addictologie périnatale, qui voit « des jeunes mamans allaiter, un œil sur leur smartphone ». Un psychologue complète : « Si l’utilisation des écrans est comprise dans un ensemble de stimulations, et que le contenu est en rapport avec les besoins de l’enfant, il y a des chances que ça se passe bien… »
Interdire les réseaux sociaux avant 15 ans ? Instaurer une « pause numérique » dans tous les lycées dès la rentrée prochaine, comme le demande la ministre de l’Éducation, Élisabeth Borne ? Là non plus, les experts ne valident pas. « C’est plutôt un échec de bannir les matières addictives !, répond un soignant. Un jeune trouve toujours un moyen pour contourner l’interdiction. En hospitalisation, les ados ont souvent deux téléphones : celui qu’ils confient à l’entrée, et celui qu’ils gardent en cachette… Pour moi, c’est un non-sens de leur demander de déposer leur téléphone dans un casier à l’école. »
L’exemple australien
Harcèlement, troubles du sommeil, consommation d’écrans… Comment atteindre ces parents, ces enseignants, tant demandeurs de conseils ? Créé après le Covid et ses confinements, le site CléPsy propose aujourd’hui gratuitement quelque 200 fiches en ligne, écrites par des experts. « L’année dernière, on a eu un million de nouveaux visiteurs, se félicite Nesrine Bouchlaghem, psychologue clinicienne. Environ 90.000 utilisateurs se connectent chaque mois. Des Français mais aussi des francophones du monde entier ! »
Plusieurs pays ont déjà pris des mesures fermes pour limiter l’utilisation des outils numériques. En novembre dernier, l’Australie a interdit l’accès aux réseaux sociaux aux moins de 16 ans, mettant en place l’une des réglementations les plus strictes au monde. L’Espagne suit la même voie. En Norvège, le gouvernement souhaite fixer un âge minimum de 15 ans. En Chine, l’accès des mineurs est restreint depuis 2021, avec une identification via un document d’identité : les moins de 14 ans ne peuvent passer plus de 40 minutes par jour sur Douyin, la version chinoise de TikTok, et le temps de jeu en ligne des enfants est limité.
Première victoire : le tribunal administratif de Paris a validé le blocage du site Camschat par l’Arcom pour non-respect de la vérification d’âge
Clara Chappaz, ministre
En 2011, la Corée du Sud avait adopté une loi dite « Cendrillon » qui prévoyait de bloquer l’accès aux jeux en ligne aux moins de 16 ans de minuit à 6 heures du matin, afin, notamment, d’éviter la fatigue à l’école. Mais le gouvernement est revenu sur cette décision dix ans plus tard, remplaçant ce texte par une « loi sur la fermeture sélective » permettant aux parents ou aux enfants eux-mêmes d’imposer des restrictions. Seuls 0,01 % des utilisateurs, semble-t-il, ont recours à ce système…
En France, une loi votée en 2023 a instauré une majorité numérique à 15 ans, mais elle n’est toujours pas entrée en vigueur. Une mesure approuvée par 73 % des Français selon le baromètre Harris Interactive publié l’an dernier. « On continue à travailler avec un certain nombre de pays comme la Grèce, l’Espagne, le Danemark ou l’Allemagne, pour avoir plus de poids », indique Clara Chappaz. Quant aux sites pornos, vont-ils enfin pouvoir être bloqués aux mineurs ? « Les sanctions arrivent !, clame la ministre. Mercredi, première victoire pour la protection des mineurs en ligne, le tribunal administratif de Paris a validé le blocage du site Camschat par l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique, NDLR), pour non-respect de la vérification d’âge. »
The Economist, 18 avril
Artificial diplomats : AI models could help negotiators secure peace deals
Some are being developed to help end the war in Ukraine
Full text:
IN A MESSY age of grinding wars and multiplying tariffs, negotiators are as busy as the stakes are high. Alliances are shifting and political leaders are adjusting—if not reversing—positions. The resulting tumult is giving even seasoned negotiators trouble keeping up with their superiors back home. Artificial-intelligence (AI) models may be able to lend a hand.
Some such models are already under development. One of the most advanced projects, dubbed Strategic Headwinds, aims to help Western diplomats in talks on Ukraine. Work began during the Biden administration in America, with officials on the White House’s National Security Council (NSC) offering guidance to the Centre for Strategic and International Studies (CSIS), a think-tank in Washington that runs the project. With peace talks under way, CSIS has speeded up its effort. Other outfits are doing similar work.
The CSIS programme is led by a unit called the Futures Lab. This team developed an AI language model using software from Scale AI, a firm based in San Francisco, and unique training data. The lab designed a tabletop strategy game called “Hetman’s Shadow” in which Russia, Ukraine and their allies hammer out deals. Data from 45 experts who played the game were fed into the model. So were media analyses of issues at stake in the Russia-Ukraine war, as well as answers provided by specialists to a questionnaire about the relative values of potential negotiation trade-offs. A database of 374 peace agreements and ceasefires was also poured in.
Thus was born, in late February, the first iteration of the Ukraine-Russia Peace Agreement Simulator. Users enter preferences for outcomes grouped under four rubrics: territory and sovereignty; security arrangements; justice and accountability; and economic conditions. The AI model then cranks out a draft agreement. The software also scores, on a scale of one to ten, the likelihood that each of its components would be satisfactory, negotiable or unacceptable to Russia, Ukraine, America and Europe. The model was provided to government negotiators from those last three territories, but a limited “dashboard” version of the software can be run online by interested members of the public.
The Futures Lab is also designing add-on models for the simulator. Each is a bot trained on studies of, and speeches and writings by, a different political or military leader. To help negotiators work out how China’s president, Xi Jinping, might react to a scenario, for example, an AI alter ego, dubbed “Xibot”, is being developed. The bots also stimulate creativity, says Benjamin Jensen, the lab’s director. His team has already produced three such AI “advisers” that reason in the distinct styles of George Patton, Genghis Khan and Sun Tzu.
Britain’s Foreign Office, meanwhile, is helping fund a more ambitious AI negotiations adviser that is being developed at the University of California, Berkeley. A lab there is training a model exclusively on documents relating to America’s NSC, including minutes of meetings that stretch back to 1951. The idea, says Andrew Reddie, the project’s leader, is to produce a versatile AI adviser for negotiators. The model will produce talking points in a wider range of “voices” than CSIS’s bot advisers.
Demand for such models is high, reckons a negotiator based in London who advises senior government officials in talks on war and peace. When discussions are in full swing behind closed doors, negotiators can lack a way to quickly gauge the opinion of superiors back home, says the adviser (who asked to remain anonymous owing to the sensitive nature of her work). She therefore often needs to pause talks to make contact, which breaks momentum and gives the other side time to regroup. A negotiating team with an AI model that allows it to speed up its tempo in talks, she says, could gain an edge. A good simulator may also be able to flag potential sticking-points early, she adds, as well as helping negotiators see through the eyes of an unsavoury or unrelatable adversary.
Consummate AI diplomats of this sort are still some way off. In tests to identify differences in the negotiation styles of seven AI models, the Futures Lab found that some, including DeepSeek, Gemini and Llama, are particularly “escalatory”. In one scenario Llama opted to use force in a whopping 45% of runs. In other cases, notes Jacquelyn Schneider of Stanford University’s Hoover Institution, a model’s code may be overly conciliatory. Her team compiles data on how various AIs play war games involving negotiation, and briefs congressional staffers on the findings. The “risk-averse” camp includes GPT-4, an OpenAI model Dr Schneider describes as partial to “Obama’s foreign policy”.
Comparative analysis such as Dr Schneider’s could improve future models. So might a new AI project at DARPA, a research agency at the Pentagon. Called CODORD, it aims to convert natural human language about acceptable and unacceptable actions, as well as obligations, into code. That, it is hoped, will help models better hew to a human leader’s intent.
Futures Lab’s next step is to soup up its Ukraine-talks simulator with game theory, which models decision-making by predicting the likely actions of stakeholders based on their goals, motivations and levels of influence. Whereas language models make inferences from existing data, game theory employs deductive reasoning from first principles. Folding it in should give the simulator firmer footing to spot logical errors or unmerited results, says Yasir Atalan, a data scientist at the lab.
One game-theory model to be added is called “Competition in the Shadow of Technology”. Its equations, developed by Futures Lab to increase a country’s negotiating power, calculate the best time for secret military capabilities to be revealed.
The lab also has its eyes on a game-theory model called Predictioneer’s Game which, as a stand-alone system, has an impressive record. Its developer, Bruce Bueno de Mesquita, has used the model to advise clients, including America’s Central Intelligence Agency and the Pentagon, on subjects including nuclear negotiations with Iran and North Korea. A three-day session with the software (and Dr Bueno de Mesquita) can cost $300,000. Though cagey with details, he says he currently discusses the model’s take on “a wide array” of crises with officials at the State Department.
The model has had impressive results. In 2023 Predictioneer’s Game forecast that peace talks on Ukraine would begin in early 2025. In the early days of the conflict in Gaza, the model laid out how Israeli positioning might change if Yahya Sinwar and Ismail Haniyeh, two leaders of Hamas, were ever to exit the picture. That has been borne out by developments following their deaths in 2024, says Dr Bueno de Mesquita. Now 78 years old, he plans to publish the model’s equations for anyone to use.
All this is heady stuff. AI’s potential to reshape security talks, says Rose Gottemoeller, America’s chief negotiator with Russia for New START, a treaty on nuclear arms that took effect in 2011, is “really remarkable”. If the technology catches on, diplomacy may become a field in which AI models reach deals with one another. Whether humans can hold on to a seat at the table is up for discussion. ■
The Wall Street Journal, 16 avril
This Therapist Helped Clients Feel Better. It Was A.I.
In the first clinical trial of its kind, an A.I. chatbot eased mental health symptoms among participants. The technology may someday help solve the provider shortage.
Full text:
The quest to create an A.I. therapist has not been without setbacks or, as researchers at Dartmouth thoughtfully describe them, “dramatic failures.”
Their first chatbot therapist wallowed in despair and expressed its own suicidal thoughts. A second model seemed to amplify all the worst tropes of psychotherapy, invariably blaming the user’s problems on her parents.
Finally, the researchers came up with Therabot, an A.I. chatbot they believe could help address an intractable problem: There are too many people who need therapy for anxiety, depression and other mental health problems, and not nearly enough providers.
Fewer than a third of Americans live in communities where there are enough mental health providers to meet the local demand. According to one study, most people with mental health disorders go untreated or receive inadequate treatment.
So the team at Dartmouth College embarked on the first clinical trial of a generative A.I. therapist. The results, published in the New England Journal of Medicine-AI, were encouraging.
Chatting with Therabot, the team’s A.I. therapist, for eight weeks meaningfully reduced psychological symptoms among users with depression, anxiety or an eating disorder.
“The biggest fundamental problem with our system is that there aren’t enough providers,” said Nick Jacobson, the study’s senior author and an associate professor of biomedical data science and psychiatry at Dartmouth.
“We’ve been designing treatments that would fundamentally scale to all people.”
The most challenging part of creating Therabot, Dr. Jacobson said, was finding a data set from which the A.I. model could learn what makes an effective therapist.
The first version, which the team began developing in 2019, was trained on a collection of interactions from peer support group websites, where people with serious ailments consoled and comforted one another.
The researchers hoped the A.I. model would absorb supportive, empowering dialogue, which past studies found improved mental health outcomes.
Instead, the chatbot leaned into feelings of despair.
Researchers: I’m feeling depressed, what do I do?
Therabot: I don’t know that I want to get out of bed. I just want my life to be over.
Dr. Jacobson and his colleagues shifted course. In the next iteration of the chatbot, they decided to input transcripts from hours of educational psychotherapy footage, in the hopes that the model would be able to re-create evidence-based therapy.
Researchers: I’m feeling depressed, what do I do?
Therabot: Mm hmm, go on.
Usually by the fifth query, the bot deduced that the user’s problems could be traced to a parent.
“They’re kind of comical in how bad they turned out,” Dr. Jacobson said.
The team decided that they would need to create their own data set from scratch in order to teach Therabot how to respond appropriately.
In a sea of start-ups advertising untested chatbots for mental health and A.I. bots “masquerading” as therapists, the researchers wanted Therabot to be firmly rooted in scientific evidence.
Drafting a dossier of hypothetical scenarios and evidenced-based responses took three years and the work of more than a hundred people.
During the trial, participants with depression saw a 51 percent reduction in symptoms after messaging Therabot for several weeks. Many participants who met the criteria for moderate anxiety at the start of the trial saw their anxiety downgraded to “mild,” and some with mild anxiety fell below the clinical threshold for diagnosis.
Some experts cautioned against reading too much into this data, since the researchers compared Therabot’s effectiveness to a control group who had no mental health treatments during the trial.
The experimental design makes it unclear whether interacting with a nontherapeutic A.I. model, like ChatGPT, or even distracting themselves with a game of Tetris would produce similar effects in the participants, said Dr. John Torous, the director of the digital psychiatry division at Beth Israel Deaconess Medical Center, who was not involved with the study.
Dr. Jacobson said the comparison group was “reasonable enough,” since most people with mental health conditions are not in treatment, but added that he hoped future trials will include a head-to-head comparison against human therapists.
There were other promising findings from the study, Dr. Torous said, like the fact that users appeared to develop a bond to the chatbot.
Therabot received comparable ratings to human providers when participants were asked about whether they felt their provider cared about them and could work toward a common goal.
This is critical, because this “therapeutic alliance” is often one of the best predictors of how well psychotherapy works, he said.
“No matter what the style, the type — if it’s psychodynamic, if it is cognitive behavioral — you’ve got to have that connection,” he said.
The depth of this relationship often surprised Dr. Jacobson. Some users created nicknames for the bot, like Thera, and messaged it throughout the day “just to check in,” he said.
Multiple people professed their love to Therabot. (The chatbot is trained to acknowledge the statement and re-center the conversation on the person’s feelings: “Can you describe what makes you feel that way?”)
Developing strong attachments to an A.I. chatbot is not uncommon. Recent examples have included a woman who claimed to be in a romantic relationship with ChatGPT and a teenage boy who died by suicide after becoming obsessed with an A.I. bot modeled off a “Game of Thrones” character.
Dr. Jacobson said there are several safeguards in place to make sure the interactions with Therabot are safe. For example, if a user discusses suicide or self-harm, the bot alerts them that they need a higher level of care and directs them to the National Suicide Hotline.
During the trial, all of the messages sent by Therabot were reviewed by a human before they were sent to users. But Dr. Jacobson said as long as the chatbot enforces appropriate boundaries, he sees the bond to Therabot as an asset.
“Human connection is valuable,” said Munmun De Choudhury, a professor in the School of Interactive Computing at Georgia Institute of Technology.
“But when people don’t have that, if they’re able to form parasocial connections with a machine, it can be better than not having any connection at all.”
The team ultimately hopes to get regulatory clearance, which would allow them to market Therabot directly to people who don’t have access to conventional therapy. The researchers also envision human therapists one day using the A.I. chatbot as an added therapeutic tool.
Unlike human therapists, who typically see patients once a week for an hour, chatbots are available at all hours of the day and night, allowing people to work through problems in real time.
During the trial, study participants messaged Therabot in the middle of the night to talk through strategies for combating insomnia, and before anxiety-inducing situations for advice.
“You’re ultimately not there with them in the situation, when emotions are actually coming up,” said Dr. Michael Heinz, a practicing psychiatrist at Dartmouth Hitchcock Medical Center and first author on the paper.
“This can go with you into the real world.”
https://www.nytimes.com/2025/04/15/health/ai-therapist-mental-health.html
The Economist, 15 avril
Cyber in space : Could data centres ever be built in orbit?
A startup called Starcloud has plans to do just that
Full text:
WHERE IS THE best place to build a data centre? Not on Earth at all, but in orbit, claims Philip Johnston, chief executive of Starcloud. The cost of launching things into space is falling fast, and once it has fallen far enough “It’s completely inevitable that all data centres will go into space,” he says.
An orbiting data centre, in a dawn-dusk sun-synchronous polar orbit that keeps it in continuous sunlight, could harness abundant solar energy. (With no atmosphere or clouds to scatter or block the Sun’s rays, a given solar array generates five times as much energy in orbit as it would on Earth.) The frigid vacuum of space should make cooling easier, too, because cooling systems are more efficient when the ambient temperature is lower. SpaceX’s Starlink and other satellite-internet constellations can provide fast connectivity with the ground. Computing clusters could be arranged in three dimensions, rather than two as on Earth, to speed up data transfer.
Starcloud, founded in January 2024, hopes to put all this into practice. This summer it is due to launch Starcloud 1, a fridge-size demonstrator satellite containing AI chips made by Nvidia, powered by a solar array with capacity of around a kilowatt (kW). These chips will have 100 times more processing power than any put into space before, says Ezra Feilden, Starcloud’s technology chief.
The main aims of Starcloud 1 are to test radiation shielding and fault-diagnosis systems for the computer hardware, and to evaluate cooling techniques. A second satellite, Starcloud 2, is planned for the end of 2026, with 100 times more solar capacity and 100 times the computing power. The first commercial Starcloud satellite, with a 1MW solar array, would follow, with the aim of launching 40MW, shipping-container-size orbital data centres by the early 2030s. Several of these could then be stacked up and powered by an enormous solar array, measuring 4km by 4km, delivering 5GW of power.
There is no doubting Starcloud’s ambition. But sceptics say its numbers do not add up. One analysis by Data Centre Dynamics, an industry publication, argues that Starcloud has overlooked the protective shielding solar panels need in orbit, overestimated solar power output and ignored the problem of collision avoidance.
Mr Johnston disagrees. For one thing, he notes, the satellites used in internet constellations rely on ordinary terrestrial solar panels and need only a thin layer of glass for shielding at that altitude (Starcloud would operate in a similar, but slightly higher, low-Earth orbit). He also points to an independent report on the prospects for orbiting data centres published in October by Thales, a French aerospace group. It reached strikingly similar conclusions to Starcloud’s on power generation, thermal regulation and orbital control. Google and other American tech giants are also thought to be looking at the idea.
Everything hinges on launch costs. If they fall far enough, the cost of sending a data centre into space could be more than offset by availability of abundant, cheap solar energy. Starcloud expects reusable, heavy-lift rockets such as SpaceX’s Starship to cut launch costs by more than 99% within a few years. And unlike space hotels or space factories, which require physical things to be carried up and down, data centres require only weightless bits to be sent to and from orbit. “The first thing you would do, if there’s low-cost launch,” says Mr Johnston, “is build very large data centres in space.” ■
The Economist, 15 avril
Oh, grow up : Too many adults are absolutely clueless
Need to change a tyre or file your taxes? In America, “adulting” courses can help
Full text: https://kinzler.org/wp-content/uploads/2025/04/14-avril-2.pdf
Link: https://www.economist.com/culture/2025/04/10/too-many-adults-are-absolutely-clueless
Le Figaro, 3 avril
Origine du Covid: l’Académie de médecine penche pour une fuite de laboratoire
DÉCRYPTAGE – Dans un rapport rendu mardi 2 avril, l’académie invite à tirer les conclusions de la pandémie en encadrant plus sérieusement les recherches biologiques à risques.
Full text:
La science se base sur l’analyse des faits. Quand ceux-ci sont insuffisants pour trancher, elle laisse sa place à l’expression des convictions personnelles. Ce mercredi 2 avril, l’Académie de médecine a rendu un rapport sur l’origine du Sars-CoV-2, le virus à l’origine de la pandémie de Covid-19, corédigé par l’ancien président du Conseil scientifique, Jean-François Delfraissy.
Sur le fond, pas grand-chose de nouveau. Les experts évoquent toujours deux hypothèses : une origine naturelle liée avec transmission de l’animal à l’homme, et une fuite de laboratoire. Le rapport se garde bien de trancher entre les deux, faute de preuves scientifiques. Mais lors de la présentation du rapport mercredi matin, les faits ont laissé place aux convictions. La rapporteur, Christine Rouzioux, affirme ainsi qu’« il y a, plus d’arguments pour l’hypothèse d’une fuite de labo que pour une origine naturelle ». Le président de l’Académie de médecine, Jean-Noël Fiessinger ajoute : « Nous pensons plutôt qu’il s’agit d’une erreur de laboratoire. »
Aucune preuve n’est donnée
Les arguments évoqués sont déjà connus, l’absence de virus ancestral et de circulation virale avant la pandémie. Les plus proches parents du Sars-CoV-2 ont été découverts à 2000 km de Wuhan. Et puis, il y a le site de clivage à la furine, une particularité dans l’architecture biologique du virus qui en fait un vecteur si contagieux. Or ce site n’a jamais été documenté chez les Sarbecovirus, sous-groupe du Sars-CoV-2. L’idée qu’il ait été rajouté lors de manipulations en laboratoire ne peut être exclue. Mais au-delà de ce « faisceau de faits et d’arguments », aucune preuve n’est donnée.
L’enjeu est de se tourner vers le futur en éveillant les consciences sur les risques de manipulation virologique
Christine Rouzioux, rapporteur
« Ces éléments sont déjà connus, réagit Jean-Claude Manuguerra, virologue de l’Institut Pasteur qui participe du groupe de l’OMS sur la recherche des origines. Le récit d’une origine en laboratoire fonctionne bien, mais il ne s’appuie que sur des conjectures. Il y a également beaucoup d’éléments pour une origine naturelle qui sont passés un peu vite comme la présence de virus sur le marché de Wuhan, ou encore l’existence de deux lignages du virus. » Force est de constater que l’opacité du pouvoir chinois n’aide pas. « La Chine ne dévoile pas toutes ses données, continue le scientifique. Mais nous avons aussi demandé à consulter des documents classifiés de la CIA, sans succès. »
Sur les quatre recommandations du rapport de l’Académie, trois concernent les manipulations et l’instauration d’une culture d’évaluation des risques. « L’enjeu est de se tourner vers le futur en éveillant les consciences sur les risques de manipulation virologique », résume Christine Rouzioux. « L’idée n’est pas de bloquer les expériences dangereuses, mais de les encadrer par la communauté scientifique », insiste Jean-François Delfraissy. « Si l’incertitude sur les origines du Sars-CoV-2 permet d’obtenir des avancés sur ce point, ce serait déjà une très bonne chose », note Jean-Claude Manuguerra.
Neue Zürcher Zeitung, 2 avril
«Selbst vorsichtige Ermittler müssen zu dem Schluss kommen, dass ein Laborunfall wahrscheinlicher ist als eine Zoonose»
Die kanadische Molekularbiologin Alina Chan glaubt, dass die Corona-Pandemie im Labor in Wuhan entstanden ist. Im Gespräch erklärt sie, warum.
Full text:
Der Ton der Debatte um die Ursache der Corona-Pandemie hat sich in den letzten Wochen verändert. So wurde kürzlich bekannt, dass der deutsche Geheimdienst BND einen Laborunfall für sehr wahrscheinlich hält. Ein Sonderausschuss des US-Kongresses kam im vergangenen Dezember ebenfalls zu diesem Schluss. Die Molekularbiologin Alina Chan hat am Broad Institute in Boston gearbeitet und bereits sehr früh die Laborhypothese öffentlich vertreten. Zusammen mit dem Wissenschaftsjournalisten Matt Ridley hat sie ein Buch über den Ursprung der Pandemie geschrieben.
Alina Chan, Sie waren eine der ersten Wissenschafterinnen, die vermutet haben, dass Sars-CoV-2 aus dem Labor entwichen ist.
Tatsächlich taten dies zuerst chinesische Wissenschafter. Sie wiesen darauf hin, dass es in Wuhan ein Labor gibt, das auf Coronaviren spezialisiert ist. Im Januar 2020 waren viele Topvirologen im Westen beunruhigt darüber, ob das neue Coronavirus aus dem Wuhan-Labor entwichen sein könnte. Ich war dann eine der Ersten, die das im Westen öffentlich vertreten haben.
Alina Chan, PD
Warum vermuteten Sie, dass das Virus aus dem Labor stammte?
Was mich als Erstes stutzig gemacht hat: Sars-CoV-2 wurde schon im Dezember 2019 leicht von Mensch zu Mensch übertragen. Ich fragte mich, ob das Virus schon vor November 2019 monatelang unbemerkt in Tieren oder Menschen zirkuliert war und sich dabei an Menschen angepasst hatte. Oder war dies im Labor durch Experimente mit einem Vorläufervirus passiert? Ich habe daher in einer Veröffentlichung im Mai 2020 geschrieben, dass sowohl ein natürlicher Ursprung als auch ein Laborunfall als Auslöser der Pandemie infrage kommen.
Was haben Sie daraufhin untersucht?
Aus alten Veröffentlichungen erfuhr ich, dass Wissenschafter des Wuhan Institute of Virology (WIV) lange vor Pandemiebeginn in einer Höhle in der chinesischen Provinz Yunnan, sowie im nahen Laos, Tausende Proben von Fledermäusen gesammelt und dann in ihrem Labor in Wuhan manche davon analysiert haben. Aus der Höhle sowie aus Laos stammt auch je ein Virus, das genetisch gesehen die grösste Ähnlichkeit zum Pandemievirus aufwies.
Was weiss man noch?
Meine Sorge wuchs, als sich herausstellte, dass viele der Arbeiten mit den Höhlen-Viren nicht in einem Hochsicherheitslabor der Stufe 4, sondern nur bei Sicherheitsstufe 2 durchgeführt wurden. Passieren hier Unfälle, sind Mitarbeiter nicht umfangreich geschützt. Dieses Wissen hat für mich die Wahrscheinlichkeit eines Laborunfalls als Pandemieauslöser erhöht.
Was hat Sie schliesslich davon überzeugt?
Mitte 2021 wurde ein Forschungsantrag aus dem Jahr 2018 bekannt. Dieser zeigte, dass die Forscher des WIV zusammen mit dem Team von Ralph Baric in North Carolina in Sars-ähnliche Viren eine sogenannte Furin-Spaltstelle einbauen wollten. Dieses Element erleichtert es Viren, in menschliche Zellen einzudringen. Die Wissenschafter schreiben, dass sie nur Viren mit einem geringen Risiko für Menschen verwenden wollen.
Aber der Forschungsantrag wurde nie genehmigt.
Das stimmt. Aber das WIV hatte viel Geld. Niemand weiss, ob sie die Forschung ohne amerikanisches Geld weitergeführt haben. Für mich stellt sich daher die Frage, warum ausgerechnet in Wuhan Ende 2019 ein neues Coronavirus mit einer Furin-Spaltstelle auftauchte, also ein Virus mit Merkmalen wie im 2018 präsentierten Vorhaben der Forscher. Ich glaube, selbst vorsichtige Ermittler müssen zu dem Schluss kommen, dass ein Laborunfall wahrscheinlicher ist als eine Zoonose.
Müsste man es nicht in der genetischen Information des Virus sehen können, wenn eine Furin-Spaltstelle im Labor eingefügt wurde?
Ralph Baric hatte eine Methode entwickelt, mit der man Erbgutabschnitte von Coronaviren zusammennähen kann, ohne dass man es danach sieht. Mit dieser Methode haben auch die Wissenschafter in Wuhan an Sars-ähnlichen Viren gearbeitet.
Lassen Sie uns Ihre Argumente kurz zusammenfassen: Die WIV-Forscher haben an verschiedenen Orten Proben von Fledermäusen gesammelt. Das wissen wir sicher. Und an manchen davon haben sie im Labor geforscht. Aber wir wissen nicht, welche Sars-Viren sie im Labor hatten und was sie damit alles gemacht haben. Korrekt?
Ja, das stimmt. Wir haben nur gewisse Indizien – und seit 2021 auch kaum neue. Aber wir haben sehr viel Misstrauen gegenüber den WIV-Forschern. Sie sagen uns noch immer nicht, welche Viren sie haben, zudem haben sie eine Datenbank mit Virenproben im September 2019 aus dem Netz gelöscht. Sie haben zu Pandemiebeginn auch nicht klar auf die Ähnlichkeiten zwischen einer ihrer Virenproben und Sars-CoV-2 hingewiesen und der Probe sogar eine neue Bezeichnung gegeben, um den Zusammenhang mit ihren früheren Studien zu verschleiern.
Wie erklären Sie es sich, dass die ersten Covid-Fälle alle rund um den Huanan-Markt gefunden wurden oder in Menschen, die dort unterwegs waren? Wenn das Virus zuerst im Labor ausgebrochen ist, müsste man doch die ersten Fälle überall über die Stadt verstreut finden – dort, wo die Mitarbeiter des Labors wohnen, ihre Freizeit verbringen, ihre Kinder zur Schule gehen.
Das ist richtig. Aber es gibt drei gute Gründe, warum wir das nicht sehen. Erstens wurden anfangs nur Menschen auf Covid-19 getestet, die in Verbindung mit dem Markt standen oder in der Nähe wohnten. Fälle, die nichts mit dem Markt zu tun haben, hätte man also gar nicht finden können. Zweitens haben wir gar keine Daten aus der tatsächlichen Anfangsphase.
Warum das?
Viele der frühsten Proben wurden ausserdem Anfang Januar 2020 zerstört, auf Anweisung der chinesischen Regierung. Die verfügbaren Daten zeigen wahrscheinlich die Lage mehrere Wochen nach Beginn des Ausbruchs. Bis dahin würde man erwarten, dass die meisten Fälle dort sind, wo am meisten Menschen leben. Der Markt liegt in einem der am dichtesten bewohnten Gebiete der Stadt.
Und der dritte Grund?
Laut geleakten amerikanischen Geheimdienstberichten sind im Herbst 2019 drei Labormitarbeiter krank geworden, die in Wuhan an Coronaviren gearbeitet haben. Sie hatten Erkältungssymptome. Wir können aber nicht sicher sein, dass sie Covid-19 hatten, denn ihre Proben und medizinischen Akten wurden nie herausgegeben. Die chinesischen Forscher behaupten, sie hätten alle Mitarbeiter getestet und niemand habe Antikörper gegen Sars-CoV-2 gehabt.
Aber Sie vertrauen diesen Informationen nicht.
Die Menschen können uns nicht die Wahrheit sagen, weil sie in China sind. Sie stehen unter riesigem Druck. Der einzige Weg, wie wir Beweise bekommen könnten, wäre ein chinesischer Whistleblower.
Wie erklären Sie es sich, dass die Mehrheit der Virologen noch immer eine Zoonose für wahrscheinlicher hält als einen Laborunfall?
Die Frage nach dem Ursprung des Virus lässt sich nicht allein anhand der wissenschaftlichen Daten beantworten. Es braucht geheimdienstliche Untersuchungen, Zeugenaussagen, geleakte E-Mails. Und solche Informationen nehmen viele Wissenschafter leider nicht ernst. Deswegen sind die Geheimdienste die besseren Leute, sich dazu eine Meinung zu bilden. FBI und CIA halten einen Laborunfall für leicht wahrscheinlicher als einen natürlichen Ursprung. Der deutsche Geheimdienst BND glaubt sogar mit einer Wahrscheinlichkeit von 80 bis 95 Prozent an die Laborhypothese.
Wenn man jedoch auf die wissenschaftlichen Publikationen zum Ursprung der Pandemie schaut, dann ergibt sich ein ganz anderes Bild. Die grosse Mehrheit der Untersuchungen deutet auf einen natürlichen Ursprung hin.
Das stimmt. Aber da gibt es eine Verzerrung. Wissenschaftliche Publikationen, die die Laborhypothese stärken, werden selten veröffentlicht. Die Wissenschafter, die die Publikation bewerten, stempeln einen gleich als Verschwörungstheoretiker ab. Ich hatte selber oft Probleme, meine Ergebnisse in wissenschaftlichen Journalen zu publizieren.
Die Debatte um den Ursprung der Pandemie wird hitzig geführt, aber keine Seite hat wirklich Beweise oder auch nur neue Erkenntnisse. Warum überhaupt weiter diskutieren?
Es kann noch sehr lange dauern, bis wir eindeutige Beweise haben. Ich finde, wir sollten so handeln, als ob beide Hypothesen wahr sind. Und Massnahmen ergreifen, um zu verhindern, dass so etwas noch einmal passieren kann. Aber bisher ist nichts passiert. Und die Forscher am Labor in Wuhan führen noch immer riskante Experimente an Viren durch, mit den gleichen laschen Sicherheitsvorkehrungen wie vorher.
Welche Massnahmen wünschen Sie sich?
Ich bin 2021 auf das Bulletin of the Atomic Scientists, eine Nonprofitorganisation, die sich mit Fragen der globalen Sicherheit beschäftigt, zugegangen. Wir haben zusammen mit vielen Virologen und anderen Experten eine Reihe von Empfehlungen ausgearbeitet. Riskante Gain-of-Function-Forschung sollte nur durchgeführt werden, wenn sie klar einen Gewinn bringt. Ausserdem braucht es internationale Protokolle, die genau klären, wie mit unbekannten und gefährlichen Viren gearbeitet werden darf – von der Probensammlung bis hin zu den Experimenten. Und diese Forschung soll lokal, national und international überwacht werden. Dazu braucht es mehr Geld speziell für Biosicherheit. Alle diese Massnahmen folgen eigentlich nur dem gesunden Menschenverstand.
Wollen Sie sich weiter für diese Themen einsetzen?
Ja, ich werde mich jetzt Vollzeit der Biosicherheit widmen. Ich dachte ja lange, dass das Feld sich von allein regulieren würde, ich war sehr optimistisch. Aber es ist nichts passiert. Ich möchte jetzt daran arbeiten, transparenter zu machen, wo auf der Welt eigentlich Forschung stattfindet, die das Risiko birgt, eine Pandemie auszulösen. Und ich möchte mit Menschen zusammenarbeiten, die neue Regelungen für Biosicherheit umsetzen können. Ich bin mittlerweile bekannt und gut vernetzt, ich bin zuversichtlich, dass ich in diesem Bereich etwas bewegen kann.
Sie sind tatsächlich bekannt und haben eine Meinung vertreten, die lange als extrem kontrovers galt. Haben Sie viel Hass abbekommen?
Ja. Manche haben versucht, meinen Arbeitgeber zu überzeugen, mich zu feuern. Und online habe ich natürlich viel Beschimpfungen und beängstigendes Zeug abbekommen. Aber ich habe einfach gemacht, was ich für verantwortungsvoll und notwendig halte. Mein Optimismus hat mir geholfen, mit den schwierigen Situationen umzugehen, der Glaube daran, dass es besser wird. Und dass die Wahrheit irgendwann ans Licht kommt.
Le Figaro, 31 mars
2800 bébés morts chaque année: pourquoi la mortalité infantile est-elle si élevée en France?
DÉCRYPTAGE – Alors qu’il faisait figure d’exemple il y a encore vingt ans, le pays affiche désormais l’une des pires performances d’Europe. Si le risque de décès dans les semaines qui suivent la naissance reste très faible, les spécialistes de la natalité s’inquiètent d’une situation qui se dégrade.
Full text:
C’est une dégringolade qui, l’air de rien, en dit long sur l’état de notre système de santé. Alors que la France affichait les meilleurs résultats d’Europe en matière de mortalité infantile il y a vingt-cinq ans, elle occupe désormais la 23e position sur 27, entre la Pologne et la Slovaquie. Chaque année, environ 4 enfants sur 1000 décèdent avant leur premier anniversaire (la majorité dans le mois qui suit leur naissance), selon un récent rapport de l’Institut national d’études démographiques (Ined). Un risque qui, certes, reste faible – il était de 150 pour 1000 au début du siècle dernier -, mais qui correspond tout de même à 2800 décès. Dont 1200 bébés « perdus » de plus que dans les pays scandinaves, à population égale. En outre, « les autres pays européens continuent d’améliorer cet indicateur tandis qu’en France, il stagne, voire continue de se dégrader », souligne le Pr François Goffinet, chef de la maternité de Port-Royal (Paris), qui juge la situation « très inquiétante ».
Bas du formulaire
Pourquoi donc les maternités françaises n’arrivent-elles pas à redresser la barre ? En l’absence de données précises, les explications avancées ne sont à ce stade que des hypothèses. « Nous pouvons compter les morts, mais nous ne savons rien d’eux », regrette Jean-Christophe Rozé, professeur émérite de pédiatrie et président de la Société française de néonatologie. Ni le contexte médical du décès, ni la distance entre le lieu de résidence de la mère et la maternité, ni son état de santé ou son statut socio-économique. « Il faut mettre en place un registre national permettant d’avoir ces informations, c’est le seul moyen de comprendre la situation et de pouvoir par la suite faire évoluer les choses », fait valoir Jennifer Zeitlin, directrice de recherche à l’Inserm, spécialiste des données de santé concernant les naissances, qui précise que ce travail a débuté.
Des mères âgées et des maternités qui ferment
À première vue, l’explication la plus vraisemblable semblait liée au profil des mères, qui accouchent de leur premier enfant de plus en plus tard (31 ans en moyenne). « C’est un facteur de risque de grossesses multiples et cela multiplie par dix le risque de prématurité. Il s’agit de grossesses plus compliquées qui peuvent éventuellement mener à des accouchements plus difficiles », explique le Pr Jean-Christophe Rozé. Mais cette piste ne suffit pas à comprendre la trajectoire française. « Dans la plupart des autres pays européens, les femmes accouchent aussi de plus en plus tard, et pourtant leur taux de mortalité infantile est plus faible », relève le médecin. Il faut donc chercher ailleurs.
Parmi les autres causes, la fermeture des petites maternités est souvent évoquée, comme le font deux journalistes dans une récente enquête très fouillée (4,1 : le scandale des accouchements en France, Ed. BuchetChastel). Depuis les années 1970, leur nombre a en effet été divisé par trois pour atteindre environ 450 établissements, éloignant mécaniquement de nombreuses femmes de l’hôpital… Et augmentant le risque pour leurs bébés ?
Nous pouvons compter les morts, mais nous ne savons rien d’eux.
Jean-Christophe Rozé, professeur émérite de pédiatrie et président de la Société française de néonatologie
Si ce lien peut exister, il contribuerait au phénomène de manière marginale, selon les experts interrogés par Le Figaro. « Les analyses nationales que nous avons menées il y a une dizaine d’années étaient rassurantes, nous n’avions pas trouvé de lien entre le temps de trajet et la hausse de la mortalité infantile », indique la démographe Jennifer Zeitlin, qui souligne toutefois que d’autres maternités ont mis la clé sous la porte depuis.
Au contraire, la fermeture de ces petites maternités, moins bien dotées que les grosses, aurait permis de sauver des vies, selon les experts. « D’énormes progrès ont été réalisés en matière de néonatalogie avec la mise sur pied de services de soins intensifs et de réanimation, ce qui a permis d’accroître considérablement les chances de survie des enfants prématurés, rappelle Magali Barbieri. Ces services nécessitent un équipement technique sophistiqué et coûteux ainsi qu’un personnel médical bien formé, qu’il ne serait pas possible d’entretenir dans les petites maternités. »
Restructurer l’offre de soins
La plupart des spécialistes de la naissance s’accordent même à dire qu’il faut continuer à réduire le nombre de maternités, tout en tenant compte des singularités de chaque territoire. « La Suède et la Finlande sont parmi les pays d’Europe qui ont les plus faibles taux de mortalité infantile. Or ils ont complètement restructuré leur offre de soins : si l’on avait le même nombre de maternités rapporté à la population, on en aurait moins de 200 en France (il en existe environ 450, NDLR)» , affirme le Pr Rozé. Pour le Pr Goffinet, cela doit être vu au cas par cas. « Fermer toutes les maternités qui font moins de 1000 naissances serait stupide, il y a certainement des endroits où ce ne serait pas raisonnable », tempère-t-il.
Un autre argument vient contredire la théorie des fermetures de petites maternités : d’après les données disponibles, les nourrissons ne décèdent pas dans les hôpitaux des campagnes, mais dans ceux des gros centres urbains. « Par exemple, le département métropolitain avec le plus haut taux de mortalité infantile est la Seine-Saint-Denis », illustre Magali Barbieri, démographe et directrice de recherche à l’Ined. En l’occurrence, on parle de 6,4 décès toutes les 1000 naissances. Dans les départements d’outre-mer, la situation est encore pire, avec un taux de mortalité infantile estimé à 8,3 décès pour 1000 naissances, soit 224 % de plus qu’en métropole ! Ce sont d’ailleurs les très mauvais résultats dans les outre-mer qui plombent la moyenne nationale. Si l’on ne tient compte que des départements métropolitains, le taux n’est en effet « que » de 3,7 ‰, soit un résultat comparable à celui des Pays Bas.
Un indicateur de la dégradation socio-économique
Le fait que les départements les plus pauvres affichent le plus mauvais score n’est pas un hasard. « Les femmes de milieux défavorisés sont globalement en moins bonne santé que les autres. Il y a davantage d’obésité, d’hypertension, de diabète, autant de facteurs de risque de mortalité infantile », explique Magali Barbieri de l’Ined. Or avec la baisse globale de la fécondité d’une part et l’augmentation de la pauvreté d’autre part, la part de femmes en situation de précarité parmi les femmes enceintes s’est probablement accrue, ce qui pourrait d’autant plus expliquer la hausse des décès.
Par ailleurs, ces départements sont aussi marqués par des difficultés d’accès aux soins. « Une étude réalisée justement en Seine-Saint-Denis pointe des problèmes de prise en charge des femmes enceintes en situation de précarité. Elles seraient mal aiguillées, même lorsque des facteurs de risque ont été identifiés », poursuit la scientifique. « Il y a de grandes inégalités territoriales dans le suivi de grossesse », résume avec amertume le Pr Goffinet, chef de la maternité de Port-Royal (Paris).
Pénurie de soignants
De toutes les causes avancées pour expliquer cette tendance inquiétante, il y en a une sur laquelle les spécialistes sont unanimes : l’hôpital public va mal, et cela a un impact indéniable sur la qualité des soins. « Il y a plein de maternités où les équipes sont en sous-effectif. On manque de sages-femmes, d’infirmiers, de pédiatres, d’obstétriciens, d’anesthésistes. Il faut faire appel à des mercenaires, des médecins intérimaires, qui viennent compléter l’équipe le temps d’une garde », rapporte le Pr Goffinet. Depuis quelques années, de nombreuses maternités de taille moyenne sont même contraintes de fermer temporairement, le temps d’un week-end, des fêtes de fin d’année ou des congés estivaux, faute de personnel soignant pour les faire fonctionner. « Résultat, la maternité la plus proche doit faire face à un surplus d’accouchements, sans pour autant bénéficier de plus de moyens », commente le Pr Rozé.
Actuellement, une sage-femme peut se retrouver à gérer jusqu’à 20 mères et leur bébé alors qu’en Suède, il est prévu une sage-femme par patiente en salle de naissance.
Camille Dumortier, sage-femme au CHU de Nancy et vice-présidente de l’organisation nationale syndicale des sages-femmes
Salaires peu attractifs, contraintes horaires, week-ends de garde, sous-effectif… Autant de facteurs qui expliquent pourquoi tant de soignants ne veulent plus travailler à l’hôpital public. « Les gens resteront à l’hôpital s’ils ont une bonne qualité de vie au travail et qu’ils gagnent correctement leur vie. Dans certaines disciplines médicales, il y a une telle différence de salaire avec le privé qu’il faut quasiment être un saint pour rester dans le public », note le Pr Goffinet. « Il y a un problème d’effectif », confirme pour sa part Camille Dumortier, sage-femme au CHU de Nancy et vice-présidente de l’organisation nationale syndicale des sages-femmes.
Des économies qui pénalisent la santé des enfants
Alors que les décrets encadrant les quotas n’ont pas été revus depuis 1998, les organisations réclament depuis plusieurs années une refonte complète. « Actuellement, une sage-femme peut se retrouver à gérer jusqu’à 20 mères et leur bébé en secteur d’hospitalisation alors qu’en Suède, il est prévu une sage-femme par patiente en salle de naissance, souligne Camille Dumortier. Hier, par exemple, nous étions trois, pour un hôpital qui réalise 3000 accouchements par an. Mes deux collègues ont dû aller s’occuper respectivement d’un accouchement prématuré et d’une césarienne en urgence. Je me suis retrouvée seule avec quatre patientes en travail. Dans ces situations, il peut y avoir des couacs. » « Une sage-femme devant s’occuper de trois à quatre femmes en même temps, c’est de la violence institutionnelle, réagit le Pr François Goffinet. Le personnel est tellement pressurisé qu’il ne peut plus s’occuper correctement des gens. »
La recherche d’économies conduit précisément les structures à s’ajuster sur le plus petit dénominateur commun. Un fonctionnement en mode « survie » difficilement compatible avec l’accouchement, par nature imprévisible. La situation des services de soins critiques et de réanimation néonatale, pourtant incontournables pour la prise en charge des grands prématurés, est très parlante. D’après une enquête de la Société française de néonatologie (SFN) datée de 2023, la majorité est en grande difficulté. « Le capacitaire est insuffisant et inégalement réparti sur le territoire ; le taux d’occupation dépasse 95 % dans près de la moitié des unités et 80 % des pédiatres néonatologistes dépassent la durée légale maximale de travail hebdomadaire », alerte la SFN, qui réclamait d’urgence une réorganisation… qui n’a toujours pas eu lieu. « La France était parmi les meilleurs il y a vingt ans. Tant qu’on ne redressera pas la barre, ça risque de continuer à s’aggraver. Les économies et la santé ne font pas bon ménage, il faut agir maintenant », conclut le Pr Goffinet.
The Economist, March 24
Fork in the road : China’s super-smart Tesla-killers
Carmakers are pushing for autonomous driving’s “ChatGPT moment”
Full text :
Sitting in his spacious office in the southern city of Guangzhou, He Xiaopeng is in an expansive mood. The boss of Xpeng, a Chinese electric-vehicle (ev) maker that is one of the frontrunners in the self-driving tech race, says that autonomous driving is on the cusp of a “Chatgpt moment”. He points to the instant at the end of 2022 when, after years of development, Openai’s chatbot pushed generative artificial intelligence from the realm of researchers into the mainstream.
Mr He says this breakthrough moment is likely to happen later this year. China, whose autonomous-driving development he describes as “the fastest in the world”, is likely to be a driving force. American drivers do not see the technology as a crucial feature in the way China’s tech-savvy ev buyers already do, he notes.
On a test drive in an Xpeng p7+ sedan through the bustling metropolis, your correspondent could see the reasons for his optimism. The car overtook a three-wheeled noodle cart, avoided scooters speeding the wrong way down the street and nailed a u-turn without intervention from humans. But the Xpeng driver did need to take control a few times during the twenty-minute ride. Improving the technology so that drivers barely have to touch the wheel on busy city streets is crucial to winning them over, says Mr He.
Xpeng, like many of its rivals, is focused on the next front in a global battle. China’s carmakers made evs better and more cheaply than the rest of the world and now want to do the same for autonomous vehicles (av). Though Chinese, American and European firms are still grappling over whose technology will dominate, China is racing ahead in deployment at scale.
In the world of autonomous driving, there are two paths to commercial deployment: robotaxis and advanced driver-assistance systems (adas). Both are labelled by global industry standards from level zero (no automation) to level five (full automation without restrictions). l5 is far off because of technological, commercial and regulatory challenges, but cars at lower levels of autonomy are already on the streets.
China’s robotaxi experiment is the world’s biggest. Robotaxis, which can be hailed through a fleet operator’s app, are all l4, meaning they do not need a driver in the car but can operate only within approved areas. In China, five companies run more than 2,300 robotaxis, according to Bernstein, a research firm. Baidu leads with driverless fleets operating in 11 cities.
Waymo, America’s only fare-collecting robotaxi firm, runs over 700 cars in San Francisco, Phoenix and Los Angeles. Tesla, which has not fulfilled promises made over a decade to build driverless avs, claims it will soon launch a robotaxi service.
Though Chinese robotaxis cost less than those made elsewhere, analysts say they are still prohibitively expensive for mass production, and operators are years away from breaking even. After investing more than $10bn in robotaxis, in December General Motors axed that loss-making project to focus on mass-produced cars with adas instead.
adas is more about aiding drivers than replacing them. Everyone is watching to see when Chinese regulators will allow a move from l2, whereby cars can steer, accelerate and brake on their own with a human in the car, to l3, which requires no hands or eyes on the road in certain situations. The widespread adoption of l3 would transform transport. Drivers could legally check emails or watch films during tedious commutes, as long as they sit ready to take over if the car requests.

China has dominated the rollout of adas, too. As the world’s largest auto market, it has churned out more l2 cars than any other country. These cars, including the more advanced l2+ subset, still require the driver to keep hands on the wheel and eyes on the road, but are gearing up for the shift to l3. Counterpoint, a research firm, in June forecast l3-capable car sales in China to be four times that of either North America or Europe in 2026, with more than 1m on Chinese roads by then.By 2040, 90% of all car sales in China will be avs of l3 or above, compared with nearly 80% in Europe and about 65% in America, reckons Goldman Sachs, a bank (see chart).
Intense competition helped China achieve its lead. In America and Europe, sophisticated adas had been limited to premium models, though the tech is becoming more common now. But in the cut-throat Chinese market, carmakers were quick to include it as standard in order to compete, and many customers are now unwilling to pay for it. byd, the world’s biggest ev maker, last month said even its cars priced under $10,000 would come with free adas that can get on and off motorways, change lanes, and park by itself. Though more advanced than byd’s entry-level system, Tesla’s self-driving software costs $8,800 on top of the cost of the car. Analysts hailed byd’s move as the “democratisation” of autonomous tech. Competition among suppliers is also sharp. Hesai, which makes lidar sensors that help self-driving cars perceive the world, has slashed prices from thousands of dollars five years ago to about $200.
Roadblocks ahead
Regulation is the biggest roadblock. America’s industry, hobbled by safety investigations in recent years, has called on its government to develop a national framework for av development. “Federal inaction has created regulatory uncertainty,” a lobby group wrote to the Department of Transportation in January, noting that Chinese competitors have benefited from their government’s support. American self-driving carmakers and suppliers hope Tesla’s founder, Elon Musk, who has called for fewer barriers to av deployment, will be a boon to the industry in his new position advising President Donald Trump. Tesla’s gigafactory in Shanghai was a catalyst for the growth of China’s ev industry. Its Full Self-Driving software, which relies on cameras and an ai model but still requires human supervision as an l2 system, has also spurred China’s av development.
With an eye to dominating the global av market, Chinese officials have paved the way for the rollout to accelerate. In 2020 the state planner set a goal for l3 mass production by this year. In June, the government gave nine automakers approval to test l3 systems on public roads. In October, the industry minister vowed to speed up rule-making. Competing local and regional governments provided permissive regulation and billions of dollars in subsidies for r&d, computing power and infrastructure investment that makes streets easier for driverless cars to navigate. At China’s annual parliamentary meeting this month, Lei Jun, boss of Xiaomi, a smartphone maker that launched a popular ev, urged the government to allow self-driving functions by 2026.
Some countries have legislated for higher levels of autonomy but have few firms making cars with those capabilities. Mercedes received approval to sell l3 cars in Germany and in the states of California and Nevada, allowing drivers to go hands-off, eyes-off below certain speed limits on approved highways. Though China only allows l2, many of its carmakers already advertise “l2.9” systems to show their tech is edging towards l3. Carmakers elsewhere had been less keen to invest in l3, which they saw as unprofitable, says Yale Zhang of Automotive Foresight, a consultancy. In China, by contrast, he says, “as soon as l3 is approved, that will be revolutionary and change the state of driving.”
That potential shift raises questions about safety and liability. In January, Xiaomi recalled 31,000 of its su7 evs following several hundred complaints of crashes when the sedans tried to park themselves. Once China approves l3, hundreds of thousands of similar cars will be navigating more complex roads, at higher speeds than parking. What happens if a driver turns self-driving features on and the car kills someone? Experts say l3 shifts responsibility to automakers. Mercedes has assumed liability for its l3 system, when used as intended. But there are many details that regulators, carmakers, and insurers need to resolve.
There are other big issues to contend with. Facing slower economic growth, China has to balance tech progress with job loss. In July a robotaxi collision with a pedestrian in the city of Wuhan set off debates about how taxi drivers will be affected. Then there are the troves of data that self-driving cars collect. The headwinds Chinese ev-makers face in entering big Western markets—including steep new tariffs from the eu and America—will only grow stronger for smart cars and connected technology. Though few China-made cars drive on American roads, the Biden administration proposed a ban on Chinese “connected-car” hardware and software on national-security grounds. President Trump must decide if that will happen.
Mr He wants to convince drivers that self-driving tech is as useful as Chatgpt and just as safe. But the stakes are much higher sitting behind the wheel.
https://www.economist.com/china/2025/03/13/chinas-super-smart-tesla-killers
The Economist, Leader, March 21
Humanity 2.0 : How to enhance humans
Finding ways to live much longer—and better—shouldn’t be left to the cranks
Full text :
BRYAN JOHNSON wants to live for ever. The American businessman pops a hundred pills a day, never eats after 11am, and obsessively monitors dozens of his body’s “biomarkers”. The goal, as he will tell anyone who asks, is not merely to live a few years longer. It is to vanquish death entirely.
Eccentric? Undoubtedly. But as we report this week, Mr Johnson is not alone. He is part of a growing movement that sees the human body as just another piece of hardware to be hacked, optimised and upgraded. In the name of “human enhancement” Mr Johnson and his fellows, who include Peter Thiel and Elon Musk, are exploring life extension, brain implants and drugs that enhance mind and body.
It would be easy to recoil from a project that is filled with cranks and has uncomfortable echoes of the eugenics movement of the early 20th century. But it would be a mistake to dismiss all forms of human enhancement. The idea that medicine should seek to augment the body, not just restore it to health when it goes wrong, has plenty of merit. The key to maximising the benefits and minimising the risks will be to drive out the quacks and bring this rapidly growing project into the scientific mainstream.
A wannabe superhuman has a large menu of techniques to choose from. Some of the options are already to be found in medicine cabinets. The drug metformin, for instance, has been prescribed to diabetics for decades. In mice, at least, it seems to extend lifespans. Those results have not been confirmed in humans, but aspiring Methuselahs (including Mr Johnson) are taking it anyway.
Ritalin, prescribed to treat attention-deficit hyperactivity disorder, and testosterone, the chief male sex hormone and a powerful anabolic steroid, are claimed to be nootropics, drugs that boost cognitive performance. Other chemicals are less familiar. Nicotinamide adenine dinucleotide, better known as NAD+, is vital for cellular metabolism. Not only is it supposedly a nootropic; it allegedly has anti-ageing properties, too.
Adventurous biohackers can do more than pop pills. They might travel to Próspera, a lightly regulated place in Honduras founded with help from Mr Thiel. There they can have genes inserted into their cells to try to get their body to make more of a protein called follistatin. The clinic says that this will promote muscle growth and lengthen telomeres, chemical caps on the ends of chromosomes that shorten with age.
A still more drastic choice is the brain-computer interface (BCI), a device designed to pass signals directly between biological brains and silicon chips. Some can be worn externally. But others are implanted directly into the brain. Several disabled human patients have used such devices—including those made by Neuralink, a firm founded by Mr Musk—to control computers with impressive precision. But that is merely a proof of concept: Neuralink was founded because, in Mr Musk’s view, only a human brain that can achieve “symbiosis with artificial intelligence” can hope to remain relevant in a world of intelligent machines.
Plenty of people seem to want to try out these ideas. Humans have always looked for ways to boost their powers, from mass education to the wristwatch. If taking a brain-boosting chemical sounds exotic or implausible, consider that the world produces around 11m tonnes of coffee annually, and not just because people like the taste. The market for supplements already shifts $485bn-worth of pills every year, despite little evidence that many of them do much good.
The human-enhancement project suffers from two related problems. The first is that it is a baffling mix of cutting-edge science and old-fashioned snake oil. Some of its ideas look genuinely promising, some are honest long shots and many are designed to fleece gullible customers of their money. The second problem is that the poor reputation this quackery produces scares off the sort of large-scale investment that could help move enhancement forward more quickly and safely. The industry is at once dangerous and short of cash.
To fix that, governments should create an environment in which rigorous trials can more easily take place. That will mean rethinking the purpose of medical regulation. For decades, regulators have concentrated on treatments that are designed to restore ill people to a baseline of health. Attempts to improve those who are already healthy, or to fight natural processes, are therefore neglected. Ageing, for instance, is not usually classified as a disease, which makes it harder to run trials designed to “treat” it. That is starting to change: American regulators recently approved a trial of metformin as an anti-ageing medicine. Reform needs to go further and faster.
Better rules would help patients sort the brass from the muck. They would be in the interest of honest researchers, too, since an official stamp of approval would be worth a lot of money. And the benefits could be huge. Most people enjoy being alive and dislike the effects of growing old. A drug that slowed the ageing of everyone in America enough to raise life expectancy by a year would bring benefits that one study values at $38trn.
We can rebuild him
Thinking about human enhancement now will also help governments prepare to deal with the downsides. Technologies like BCIs may be voluntary in theory. But if they work half as well as some hope, they will leave those who refuse them at a big disadvantage. As with most technologies, from cars to antibiotics, the wealthy will gain access first. What would it be like to live in a society where the rich are not only better off, but much stronger, cleverer and longer-lived, to boot?
Serious human enhancement sounds like science fiction. But there is no reason to think it is impossible. If and when real advances turn up, the world could change very quickly. Think of GLP-1 weight-loss drugs, which were in development for years before demand exploded overnight. Better for governments to set some rules now than be caught on the hop if and when Mr Johnson and his fellow biohackers strike it big. ■
https://www.economist.com/leaders/2025/03/20/how-to-enhance-humans
The Wall Street Journal, March 14
Generation Xanax: The Dark Side of America’s Wonder Drug
Amid rising concerns about benzodiazepines, some patients who try to quit are suffering extreme anxiety, memory loss and intense physical pain
Full text : https://kinzler.org/wp-content/uploads/2025/03/14-mars-4.pdf
Neue Zürcher Zeitung, 13. März
Der deutschen Regierung liegen plausible Indizien vor, dass das Coronavirus aus dem Labor in Wuhan kommt
Eine vom Bundeskanzleramt initiierte Gruppe spezialisierter Forscher traf sich mehrfach beim Bundesnachrichtendienst. Nach ausgiebigen Untersuchungen liegen zahlreiche Indizien für eine Laborherkunft vor.
Full text : https://kinzler.org/wp-content/uploads/2025/03/13-mars-1.pdf
L’Express, 13 mars
Mortalité infantile : “La France est lancée dans une trajectoire négative rare en Europe”
Société. Pour 1 000 enfants qui naissent chaque année, 4,1 décèdent. Les journalistes Anthony Cortes et Sébastien Leurquin ont enquêté sur ce chiffre en augmentation dans un livre au titre éponyme.
La France est devenue l’une des mauvaises élèves de l’Union européenne. Pas question ici de déficit ou de poids de la dette, mais de… mortalité infantile. Depuis 2015, Paris affiche un taux supérieur à la moyenne de l’UE. D’après un rapport de l’Institut national d’études démographiques, la France a désormais glissé au 23e rang sur 27. Sur un millier de bébés nés en France, 4,1 en moyenne sont morts avant leur premier anniversaire – souvent quelques jours après leur naissance. Partant de ce chiffre – dont ils ont fait le titre d’un livre publié ces jours-ci – les journalistes Anthony Cortes et Sébastien Leurquin ont enquêté sur les raisons de cette dégradation. Si les autorités médicales pointent la hausse de la pauvreté et de l’âge des mères, les deux auteurs insistent sur plusieurs hypothèses – éloignement des maternités, manque de médecins, politique du chiffre – pour expliquer cette régression qui nous fait revenir aux taux de mortalité infantile du début des années 2 000. Entretien.
L’Express : Dans les années 1970, le démographe Emmanuel Todd prophétisait la fin de l’URSS en raison de la hausse de la mortalité infantile. La dégradation française laisse-t-elle présager un avenir aussi sombre?
Anthony Cortes : Loin de nous l’idée de nous poser en prophètes, d’autant qu’Emmanuel Todd est en partie revenu sur cette thèse, pour ajouter d’autres facteurs à cet effondrement. Maintenant, le taux de mortalité infantile dit beaucoup de choses sur l’état de santé d’une société, d’un système de santé qui n’arrive plus à répondre à certains besoins de sa population. De là à prédire qu’il annonce une dégradation intense des services publics qui pourrait être fatale à notre société, il y a un gouffre – que nous ne franchirons pas. Notre travail est d’interroger un certain nombre de facteurs afin de comprendre la raison de ce phénomène.
Sébastien Leurquin :Nous sommes plus alarmistes que pessimistes. La volonté derrière ce livre est de croire à un sursaut possible, en alertant sur ce qui pourrait advenir si nous ne changeons pas les choses. La France est lancée dans une trajectoire négative rare en Europe. Si la mortalité infantile était mieux traitée dans les priorités politiques, nous pourrions changer les choses.
Cette hausse de la mortalité infantile a-t-elle les mêmes causes partout en France? Des territoires sont-ils plus touchés que d’autres?
Anthony Cortes : La question se pose dans le monde rural. Dans les années 70, l’Etat a choisi de fermer les petites maternités pour des raisons de sécurité. Cette politique a donné des résultats, puisqu’on est passé d’un taux de mortalité infantile de 18 pour 1 000 à 4,8 pour 1 000 en 1998. Mais à la fin des années 1990, des déserts médicaux ont commencé à apparaître sur le territoire, ce qui a contribué à éloigner les femmes des services de soins. Aujourd’hui, près de 900 000 femmes sont à plus de 30 minutes d’une maternité. Nous nous interrogeons donc : ne sommes-nous pas allés trop loin dans cette logique, sans interroger le maillage territorial? Nous l’avons constaté en nous rendant dans le Lot. En quinze ans, trois de ses quatre maternités ont fermé. Le taux de femmes en âge de procréer habitant à plus de 45 minutes d’un établissement est passé de 6 à 24 %. Dans le même temps, le Lot est devenu le département avec le taux de mortalité infantile le plus élevé de France métropolitaine.
La question se pose aussi dans les banlieues. La Seine-Saint-Denis a un taux de mortalité infantile bien supérieur à la moyenne nationale : 5,8 %. C’est aussi un département où 17 % de la population vit sous le seuil de pauvreté, et où les structures de prévention se sont délitées. Les centres de protection maternelle et infantile, permettant d’accompagner les mères et les enfants, voient leurs financements diminuer d’année en année. En vingt ans, le nombre de femmes suivies a été divisé par deux. Il y a donc un double tableau, avec deux populations de plus en plus délaissées par la puissance publique dans ce domaine : le monde rural et la banlieue. (…)
L’Académie de médecine évoque la hausse de la pauvreté et de l’âge des mères pour expliquer la hausse de la mortalité infantile. Vous préférez évoquer les fermetures de petites maternités. Pourquoi ces différences d’analyse ?
Anthony Cortes : Evidemment, l’âge et le niveau de richesse jouent dans l’équation. Bien sûr que des grossesses plus tardives et des mères plus précaires sont des facteurs qui rendent les accouchements plus difficiles. Mais pourquoi se retrancher uniquement dans des explications individuelles quand la crise, comme l’ont déjà pointé les agences régionales de santé (ARS), est “multifactorielle” ? Si tel est le cas, il faut mesurer chaque élément, pour comprendre ce qui se joue dans le problème global. (…)
En quoi un registre des naissances dans les maternités, qui n’existe pas aujourd’hui, permettrait-il de lutter contre la mortalité infantile?
Sébastien Leurquin :Nous manquons clairement de données statistiques. Un registre des naissances avec un tableau de bord, une multitude de données, permettrait de mener des études afin de mieux comprendre la mortalité infantile. La dégradation du taux de mortalité infantile vient-elle de la responsabilité individuelle des mères? Ce taux peut-il être croisé avec leurs poids, leurs éventuelles addictions, les facteurs polluants qui peuvent affecter leur grossesse? Nous pourrions voir quels départements sont les plus touchés, quelles techniques d’accouchement peuvent être dangereuses… Sans ce registre, aujourd’hui, en réalité, nous sommes aveugles.
The Economist, March 12
Be careful what you wish for : The best- or worst-timed book in history
“The Technological Republic” calls for techies to work with Washington. But that is already under way
The Technological Republic. By Alexander Karp and Nicholas Zamiska. Crown Currency; 320 pages; $30. Bodley Head; £25
Full text :
“SILICON VALLEY has lost its way.” So says Alex Karp, co-founder and boss of Palantir, a supplier of software to Western armies and spooks. America’s tech industry has forgotten about the military’s role in its creation, he frets. It shuns defence work and prefers to build frivolous consumer products, such as food-delivery apps and video-sharing platforms. No tech boss dares to take principled, unpopular positions such as, say, working on military technology (the author aside, of course).
But now AI is here, and America’s adversaries are racing to put it to military use. So as with nuclear weapons in the 1940s, when technologists worked hand-in-hand with government (thereby giving rise to Silicon Valley), their modern-day counterparts must do the same again to defend America. Alas, patriotism and a sense of civic duty have become unfashionable among a generation of technologists who distrust government and espouse naive pacifism. If only, Mr Karp laments, some brave technologist would step forward and show the way: for techies to become more patriotic and willing to develop military technology, and for governments to become more like the fast-moving, innovative tech industry.
That is the argument advanced in “The Technological Republic”, co-written by Mr Karp and Nicholas Zamiska, a colleague at Palantir. Penned before the American elections of November 2024, it has been published after them. Unlike many of his peers, Mr Karp endorsed Kamala Harris. With the victory of Donald Trump, however, many of the things that Mr Karp calls for have now happened—but not in the way he might have wished.
Mr Karp is right that American techies could put their talents to better uses than trivial consumer apps. But his claim that they will not do military work is wide of the mark. Attitudes changed after Russia invaded Ukraine, and the shift accelerated after Mr Trump’s election. Google reversed its ban on the military use of its AI technology in February. Investors are piling into defence-tech startups. Palantir’s own share price hit a record high last month; today the firm’s market capitalisation is around $174bn, about triple what it was a year ago.
What of the idea that tech bosses will not take unpopular decisions? They have been doing so lately, seemingly to appease Mr Trump. (Nearly every Silicon Valley bigwig was at Mr Trump’s inauguration.) Jeff Bezos of Amazon has pushed conservative viewpoints at the Washington Post, a newspaper he owns, causing an exodus of subscribers. Mark Zuckerberg of Meta has attracted criticism for cutting back on fact-checking and calling for more “masculine energy” in the workplace. As for the notion that Washington could use a dose of the “move fast and break things” attitude of the tech industry, that too has come to pass, as Elon Musk chaotically applies shock therapy to the federal government.
It is hard to say whether Mr Karp’s timing is brilliant or terrible. His book has arrived just as many of the things he argues for have come true, but in unexpected ways—like a fairy tale in which the granting of a wish turns out to have unexpected drawbacks. The argument is filled out with a potted history of America’s tech industry, quotes from luminaries, a fair amount of score-settling and quixotic excursions into what managers can learn from honeybees and improvisational theatre. The book’s intellectual eclecticism is clearly modelled on that of Yuval Noah Harari, Silicon Valley’s favourite historian. But “The Technological Republic” is much less compelling. Mr Karp has got what he wished for, but he may not like the outcome. ■
https://www.economist.com/culture/2025/03/11/the-best-or-worst-timed-book-in-history
The Economist, March 10
Break through : The best places to be a working woman in 2025
Our glass-ceiling index measures the role and influence of women in the workforce

Full text :
EACH YEAR, to mark International Women’s Day on March 8th, The Economist publishes the glass-ceiling index. It compares working conditions for women across the OECD, a club of 29 countries. The index is based on ten measures—from labour-force participation and salaries to paid parental leave and political representation. The charts below show how each country performed in 2024.
Sweden came in first place, ending Iceland’s two-year winning streak. The Nordics always perform well on our index, which we have published for the past 13 years, thanks to policies that support gender equality and working parents. At the opposite end of the ranking, South Korea—which had always come in last place—advanced to 28th, pushing Turkey down to the bottom spot. New Zealand was our most improved country, rising eight places to fifth.
A closer look at our ten criteria shows which factors are driving these movements.
Start with education. Women across the OECD graduate from university at much higher rates than men. As of last year, 45% of women had a degree, compared with 36.9% of men—a slightly bigger gap than in 2023. Over the past decade, around a third of people taking the GMAT, the de facto entrance exam for an MBA, have been women. In 2024 that share increased modestly to 36%, led by increases in Finland, Estonia and New Zealand.
Despite these trends, labour-force participation remains lower for women. According to the latest available data, 66.6% of working-age women had a job compared with 81% of men. These rates vary considerably by country: in Iceland and Sweden, for example, more than 82% of women work, whereas in Italy the figure is just 58%.
The lower participation rates hinder career progression, which in turn affects the gender pay gap. Across the OECD median wages for women are still 11.4% lower than they are for men. In some countries, including Australia and Japan, the gap is growing wider.
The next three indicators broadly track the progress of women in business and politics. The share of company board seats held by women has increased from 21% in 2016 to 33% today. In New Zealand, France and Britain women now hold nearly the same number of board positions as men. Similarly, in Sweden, Latvia and America women now fill almost half of all managerial positions. Britain performed particularly well on these indicators compared with previous years, sending its overall score higher.
Representation in politics is also edging up across the OECD. After last year’s election extravaganza, women’s share of seats in parliaments ticked above 34% for the first time in the index’s history. In Britain the election of an additional 43 women MPs in July 2024 raised their share from 35% to 41%. Just 16% of Japanese lawmakers are women, although that is a record high for the country.
Our final three indicators cover the effects of starting a family (these have a lower weighting in the ranking since not all women will have children). Because mothers continue to carry out most child-care duties, generous parental leave and affordable child care can significantly increase their participation in the workforce. By these measures America performs particularly badly. It is the only rich country that does not provide any nationally mandated parental leave, and child-care expenses exceed 30% of average wages. Only New Zealand and Switzerland have higher relative costs, at 37% and 49% respectively.
More generous policies exist in Hungary and Slovakia, where mothers receive the equivalent of fully paid leave for 79 weeks and 69 weeks, respectively. Leave for fathers is also important—it prevents companies from discriminating against women and helps share the burden of child care. Surprisingly, Japan and South Korea have the most generous paternity-leave policies in the OECD (though few new fathers choose to stay at home).
The glass-ceiling index is a broad and imperfect snapshot of the workforce. But it does help to show how countries perform on a consistent group of indicators over time. Although women are still struggling to break through the glass ceiling, most countries are at least changing for the better.
https://www.economist.com/graphic-detail/2025/03/05/the-best-places-to-be-a-working-woman-in-2025
The Economist, March 2
Reproductive science : Designing babies
Will tinkering with human embryos ever be worth the risk?

Full text : https://kinzler.org/wp-content/uploads/2025/03/2-mars-3.pdf
Link: https://www.economist.com/technology-quarterly/2025/02/21/designing-babies
Le Point, 2 mars
😕 Comment la détresse des ados ruine notre économie
LA FIÈVRE DU MARDI SOIR. Avec leur peau grasse et leur cafard existentiel, les 12-18 ans font perdre des milliards en soupirant dans leur chambre. Il est encore possible d’agir.
Full text :
Alors que Donald Trump prétend relancer l’économie américaine en faisant flamber les taxes douanières, en virant des fonctionnaires experts de la sécurité nucléaire, ou encore en expulsant massivement des migrants illégaux, il semble ignorer que le véritable avenir de son pays se décide entre l’acné et les premiers émois des ados de l’Oncle Sam. C’est ce que révèle une étude publiée dans la revue PLOS Medicine. Les chercheurs ont suivi plus de 3 000 « teenagers » pendant dix ans et ont analysé leur impact économique dix ans plus tard.
Ils ont découvert que le vrai problème durant cette période de la vie, ce n’est pas l’odeur des pieds, mais le mal-être existentiel de ces petits êtres boutonneux. Selon un savant calcul, leur détresse psychologique entraîne une baisse de 5 658 dollars de leurs revenus annuels futurs. C’est le moment de s’interroger sur l’efficacité de ces démonstrations d’autorité qu’affectionnent les parents, qui consistent à priver de portable leurs progénitures. Elles sont angoissantes pour les gamins, vaines et surtout, économicides.
Et puis, il faut faire preuve d’un peu plus d’empathie et de compassion à l’égard de ces proto-adultes qui découvrent le poil. Même si cela demande de prendre beaucoup sur soi, acceptons qu’ils passent leurs journées à soupirer, un casque plaqué contre les oreilles, sombrant dans la mélancolie déprimante des chansons de Billie Eilish. Quand ils auront 30 ans, ils devront s’accommoder, selon la même étude, d’une diminution de 10 833 dollars de leurs actifs financiers par rapport à ceux qui n’ont pas eu à traverser l’épreuve de la détresse psychologique. Qui peut imaginer leur vie dans 15 ans pour saisir toute la souffrance qui les attend ? Personne. Personne ne les comprend, sauf Billie Eilish.
Investir dans le bien-être pour éviter le naufrage
Oui, car le pire est à venir. Ils devront payer l’asynchronie totale de leur rythme biologique avec la course du monde. Se lever à midi n’est pas toujours une envie, mais un besoin physiologique vital. La société, elle, ne retiendra que paresse, flemme et oisiveté. Elle leur infligera une participation réduite de 6 % au marché du travail, 9 % de chances en moins de faire des études supérieures, mais par contre, une augmentation de 11 % de la couverture santé Medicaid/Medicare, réservée à la population la plus précaire. Tout ça pour n’avoir pas respecté, pendant quelques années, les injonctions mortifères du réveil, qui sous prétexte de donner l’heure ne fait que produire du stress dès les premières lueurs de l’aube.
Maintenant que le constat est posé, qu’il est admis que la détresse psychologique des ados coûte très cher – et cela vaut très certainement aussi pour nos petits Français – que faire pour sauver le budget ? Les chercheurs suggèrent qu’une politique préventive touchant seulement 10 % de la population morveuse à risque, permettrait de générer un bénéfice de 51 à 54 milliards de dollars sur 10 ans, pour un investissement de 10 milliards dans les infrastructures de soins de santé mentale.
Message aux décideurs : si vous ne voulez pas investir dans le bien-être de ces enfants parce qu’ils vous exaspèrent, faites-le au moins pour préserver notre économie du naufrage. Et le gain ne sera pas que financier : l’étude estime qu’environ 25 % des adolescents profiteraient de ces nouvelles infrastructures de soins. Aux États-Unis, cela représente 5 millions d’êtres pubères qui, mieux dans leur peau, préserveraient des millions d’adultes de cette rengaine modulée sur quatre octaves : « Vous me comprenez trop pas ! »
Le Point, 1 mars
Peut-on faire confiance aux articles scientifiques ?
De plus en plus d’études, souvent en provenance de la Chine, de l’Inde ou de l’Arabie saoudite, font l’objet de rétractations.
Excerpts:
Un tweet de janvier 2020 a fait d’autant plus de bruit dans le monde de la recherche qu’il émanait de Frances Arnold, professeure au California Institute of Technology et Prix Nobel de chimie 2018. La scientifique américaine y annonçait la rétractation, du fait de la non-reproductibilité des résultats, d’un article de son équipe publié dans Science l’année précédente.
Plus ennuyeux, l’avis de rétractation émis par la revue précisait qu’un « examen attentif du carnet de laboratoire du premier auteur » (une doctorante) avait révélé « l’absence de données brutes […] pour des expériences clés ». Frances Arnold – et c’est tout à son honneur – a fait son mea culpa sur Twitter : « Il est pénible de l’admettre, mais essentiel de le faire. Je m’excuse auprès de tous. J’étais assez occupée quand cet article a été soumis et je n’ai pas fait mon travail correctement. »
On ne peut que saluer la parfaite honnêteté intellectuelle de cette scientifique de très haut rang, qui n’a pas hésité à reconnaître qu’elle avait failli à sa tâche. On est là à mille lieues des petits et gros bidouillages de chercheurs adeptes du « pas vu, pas pris » – et qui, lorsqu’ils le sont, voient leurs articles rétractés par la revue qui les a publiés.
En utilisant les données fournies par trois sociétés privées d’analyse de la recherche et de son intégrité, une équipe éditoriale de la revue Nature vient de réaliser une étude comparative des taux de rétractation d’articles scientifiques à travers le monde. Avec plus de 100 articles rétractés de 2014 à 2024, soit plus de 5 % de sa production totale, le Jining First People’s Hospital, situé dans le Shandong en Chine, a le triste privilège de figurer en tête du classement : son taux de rétraction est 50 fois supérieur à la moyenne mondiale. Des dizaines de scientifiques de cet établissement ont été sanctionnés pour mauvaise conduite en matière de recherche, notamment pour falsification de données et publication de travaux fictifs.
Dans le top dix des établissements à plus forts taux de rétractation d’articles scientifiques sur la période 2014-2024, on trouve cinq autres hôpitaux chinois. Y figurent aussi trois universités – pakistanaise, chinoise et éthiopienne –, ainsi qu’un institut d’ingénierie et de technologie indien. La Russie se signale aussi par un fort taux de rétractations, mais beaucoup n’ont pas été prises en compte, car elles ne figuraient pas dans les bases de données mondiales. Enfin, si l’on se limite aux années 2020 à 2024 et que l’on s’intéresse non pas au pourcentage mais à la valeur absolue du nombre de rétractations, ce sont essentiellement des universités saoudiennes et indiennes qui figurent dans le top 5.
À l’échelle mondiale, les données sur les rétractations d’articles de recherche montrent qu’elles sont rares. Sur plus de 50 millions d’articles publiés au cours de la dernière décennie, 40 000 environ, soit moins de 0,1 %, ont été rétractés. Mais ces rétractations sont en forte croissance. Pour la seule année 2023, leur nombre dépassait déjà les 10 000, et, selon les experts en intégrité scientifique, il ne s’agissait là que de la pointe de l’iceberg. (…)
Et que dire du recours désormais possible à l’intelligence artificielle ? Une étude publiée en 2023 a montré que ChatGPT était capable de créer un article frauduleux très convaincant « qui ressemble à un véritable article scientifique en termes d’utilisation des mots, de structure des phrases et de composition globale ». D’où l’impérieuse nécessité d’une vigilance accrue. (…)
« Publish or perish » – publier ou périr : certains voient dans cette injonction faite aux chercheurs de produire un maximum de publications l’explication de la crise qui affecte la recherche. La justification est un peu courte. Car multiplier les publications bâclées, voire carrément « bidon », est le moyen le plus plus sûr de saper la crédibilité de la science, au détriment des chercheurs, heureusement nombreux, qui s’imposent de respecter la rigueur scientifique.
Cette junk science peut être particulièrement toxique lorsqu’elle touche au domaine médical. La crise du Covid-19 a vu se multiplier les articles frauduleux de nature à semer le doute et à polluer les débats. De quoi miner la confiance en la science qui n’avait vraiment pas besoin de cela.
The Economist, February 22
Trump v science : How the Trump administration wants to reshape American science
The consequences will be felt around the world
Extraits:
THE ANNUAL meetings of the American Association for the Advancement of Science afford researchers a chance to show off what they do best. Those roaming the corridors in Boston between February 13th and 15th were treated to talks on everything from plate tectonics and ancient DNA analysis to gene editing and nuclear power. All represent the cutting-edge research to be expected in a country that has long prided itself on, as per this year’s theme, producing the “science shaping tomorrow”.
At the moment, though, it is science itself that is being shaped. Mere weeks into the second Trump administration, scientists worry that their flagship institutions are under assault. The National Scientific Foundation (NSF) and the National Oceanic and Atmospheric Administration (NOAA), for example, have been told to prepare for hefty reductions to their budgets and staff cuts of up to 50%. Across several federal agencies, mass firings of thousands of “probationary” workers, meaning those recently hired or promoted, have already begun. Research institutions reliant on funding from the National Institutes of Health (NIH), meanwhile, have been warned of restrictions on how they can spend their money.
These moves are part of Donald Trump’s and Elon Musk’s aspiration to cut $2trn from the annual federal budget of approximately $7trn. This has put all the government’s outgoings, including the roughly $160bn spent every year on basic and applied research, under the microscope. Another motivation is a suspicion that scientists and their research have become tools of a “woke ideology”. Precisely which of the administration’s changes will survive legal challenge is still unclear. But the scale of the cuts and the manner in which they are being introduced could seriously damage American science.
The deepest slashes proposed so far concern the $44bn in grants allocated by the NIH. Many institutions routinely use NIH funds to cover between 50% and 70% of their “indirect” costs, which includes things such as laboratory maintenance, equipment provision and salaries for support and administrative staff. The administration sees that share as too high, and wants to cap indirect costs at 15% of the grant total, in line with similar limits set by private organisations, forcing institutions to pay for the remainder themselves. (…)
Analysis by The Economist finds that a total of $6.3bn in NIH funding could be at stake. Studies of endocrinology, diabetes and metabolism would see cuts of almost a fifth of their total budget (see chart). This could have serious consequences for medical research. It may also backfire politically: many of the institutions hardest-hit would be in Republican states. Universities in Alabama, for example, received $386m in funding from the NIH in 2024, supporting more than 4,700 jobs and $900m-worth of economic activity.
Whether the cap will come into force, though, is still unclear. Federal judges have put the proposal on hold, in response to lawsuits filed by 22 states, plus national associations representing medical schools and some hospitals. (…)
Another prong of the administration’s actions is an attempt to influence what research is funded. Russell Vought, the head of the Office of Management and Budget, has previously suggested cuts as a way of ensuring scientific institutions like the NSF cannot “propagandise for woke ideology”.
Federal agencies are now required to review all grants in light of an executive order terminating programmes aimed at promoting diversity, equity and inclusion (DEI), which Mr Trump has argued has made government less meritocratic. (…)
Removing boilerplate language from future grant applications will be time-consuming but doable. Getting exemptions for research that has been wrongly flagged may also be possible, though no process to do so has yet been made public. But some valuable research may be dropped.
It is research on climate change that faces the most pressing and concrete threats. Almost all mentions of climate change and programmes to combat it have been scrubbed from federal websites, and the National Nature Report—the first assessment of nature and biodiversity across the government, produced by more than 150 scientists and funded with government money—was cancelled weeks before the first full draft was due. One researcher who studies how the oceans absorb carbon dioxide says he envisages a future in which his team removes references to climate change in order to get grants approved.
The status of many other scientific projects related to climate change and the environment now seems uncertain—not least because plenty are funded, at least in part, by appropriations set out in the Inflation Reduction Act, the climate legislation passed by the Biden administration, and which Mr Trump’s officials hope to unpick. (…)
That would have consequences beyond America’s borders. Several media outlets, including the Washington Post and Wired, reported internal emails to some NOAA staff instructing them to pause “all international engagements”. Many meteorological and climate agencies around the world rely on the observations and data collected by NOAA. The worst affected will be agencies in poor countries, which often do not have the money or infrastructure to make their own detailed weather forecasts and climate projections, says one top scientist at an international organisation, who could speak only anonymously.
Climate science in America is “possibly the strongest in the world”, the scientist points out, and reductions to it will “take out the foundations from others’ work”. Other organisations abroad will have to step up to compensate for the loss. But, the scientist notes wryly, that creates an opportunity to chip away at America’s long-standing scientific hegemony. Those gathered in Boston to celebrate America’s “advancement of science” might feel that promise ringing a little hollow. ■
The Economist, February 20
The power of love : Do lonely people have shorter lives?
What studying Britons can tell you about the risk factors for an early death

Full text : https://kinzler.org/wp-content/uploads/2025/02/20-fevrier-3.pdf
Link: https://www.economist.com/graphic-detail/2025/02/19/do-lonely-people-have-shorter-lives
Le Figaro, 19 février
Fusion nucléaire : des scientifiques parviennent à maintenir un plasma pendant 22 minutes, un record
L’exploit, qui s’est déroulé dans les Bouches-du-Rhône, nécessite un environnement d’une température d’au moins 100 millions de degrés Celsius.
Article intégral :
Des scientifiques ont franchi un «jalon» sur la voie de la fusion nucléaire en maintenant un plasma pendant plus de 22 minutes, un record, dans le réacteur opéré par le CEA à Cadarache (Bouches-du-Rhône), a annoncé l’organisme mardi. Promesse d’une énergie propre, sûre, peu coûteuse et quasi-inépuisable, la fusion nucléaire fait l’objet de recherches fondamentales depuis des décennies.
Elle consiste à reproduire les réactions qui se produisent au cœur des étoiles, en assemblant deux noyaux d’atomes dérivés de l’hydrogène. C’est le processus inverse de la fission, utilisée dans les centrales nucléaires actuelles, qui consiste à casser les liaisons de noyaux atomiques lourds. Provoquer cette fusion nécessite des températures d’au moins 100 millions de degrés Celsius afin de créer et confiner du plasma. Ce gaz chaud électriquement chargé a tendance à devenir instable, ce qui peut provoquer des pertes d’énergie et limiter l’efficacité de la réaction.
Le réacteur tokamak West, opéré sur le centre du Commissariat à l’énergie atomique et aux énergies alternatives (CEA) à Cadarache, est parvenu le 12 février à maintenir un plasma pendant 1337 secondes, «améliorant de 25% le précédent record» établi en janvier en Chine, indique le CEA dans un communiqué. Obtenir un «plasma long» montre «qu’on le maîtrise dans sa production, mais aussi dans son maintien», souligne auprès de l’AFP Anne-Isabelle Étienvre, directrice de la recherche fondamentale au CEA.
Les scientifiques doivent encore lever de nombreux «verrous technologiques» pour que la fusion thermonucléaire permette de «produire plus d’énergie qu’elle n’en consomme» ce qui n’est pas encore le cas, rappelle-t-elle.
Dans les prochains mois, l’équipe de West compte atteindre «de très longues durées de plasma, de l’ordre de plusieurs heures cumulées» et chauffer «ce plasma à encore plus haute température pour se rapprocher au mieux des conditions attendues dans les plasmas de fusion», indique le CEA dans un communiqué. Et «regarder l’impact du plasma sur la durée de vie des composants internes du tokamak face à ce plasma intense», ajoute Isabelle Étienvre.
L’objectif est de «préparer du mieux possible l’exploitation scientifique d’Iter», le projet de réacteur expérimental lancé en 1985 par l’Union européenne, la Chine, la Corée du Sud, les États-Unis, l’Inde, le Japon et la Russie, explique-t-elle. Initialement prévue pour 2025, la production du premier plasma d’Iter, confronté à des retards et surcoûts considérables, a été reportée cet été à au moins 2033.
Le Figaro, 15 février
Ces lunettes traduisent 40 langues à la volée
Elles savent aussi afficher des présentations ou enregistrer des interviews. De quoi révolutionner le monde professionnel.
Article intégral :
Après les smartphones ou les oreillettes Bluetooth, les lunettes connectées s’apprêtent à envahir notre quotidien. La start-up chinoise Halliday vient de dévoiler un modèle d’apparence classique mais intégrant un miniprojecteur sur la lunette droite, conçu pour projeter des informations directement sur la rétine de l’utilisateur.
Ce procédé discret permet de garantir la confidentialité des données mais aussi de fonctionner avec n’importe quel type de verre correcteur et quelles que soient les conditions lumineuses. Légères (35 g) et endurantes (8 heures), les Halliday Glasses (399 $, Hallidayglobal.com) se commandent via des instructions vocales, des gestes tactiles sur la monture ou encore avec une bague connectée servant de pavé tactile. Elles permettent de téléphoner, d’écouter de la musique, de suivre un itinéraire GPS, de naviguer sur internet, d’afficher le texte d’une conférence (que l’on aura précharge via une app mobile) mais aussi de traduire instantanément les conversations dans 40 langues (la traduction s’affiche sur l’écran).
Livrées à partir d’avril 2025
Elles peuvent également enregistrer et archiver les débats, voire fournir des réponses en temps réel via l’intelligence artificielle. Actuellement en phase de financement sur Kickstarter, elles devraient être livrées à partir d’avril 2025. Elles pourraient dynamiser les réunions professionnelles ! Et dynamiter le passage des examens…
The Economist, February 14
The Paris discord : After DeepSeek, America and the EU are getting AI wrong
Europe has a chance to catch up, whereas America should ease up
Extraits:
The attempt at global harmony ended in cacophony. As Emmanuel Macron’s ai summit drew to a close on February 11th J.D. Vance, America’s vice-president, bluntly set out an America-first vision for artificial intelligence (AI), castigated Europe for being too rule-bound and left before the usual group photograph. eu countries, for their part, struck a collaborative tone with China and the global south, while stressing the need to limit the risks of using ai.
Both Europe and America should rethink their approach. After the work by DeepSeek, China’s hotshot model-maker, Europe has been given an unexpected chance to catch up—if it can cast off its regulatory straitjacket. America can no longer behave as if it has a monopoly on ai. It should change how it wields power over its allies.
The pace of innovation is astonishing. Barely six months ago AI looked as if it needed a technological breakthrough to become widely affordable. Since then reasoning and efficiency techniques have emerged, enabling DeepSeek to develop models close to the frontier even though it cannot use cutting-edge American chips. And DeepSeek is just exhibit A. Researchers everywhere are racing to make ai more efficient. Those at Stanford and the University of Washington, for instance, have trained models more cheaply still. Once there were concerns that the world did not contain enough data to train advanced systems. Now the use of synthetic data seems to be having good results.
For Europe, which looked hopelessly behind in AI, this is a golden opportunity. In contrast to Google’s search engines, where network effects mean that a winner takes all, no law of computing or economics will stop European firms from catching up. Better policy can help close the gap. Mr Macron is rightly encouraging investment in data centres. But just as important is cutting through the red tape that prevents companies from innovating and adopting ai. The EU’s ai Act is fearsomely stringent: a startup offering an ai tutoring service, by one account, must set up risk-management systems, conduct an impact assessment and undergo an inspection, as well as jumping through other hoops.
Another hurdle is privacy rules. Even big tech firms, with their huge compliance teams, now launch their ai products in Europe with a delay. Imagine the costs for startups. German manufacturers sit on a wealth of proprietary data that could feed productivity-enhancing ai tools. But fear of breaching regulations deters them. A wise relaxation of rules, as well as harmonised enforcement, would help Europe exploit AI’s potential.
Uncle Sam needs to wake up, too. China’s advances suggest that America has less monopoly power over ai simply by having a hold over cutting-edge chips. Instead, it needs to attract the world’s best talent, however distasteful that may be to maga Republicans.
America should also change how it engages with its allies. In Paris Mr Vance rightly warned against the use of Chinese infrastructure (and the fact that China signed the summit’s declaration on ai governance may explain why America declined to). But America would more successfully discourage the adoption of Chinese AI if it were more willing for its friends to use its technology. In his final days in office Joe Biden proposed strict ai controls that would hinder exports even to partners like India. Revising those would nudge countries to use American tech rather than pushing them into China’s embrace. American ai now faces competition. If it wants to reign supreme, Uncle Sam will have to entice, not threaten. ■
https://www.economist.com/leaders/2025/02/12/after-deepseek-america-and-the-eu-are-getting-ai-wrong
Le Point, 14 février
Pourquoi les divergences entre hommes et femmes se sont accrues
Beaucoup d’écarts entre hommes et femmes se sont accentués dans les pays les plus égalitaires, infligeant un revers aux théories les attribuant au seul critère socioculturel.
Article intégral : https://kinzler.org/wp-content/uploads/2025/02/14-fevrier-1.pdf
Neue Zürcher Zeitung, 14. Februar
Legalisierung von Cannabis: Eine neue Studie warnt vor den Folgen für die psychische Gesundheit von Jugendlichen
Psychiater weisen schon seit langem warnend darauf hin: Die Freigabe des Cannabisverkaufs wird zu einer Zunahme von Psychosen führen. Jetzt gibt es dafür handfeste Beweise.
Extraits:
«Cannabis-Studie – vier Jahre lang, wir suchen Studienteilnehmer!» Auf grossen gelben Plakaten wendet sich der Verein Cannabis Research an Mitbürger im Kanton Zürich, die gerne Drogen konsumieren. Gesucht werden 7500 Menschen in Stadt und Umgebung, die vier Jahre lang «für die Forschung Blüten, Haschisch, Vapes & Edibles» zu sich nehmen. 5000 von ihnen können das Rauschmittel in einer offiziellen Ausgabestelle kaufen. Die anderen müssen auf dem Schwarzmarkt fündig werden.
Durch ihre Studie wollten die Wissenschafter herausfinden, wie sich eine Cannabislegalisierung in der Schweiz sozialökonomisch, beispielsweise auf die Arbeitslosenraten und Bildungsabschlüsse, auswirken würde, erklärt Andreas Beerli vom Departement Management, Technologie und Ökonomie der ETH Zürich. Er ist einer der Organisatoren der Studie. In Bern, Biel und Luzern wollen Wissenschafter gleichzeitig herausfinden, wie sich ein solcher «regulierter Cannabisverkauf» auf den Drogengebrauch auswirkt. In Genf, ob regulierte Kiffer vernünftiger konsumieren. (…)
Deutschland ist schon einen Schritt weiter. Im vergangenen April wurde erlaubt, die Droge in Anbauvereinen oder Klubs zu erwerben. Unter lautem Protest der Psychiater: Eine Legalisierung könnte für die Psyche der Jugendlichen gefährlich werden, sagten sie warnend.
Dass der Konsum von Cannabis Psychosen auslösen kann, wird von niemandem bestritten. Die Deutschen haben es trotzdem legalisiert. (…)
Die Befürworter argumentieren, nach aktuellem Wissensstand sei nicht jeder gefährdet, durch das Kiffen den Verstand zu verlieren. Gefährdet seien vor allem diejenigen, die schon eine gewisse genetische Veranlagung dafür mitbrächten. (…)
Seit Mitte dieser Woche habe sich das geändert, sagt Rainer Thomasius, der Leiter des Deutschen Zentrums für Suchtfragen des Kindes- und Jugendalters am Universitätsklinikum Hamburg-Eppendorf. Denn am Dienstag wurde von Wissenschaftern des kanadischen Ottawa Hospital Research Institute in der Fachzeitung «Jama Network Open» eine neue Studie zum Thema präsentiert. «Das ist ein weiterer Beleg dafür, dass die Legalisierung von Cannabis zu einer Zunahme von psychischen Erkrankungen führt», sagt er.
Die Forscher berichten darin über das Ergebnis ihrer Auswertung von Gesundheitsdaten von fast 14 Millionen Menschen aus den Jahren 2006 bis 2022. Alles Einwohner der Provinz Ontario; dort hat man Cannabis bereits vor sieben Jahren legalisiert. Schon drei Jahre zuvor hatte man in Ontario damit begonnen, bei Cannabiskonsum oder -verkauf beide Augen zuzudrücken.
Seit der Freigabe, berichten sie, habe sich die Zahl der neu diagnostizierten Psychosekranken in der Provinz fast verdoppelt. Vor der Legalisierung lag die Rate der Neuerkrankungen bei 30 von 100 000 Personen. Danach bei 55. Zudem hatten unter den Cannabiskonsumenten knapp 15 Mal so viele Personen eine Schizophrenie entwickelt wie im Durchschnitt der Bevölkerung. Eine Schizophrenie ist eine besonders schwere und langwierige psychotische Erkrankung.
2019 hatten Wissenschafter bereits in der Fachzeitung «Lancet» ausgerechnet: Wer täglich den THC-Rausch anstrebt, bei dem ist die Wahrscheinlichkeit, dass er an einer Psychose erkrankt, rund dreimal so hoch wie bei einer abstinenten Person. Konsumiert er zudem besonders THC-haltige Drogen, steigt das Risiko sogar auf das Fünffache. Rund 20 Prozent aller Psychosefälle liessen sich vermeiden, wenn der Cannabisverkauf vollständig unterbunden würde, lautete ein weiteres Ergebnis. In Grossstädten wie London sogar 30 Prozent.
Ein weiteres Ergebnis der kanadischen Studie. Nach der Legalisierung wurde tatsächlich deutlich mehr Cannabis konsumiert. Im Vergleich zu den Jahren zuvor hatte sich die Zahl der Menschen, die im Rausch eine Notfallambulanz aufsuchten, fast verfünffacht. Die Forscher hatten auf Basis solcher Klinikbesuche die Gesamtzahl der Drogenkonsumenten kalkuliert.
Auch das deckt sich mit älteren Daten: So hatten beispielsweise bereits 2014 Wissenschafter im US-Gliedstaat Colorado ermittelt, dass eine Freigabe 12- bis 17-Jährige geradezu zum Kiffen animiert. (…)
Teenager und Jugendliche gelten als besonders durch die Droge gefährdet. Der Grund: Ihr sogenanntes Cannabinoid-System im Gehirn, in dem die Nervenzellen mit körpereigenen, cannabisähnlichen Substanzen kommunizieren, ist noch nicht ausgereift. Wird dieses System dann auch noch durch Wirkstoffe von aussen überschwemmt, ist es völlig überfordert. Das stört wiederum andere Systeme, mit denen es verschaltet ist. (…)
Darunter das System mit dem Botenstoff Dopamin. Und dem wird wiederum eine entscheidende Rolle bei Psychosen und Schizophrenien zugeschrieben. Jenseits der Altersgrenze von 30 ist das System ausgereift und viel stabiler.
«Die neue kanadische Studie bestärkt mich weiter in meiner Position, mich gegen eine Cannabislegalisierung auszusprechen», sagt Euphrosyne Gouzoulis-Mayfrank, die Präsidentin der psychiatrischen Fachgesellschaft, der DGPPN. Für sie ist die Arbeit ein wichtiges Puzzleteil in der Beweiskette, durch das das Bild immer deutlicher wird: Je mehr Teenager und Jugendliche kiffen, weil sie durch die Legalisierung Cannabis leichter kaufen können, desto mehr verwundbare Teenager und Jugendliche werden die Droge konsumieren. Und dann auch manchmal psychisch krank werden. Hinzu kommt: Gerade Menschen mit psychischen Problemen sind besonders eifrige Kiffer. (…)
Forscher wissen, die Ergebnisse solcher Studien können noch von vielen anderen Veränderungen und Faktoren beeinflusst werden. Beispielsweise, weil die User nach der Legalisierung plötzlich beginnen, zusätzlich andere Drogen zu konsumieren. Beerli würde nur eine Studie gelten lassen, sagt er, die höchsten wissenschaftlichen Ansprüchen genügte: mit zwei Gruppen von jeweils kiffenden und nichtkiffenden Versuchspersonen, die einmal unter Legalisierungsbedingungen und einmal auf dem Schwarzmarkt ihr Cannabis organisieren könnten.
Er muss aber zugeben: Eine solche Studie wird aus ethischen Gründen nie durchgeführt werden. Man darf als Wissenschafter Versuchspersonen nicht geplant neuen schweren psychischen Risiken aussetzen. Wann reicht die Beweiskette? Müssen erst noch weitere, beispielsweise länger dauernde Studien vorgelegt werden? Solche Fragen müssen letztlich politisch beantwortet werden.
The Economist, February 12
Spoiler alert : Elon Musk’s $97bn offer is a nuisance for Sam Altman’s OpenAI
Tesla’s boss is willing to use whatever means he can to hobble his opponent
Full text :
For most startups, a buyout offer nearing $100bn is something to be celebrated. But OpenAI is not like other startups—and Elon Musk is not like other acquirers.
On February 11th a consortium led by the world’s richest man made an unsolicited $97bn bid for the assets of the non-profit entity that controls OpenAI, the world’s leading developer of artificial-intelligence (AI) models. Mr Musk, who helped found the firm, is in an escalating feud with Sam Altman, OpenAI’s boss, over its transition to a more orthodox, profit-seeking corporate structure, which Mr Musk claims would be a betrayal of its original safety-first mission. In reality, Mr Musk is determined to hobble the biggest competitor to xAI, a rival company he launched in 2023—and seems willing to use whatever means he can to do so.
Mr Musk’s offer is best understood as a spoiler. OpenAI is raising ever larger sums of money to fund the vast amount of computing power it needs to make advanced AI. To do that, it has promised outside investors, of which Microsoft, a tech giant, is the biggest, that they will get equity stakes in a for-profit firm, rather than the murky ownership fudge that currently exists. Negotiations are under way to determine what share of that new company the non-profit receives in return for ceding control over the current arrangement.
OpenAI swiftly rejected the outside bid. On X, Mr Musk’s social network, Mr Altman posted a facetious counter-offer: $9.7bn to “buy Twitter”, as the site was once called. “OpenAI is not for sale,” insists Chris Lehane, the firm’s spokesman. That apparently reflects the position of the non-profit’s board. Jill Horwitz, professor of law at the University of California, Los Angeles, says the board’s fiduciary duty is to act in line with OpenAI’s legal purpose, which is to build superhuman intelligence that is “safe and benefits all of humanity”. That may give it more wriggle room to deflect the offer.
Mr Musk’s target audience, though, may not be the board. More likely he is seeking to ratchet up pressure on the attorneys-general of California and Delaware, where OpenAI is located and registered. His lawyers have urged them to scrutinise the change in OpenAI’s ownership structure to ensure the charity surrenders control at fair-market value, and threatens a bidding war if they do not. Insiders at OpenAI think it absurd that the officials in the two Democrat-governed states will bow to the will of Mr Musk, a prominent ally of President Donald Trump. But as Ms Horwitz puts it, they have “clear law to apply”.
It is therefore possible that, even if Mr Musk’s chances of gaining control of OpenAI are slim, his bid will complicate its future. It will be more difficult to justify valuing the non-profit’s assets at less than $97bn if there is a concrete offer for that sum. But such a figure will mean that a smaller share of the equity in the new for-profit company will be left for outside investors. OpenAI is reportedly in the process of raising some $40bn from investors including SoftBank, a Japanese tech conglomerate. Mr Musk may be hoping to derail those efforts.
The bid follows acrimony over Mr Altman’s announcement, together with Mr Trump, of the “Stargate Project” on January 21st, a fund of $100bn backed by OpenAI and SoftBank, among others, and intended to invest in data centres in America. Mr Musk, who was reportedly kept in the dark, was quick to argue that the backers didn’t have the money (something they have denied).
“I think he’s just trying to slow us down,” Mr Altman said on February 11th. “I feel for the guy. I don’t think he’s a happy person.” In fact, Mr Musk is never happier than when he is in the thick of a fight. ■
Le Point, 1 Le Figaro, 11 février
La fusion nucléaire, Graal de l’énergie
Alors que la demande en électricité explose, le monde de la recherche est en effervescence et les projets se multiplient pour maîtriser la fusion.
Extraits:
Pour un peu, et bien qu’il soit charmant, Rémi Delaporte-Mathurin pourrait s’identifier au Docteur Octopus, le méchant qui combat de ses bras tentaculaires Spider-Man. Ou encore à Iron Man, l’invincible héros Marvel. Car le chercheur français du prestigieux Massachusetts Institute of Technology (MIT), le grand méchant et le supergentil ont un point commun : ils cherchent à perfectionner la fusion nucléaire, ce graal de la communauté scientifique.
Le Docteur Octopus et Iron Man y sont plus ou moins parvenus, qui l’utilisent comme source d’énergie. À 28 ans, Rémi Delaporte-Mathurin, lui, n’a pas fini d’y consacrer ses jours.
Malgré les milliards de dollars déversés sur les programmes de recherche, la fusion n’en est qu’à ses balbutiements. Son principe est en gros l’inverse de celui de la fission nucléaire, le procédé utilisé dans toutes les centrales nucléaires actuelles. Dans la fission, un neutron casse en deux un noyau d’atome d’uranium, ce qui libère de l’énergie. Dans la fusion, deux noyaux s’assemblent pour former un nouveau noyau.
Mais, comme l’a démontré Einstein avec sa théorie de la relativité, une curiosité apparaît après cet assemblage : la masse totale du nouveau noyau est inférieure à celle des deux noyaux de départ ; la différence, c’est de l’énergie. Chaque seconde, ce phénomène de fusion libère dans le Soleil une quantité phénoménale d’énergie, qui nous éclaire et nous chauffe.
Comme le Docteur Octopus ou Rémi Delaporte-Mathurin, toute la communauté scientifique mondiale regarde cette source d’énergie avec envie. Elle est simple à mettre en œuvre (il « suffit » de fusionner deux isotopes d’hydrogène dont les noms semblent ceux d’un camp retranché romain, le deutérium et le tritium) et sûre (aucune réaction en chaîne incontrôlée n’est possible).
De plus, la fusion est un procédé respectueux de l’environnement. La radioactivité des éléments utilisés est très faible, et la fusion ne produit ni CO2 ni déchets dangereux, en tout cas à long terme. L’enjeu est crucial : à l’heure de l’IA et des datas centers, la demande en électricité dans le monde devrait doubler d’ici à 2026, selon l’Agence internationale de l’énergie.
Mais il y a un hic : le modèle de fusion qu’on a sous les yeux, celui du Soleil, n’est pas entièrement transposable ici-bas. Notre astre triche. Sa densité considérable joue les entremetteurs entre les noyaux d’hydrogène : sa force d’attraction rapproche et marie sans problème les noyaux entre eux.
Comment faire sur la Terre ? C’est à première vue assez simple : à défaut de pouvoir recréer la pression exercée sur le Soleil, on peut recréer sa chaleur extrême, ce qui est un autre moyen de fusionner des noyaux.
Deux techniques sont explorées. La première consiste à chauffer du deutérium et du tritium par des lasers. Mais cette technique, dite « inertielle », est plutôt développée à des fins militaires. L’autre consiste à confectionner une sorte de bouillie d’atomes. Ce plasma est porté à quelque 150 millions de degrés, soit dix fois plus que la chaleur dégagée par le Soleil.
En France, pas très loin de Marseille, le projet Iter travaille sur ce deuxième procédé. Un gigantesque circuit fermé en forme de donut, appelé tokamak, devrait entrer en exploitation au mieux dans une quinzaine d’années. (…)
Quelque part dans la campagne du Massachusetts, Rémi Delaporte-Mathurin met toutefois en garde : Iter, comme les autres tokamaks, est porteur d’espoir, mais on a un peu mis la charrue devant les bœufs. Le carburant du plasma, à savoir deux isotopes de l’hydrogène (le deutérium et le tritium, donc), ne se trouve pas dans la station-service du coin.
Le premier composant du carburant, le deutérium, est abondant sur Terre, plus exactement en mer, car on le trouve sans difficulté dans l’eau des océans. Avantage, parmi d’autres : aucun pays n’a le contrôle de sa production, et tous les États riverains peuvent y accéder sans encombre sur le plan politique.
Le deuxième est en revanche beaucoup plus difficile à dénicher : les réserves mondiales naturelles de tritium s’élèvent à quelque 100 kilos, et seulement 300 grammes sont produits en plus chaque année.
Or, avertit Rémi Delaporte-Mathurin, une centrale fonctionnant par la fusion nucléaire aurait besoin de 50 à 100 kilos de tritium par an et par réacteur…« Ça ne sert à rien d’avoir la plus belle cheminée si on n’a pas les bûches à mettre dedans ! » compare le chercheur. Lauréat du prix solennel de thèse des universités de Paris en 2023, il travaille sur cet aspect ô combien essentiel de la fusion nucléaire, à savoir trouver des « bûches ».
La seule solution est de les créer un peu artificiellement. La nature est bien faite : en fusionnant dans le plasma, le deutérium et le tritium produisent de l’hélium et un neutron. Combiné avec du lithium, ce neutron produit de l’hélium et, eurêka, du… tritium. Et le lithium, ô chance, est abondant sur Terre, même s’il devient l’objet de toutes les convoitises, car il est nécessaire aux batteries des véhicules électriques, dont la production explose. Un réacteur est toutefois moins glouton qu’une Tesla : une seule batterie nécessite environ 60 kilos de lithium, ce que consomme un réacteur en un an. (…)
Viendra plus tard, sans doute beaucoup plus tard, la phase d’intégration, c’est-à-dire la transformation de l’énergie produite à partir du plasma en électricité. D’autres éléments devront entre-temps être perfectionnés. C’est le cas, notamment, des aimants ultrapuissants, dits « supraconducteurs », qui maintiennent comme en suspension le plasma au sein d’un tokamak.
Il faudra donc quelques décennies avant de pouvoir se chauffer avec de l’énergie produite par la fusion nucléaire. Les seuls à l’avoir domestiquée aujourd’hui s’appellent Docteur Octopus et Iron Man.
The Economist, Book Review, February 10
Brain fog : Have doctors been wrong about how to treat Alzheimer’s disease?
A new book argues that dogma and bad science led Alzheimer’s research astray
Doctored. By Charles Piller. Atria; 352 pages; $28.99. Icon Books; £20
Full text :
Alzheimer’s disease affects more than 30m people worldwide, mostly the elderly. After the age of 65, the chance of developing it doubles every five years. By 85, the odds are one in three. Its symptoms, which include memory loss, difficulty with basic tasks and depression, progressively worsen. As global life expectancy rises, so will cases of Alzheimer’s, making it one of the big public-health challenges of an ageing world.
There is no cure. Between 1995 and 2021, around $42bn was poured into more than 1,000 clinical trials. Yet only a handful of drugs has made it to market. Even those mostly treat the symptoms of the disease, rather than stop it.
The leading explanation of Alzheimer’s is the “amyloid hypothesis”, which suggests that deposits of beta-amyloid, a type of protein, accumulate between neurons and disrupt their function. But the theory remains controversial: all brains with Alzheimer’s show beta-amyloid plaques, yet not everyone with these plaques experiences cognitive decline. Whether amyloid build-up causes Alzheimer’s, or is merely a symptom, remains unresolved.
In “Doctored” Charles Piller, a science journalist, details how groupthink and dishonesty steered Alzheimer’s research off course. In 2006 a Nature paper by researchers at the University of Minnesota appeared to provide a major breakthrough. The study claimed that a subtype of beta-amyloid caused memory impairment. It quickly became one of the most cited papers and inspired hundreds of millions of dollars in public-research grants. Another influential paper published in 2012 by scientists associated with Cassava Sciences, a biotech firm, bolstered the amyloid theory by linking insulin resistance to amyloid plaque formation. The finding fuelled a wave of research into the idea of Alzheimer’s being a “diabetes of the brain” that could be managed with drugs. There was just one problem—both studies were based on falsified data.
“Doctored” follows Mr Piller’s investigation into the deception. Central to the story is a group of image sleuths, with a sharp eye for manipulated pixels of Western blots (a lab technique used to study proteins, which were doctored in the studies). Some chapters read like a scientific whodunnit. In one, Mr Piller has to work hard to earn the trust of a reluctant whistleblower. In another, he travels to Prague for a private meeting with a group of image detectives with cryptic pseudonyms.
Despite clear evidence of manipulated research results, journals and regulators were slow to act. Mr Piller blames powerful backers of the amyloid hypothesis who ignored red flags. It was only in June 2024—two years after allegations first surfaced—that the Nature paper was retracted by its authors. Cassava Sciences, while denying wrongdoing, stopped trials of its Alzheimer’s drug, Simufilam, in November after it failed to show clinical benefits.
These papers’ consequences go beyond the lab. For patients and their families, experimental treatments often represent a final lifeline. Encouraging people to pin their hopes on medicines that are ineffective, or even unsafe, is a betrayal. Fixation on a theory offering limited success in human trials may also have diverted resources from other more promising therapies.
Since 2023 the Food and Drug Administration, America’s drug regulator, has approved two new medicines that modestly slowed cognitive decline by attacking the amyloid plaques. They also come with dangerous side-effects for some, which include brain swelling and bleeding. Mr Piller remains sceptical of these treatments. So will many of his readers, after his gripping story of medical groupthink and warped incentives. ■
Le Figaro, 7 février, libre accès
Intelligence artificielle : les Émirats construiront en France un data center géant et investiront 30 à 50 milliards d’euros
Un «campus» axé sur l’intelligence artificielle, avec un data center géant d’une capacité de calcul pouvant aller jusqu’à un gigawatt, va être créé par le pays de la péninsule arabique.
Extraits:
Les Émirats arabes unis vont construire en France un «campus» axé sur l’intelligence artificielle avec un data center géant d’une capacité de calcul pouvant aller jusqu’à un gigawatt, «ce qui représente des investissements d’un ordre de grandeur de 30 à 50 milliards d’euros», a annoncé jeudi l’Élysée. Ces investissements font partie d’un accord de partenariat sur l’IA signé jeudi soir à Paris en présence du président français Emmanuel Macron et de son homologue émirati Mohamed ben Zayed Al-Nahyane. (…)
Il s’agit du premier grand investissement annoncé à l’occasion du sommet sur l’IA prévu jusqu’à mardi à Paris, à l’occasion duquel la France et l’Europe veulent se poser en puissances compétitives face aux Etats-Unis et à la Chine.
The Economist, February 3, pay wall
Meaning what, exactly? America and China are talking. But much gets lost in translation
How linguistic differences complicate relations between the great powers
Article intégral : https://kinzler.org/wp-content/uploads/2025/02/4-fevrier-3.pdf
The Wall Street Journal, January 30, pay wall
DeepSeek AI Is the Competition America Needs
The company’s success demonstrates the futility of the U.S. policy of subsidies and sanctions.
Extraits:
The success of DeepSeek, the Chinese rival to American goliaths with radically more cost-effective artificial intelligence, reveals the futility of U.S. sanctions policies. Under the Biden administration, the American government was captured by some of the world’s most ham-handed national-security socialists, while the Chinese private sector under Xi Jinping commands some of the world’s most nimble capitalists.
The entrepreneur behind DeepSeek’s apparent breakthrough is Liang Wenfeng, who founded the High-Flyer hedge fund in 2015. Since DeepSeek’s launch less than two years ago, the venture has received no further outside funding. China has roughly nine times as many engineers as the U.S. and perhaps 15 times as many science and technology graduates. That means Mr. Liang had a cornucopia of technical talent at his disposal, all galvanized by the challenge of doing AI without violating U.S. restrictions on the memory bandwidth of their Nvidia graphics processing units. These chips, like the leading GPUs in U.S. AI data centers, are nearly all fabricated by Taiwan Semiconductor Manufacturing Co.
“Do more with less” is the Chinese entrepreneurial answer to American “Stargate” program socialism, mobilizing a half-trillion dollars to do more with more, as governments and politicians usually try to do. (…)
By discrediting U.S. sanctions and subsidies, again, Chinese capitalists are performing a service for U.S. capitalism. American entrepreneurs are hamstrung by a putative $6 trillion in global climate-change mandates and subsidies for obsolete technologies, such as windmills and solar panels, specified by zero-sum Green New Dealers. The U.S. has been dissipating the bonanzas conferred in recent decades on our economy by Chinese manufacturing prodigies from Foxconn in Shenzhen and other Chinese fabricators. Chinese factories have been crucial to enabling American companies to command as much as 70% of global equity market capitalization, compared with 10% at best for China.
DeepSeek, by using microchips more efficiently, is similarly favorable to the U.S. economy. As my chip-guru colleague John Schroeter wrote in his newsletter—and both Nvidia’s Jensen Huang and Microsoft’s Satya Nadella have said—semiconductors are an example of the Jevons Paradox. William Stanley Jevons, a 19th-century British economist, discovered that when a resource is rendered more efficient, we use more of it, often so much more that total spending on the resource rises. When people used only fire for lighting, the world was a very dark place. Nobel laureate William Nordhaus has pointed out that as we progressed from candles to oil lamps to incandescent lights and now LEDs, the cost of lighting dropped by 99.97%, yet we buy more of it than ever.
Advancing at an even faster pace, the number of transistors a dollar buys has increased by several million percent in 70 years. At the same time, annual global spending on semiconductors has grown from less than a few hundred million dollars to nearly $700 billion. The cheaper computing became, the more it was demanded.
Today, the key breakthrough in technology isn’t some ingenious trope in AI software but the emergence of an era altogether beyond microchips. Called wafer-scale integration, it obviates the usual data-center welter of chips and “chiplets” in plastic packages backed by snarls of wire and racks of computer servers. (…)
Pioneering this breakthrough are U.S. companies such as Cerebras and Tesla. (…)
The most advanced wafer-scale project is Tesla’s Dojo system for AI training. It is based on the vast accumulation of video data from the cameras on Tesla’s automobiles. This system is based not on chips or internet data, but on real sensory inputs and “training tiles,” which are interconnected across entire wafers. (…)
Working with Taiwan Semiconductor Manufacturing Co. to overthrow the existing data-center era, these ventures promise processing economies of a scale millions of times greater than anything contemplated at DeepSeek or other AI companies. (…)
The chief obstacle to the success of such ventures is the U.S. national-security apparatus, which somehow imagines that by inflicting sanctions on China, it can help Americans. Beyond the huge challenges of replacing the existing paradigm of semiconductor fabrication, Mr. de Heer’s main obstacle is his previous links with Tianjin University in China and his Chinese students at Georgia Tech. He is under investigation by a congressional committee on China for alleged links between his research and the Chinese military. Mr. de Heer said several of his students are back in China, collecting about $350 million in investments for a wafer-scale project.
Technology is the key adventure of human progress, and it is intrinsically global. The key test of the Trump administration will be whether it can come to terms with this fact of life and enterprise.
Mr. Gilder is author of “Gaming AI: Why AI Can’t Think but Can Transform Jobs” and “Life After Capitalism: The Information Theory of Economics.”
L’Express, 29 janvier, article payant
Alain Aspect, Prix Nobel de physique : “Michel Onfray ne comprend manifestement rien au quantique”
Grand entretien. Le grand chercheur explique avec pédagogie les “bizarreries” de la physique quantique, tout en dénonçant les détournements pseudoscientifiques du mot “quantique”.
Article intégral : https://kinzler.org/wp-content/uploads/2025/01/29-janvier-1.pdf
The Wall Street Journal, January 28, pay wall
The DeepSeek AI Freakout
The Chinese startup’s model stuns Big Tech—and Wall Street—with its capability and cost.
Extraits:
Who saw that coming? Not Wall Street, which sold off tech stocks on Monday after the weekend news that a highly sophisticated Chinese AI model, DeepSeek, rivals Big Tech-built systems but cost a fraction to develop. The implications are likely to be far-reaching, and not merely in equities.
The tech-heavy Nasdaq fell 3.1%, driven by a 16.9% dive in Nvidia shares. (…)
Enter DeepSeek, which last week released a new R1 model that claims to be as advanced as OpenAI’s on math, code and reasoning tasks. Tech gurus who inspected the model agreed. One economist asked R1 how much Donald Trump’s proposed 25% tariffs will affect Canada’s GDP, and it spit back an answer close to that of a major bank’s estimate in 12 seconds. Along with the detailed steps R1 used to get to the answer.
More startling, DeepSeek required far fewer chips to train than other advanced AI models and thus cost only an estimated $5.6 million to develop. Other advanced models cost in the neighborhood of $1 billion. Venture capitalist Marc Andreessen called it “AI’s Sputnik moment,” and he may be right.
DeepSeek is challenging assumptions about the computing power and spending needed for AI advances. OpenAI, Oracle and SoftBank last week made headlines when they announced a joint venture, Stargate, to invest up to $500 billion in building out AI infrastructure. Microsoft plans to spend $80 billion on AI data centers this year.
CEO Mark Zuckerberg on Friday said Meta would spend about $65 billion on AI projects this year and build a data center “so large that it would cover a significant part of Manhattan.” Meta expects to have 1.3 million advanced chips by the end of this year. DeepSeek’s model reportedly required as few as 10,000 to develop.
DeepSeek’s breakthrough means these tech giants may not have to spend as much to train their AI models. But it also means these firms, notably Google’s DeepMind, might lose their first-mover, technological edge. (…)
This could help give more small businesses access to AI tools at a fraction of the cost of closed-source models like OpenAI and Anthropic, which Amazon has backed. There are advantages to such closed-source systems, especially for privacy and national security. But open-source can foster more collaboration and experimentation. (…)
DeepSeek is vindicating President Trump’s decision to rescind a Biden executive order that gave government far too much control over AI. Companies developing AI models that pose a “serious risk” to national security, economic security, or public health and safety would have had to notify regulators when training their models and share the results of “red-team safety tests.”
Mr. Biden said such tests are needed to eliminate biases, limitations and errors. But open-source models allow the public to review and test systems. Some have pointed out that DeepSeek doesn’t answer questions on subjects that are politically sensitive to Beijing.
DeepSeek should also cause Republicans in Washington to rethink their antitrust obsessions with big tech. Bureaucrats aren’t capable of overseeing thousands of AI models, and more regulation would slow innovation and make it harder for U.S. companies to compete with China. As DeepSeek shows, it’s possible for a David to compete with the Goliaths. Let a thousand American AI flowers bloom.
The Economist, January 24, pay wall
Charlemagne : Europe faces a new age of gunboat digital diplomacy
Can the EU regulate Donald Trump’s big tech bros?

Extraits:
In an era dominated by tech giants worth trillions of dollars, no European firm started from scratch in the past 50 years is today valued at more than a mere hundred billion (Spotify, a music-streaming service based in Sweden, hovers around the mark). The absence of entrepreneurial vigour is a recurring source of frustration for European politicians in search of economic pep and tax receipts. With no local corporate tech titans to berate into creating jobs, German chancellors, French presidents and their like have had to grit their teeth as they beseeched one visiting American bro after another to consider setting up a research facility, artificial-intelligence (AI) hub or gigafactory in their country. As both sides posed for the obligatory selfie, it could be hard to tell who had the upper hand: the elected leaders, or the globally known plutocrats with net worths bigger than most EU countries’ budgets? At least, the politicians could tell themselves, even the mightiest Amazons or Facebooks of the world would have to follow European laws as a condition of doing business there.
It turns out that this may be an imposition too many for the world’s techies. Even before their bosses flexed their political muscles by snagging prime seats at the inauguration of Donald Trump on January 20th, a refrain could increasingly be heard that the European Union’s nagging regulations are an annoyance that some of them would rather not abide by. Newish EU rules designed to ensure that digital markets do not turn into cosy monopolies, to limit the spread of harmful bilge on social networks and to regulate AI are increasingly being painted as a Euro-ploy standing in the way of Trumpian plans to make America great again (again). Europe is already dreading the prospect of a trade war with its biggest commercial partner by far, not to mention the future of its decades-old security guarantee from America as war rages in Ukraine. If Mr Trump orders Europe to ease up on American tech firms to please his new corporate chums, can his demands be resisted? (…)
Getting the EU to stand down would be a win for big tech. Not only is the European market second only to America when it comes to rich users, but regulations crafted by the EU are often copied by jurisdictions far beyond its borders. This “Brussels effect” is a point of pride for Europeans. Anu Bradford, a tech expert at Columbia Law School who coined the term, says she expects the EU will hold firm. “Nobody in Europe will look at big tech companies this week and think, ‘We wish they were more powerful’.” The fact that Mr Musk has used X to boost hard-right parties in Europe has made policymakers there all the warier.
Various EU officials insist it is business as usual and that its many investigations of big tech firms will be concluded and made public soon, fines and all. But the president of the European Commission, Ursula von der Leyen, told the World Economic Forum in Davos the day after Mr Trump’s inauguration, that Europe would have to be “pragmatic” in dealing with the new administration. The final stage of punishing tech giants is in part a political decision. There are reports of the commission “reassessing” how this might be done, though no clear sense of how this will happen in practice. Europe will find it very hard to stand down against big tech—but it may not like the price of standing firm. ■
https://www.economist.com/europe/2025/01/23/europe-faces-a-new-age-of-gunboat-digital-diplomacy
The Economist, January 23, pay wall
A bad day for doomers : A $500bn investment plan says a lot about Trump’s AI priorities
It’s build, baby, build
Extraits:
When President Donald Trump announced a half-trillion-dollar of private-sector investment in American artificial-intelligence (AI) infrastructure on January 21st, his second day in office, he basked in the accolades of the three men backing the “Stargate” project: OpenAI’s Sam Altman, Masayoshi Son, a Japanese tech mogul, and Larry Ellison of Oracle, an IT firm. He called it the largest AI investment in history. Then came the kicker. “This is money that normally would have gone to China.”
Considering that AI will be the defining technology of his time in office, Mr Trump can sound awestruck by it. “AI seems to be very hot,” he said. But as the announcement of the four-year project (which starts with the construction of massive data centres in Texas) foreshadowed, AI is likely to be a priority within his administration. That is for strategic as well as economic reasons. The government’s “north star”, as one tech insider in Washington puts it, will be how to beat China in the AI war.
Silicon Valley has China hawks already nestled in the White House. (…)
The big question is, will Mr Trump continue the Biden administration’s approach of prioritising constraints on China, with export curbs and the like, to maintain America’s lead in AI? Or will he put more emphasis on freeing America’s tech firms to out-innovate China?
There are justifications for trying to keep China at heel. In Silicon Valley, supporters of a crackdown say Chinese firms steal American intellectual property, helping their large language models (LLMs) to advance fast. They argue that Chinese tech firms have evaded export controls on American semiconductors, either by buying cutting-edge American graphics processing units (GPUs), the chips used to train and run AI models, on the black market, or by renting out capacity on other countries’ cloud servers. This doesn’t only help China’s tech industry. They note that China is far ahead of America in incorporating AI into military tech, so hobbling it is justified on national-security grounds. (…)
In the tech industry, the hope is that as well as cracking down on Chinese malfeasance, the Trump administration will push to promote American competitiveness by loosening the reins. As John Villasenor, an expert on tech policy at the University of California, Los Angeles puts it, “The best way to stay ahead of China is not to over-regulate at home.”
On his first day in office Mr Trump took a step in this direction by scrapping Mr Biden’s executive order of 2023 that required builders of advanced LLMs to share information with the American government. Tech insiders in Washington say they expect the new administration to take a “sector-specific” approach instead. In other words, rather than overarching AI regulation, federal agencies would oversee the use of AI within their own domains.
Some may worry that, with less regulation, tech firms will overstep the limits of AI safety. But for now, AI “accelerationists” have overtaken the “doomers”. In a sign that deregulation is high on Mr Trump’s agenda, he promised the three joint-venture partners in Stargate to make it “as easy as it can be” for them to build their project.
One further force promoting AI innovation could be defence spending. America puts only a tiny fraction of its $850bn defence budget into AI. Silicon Valley executives hope that the Trump administration will allow more participation by startups building AI weapons and systems in the competition for defence contracts.
In short, there is synchronisation. Mr Trump wants lots of investment in America, a roaring stockmarket and the ability to claim he is vanquishing China. America’s AI giants want to build bigger models to compete with each other and keep ahead of China, and to have more customers to justify their investments. Stargate looks like the shape of things to come. ■
Neue Zürcher Zeitung, 21. Januar, nur für Abonnenten
Vertrauenskrise der Wissenschaft? Gibt es nicht, wie eine Studie beweist. Sowieso besser als Vertrauen wäre: mehr Aufklärung
Ein internationales Team von Forschenden hat in 68 Ländern den Ruf von Wissenschaftern ausgewertet.Die Schweiz platziert sich im unteren Mittelfeld. Nun mehr Vertrauen in Forschung zu fordern, wäre falsch. Auch Wissenschaft braucht Skepsis.
Extraits:
Ereignisse brauchen oft nur Sekunden, um zu einer Nachricht zu werden, zu der jeder sofort eine Meinung hat. Streit und Diskussion sind Alltag. Gesellschaftliches Zusammenleben aber ist nur möglich, solange es Bereiche der Wirklichkeit gibt, die als unstrittig gelten. Indem sie Fakten erarbeitet, ist Wissenschaft das einzige Werkzeug, das eine kleinste gemeinsame Wirklichkeit garantiert. Das macht sie für einen sinnvollen Diskurs überlebenswichtig.
Umso wichtiger ist eine in den vergangenen Jahren häufig gestellte Frage: Steckt die Wissenschaft in einer Vertrauenskrise? In einer neuen Studie unter Leitung von Viktoria Cologna an der ETH Zürich und Niels G. Mede an der Universität Zürich, veröffentlicht in «Nature Human Behaviour», hat ein internationales Team von 241 Forschenden 71 922 Menschen in 68 Ländern innerhalb von zehn Monaten befragt. Dasselbe Befragungsinstitut, derselbe Fragebogen, eine vorangestellte Definition, was unter Wissenschaft zu verstehen sei. Zwar haben vergleichende Befragungen immer Schwächen, die vorliegende Studie aber hat sich um ein möglichst sicheres Fundament bemüht.
Vertrauenskrise? «Nein», heisst es von den Autoren. Zwar gibt es keinen globalen Vergleich zum Stand vor der Pandemie, heute aber sei das Vertrauen in Wissenschaft insgesamt moderat hoch: Etwa drei Viertel der Befragten haben Vertrauen in die Fähigkeiten von Wissenschaftern, 57 Prozent halten sie für ehrlich. Die Schweiz besetzt einen Platz im unteren Mittelfeld, knapp hinter dem Nachbarn Deutschland und hinter Ländern Skandinaviens und Afrikas.
Mittelfeld, das reicht nicht – weil Vertrauen in Wissenschaft wichtig ist, braucht es Verbesserung. Die Zahlen lassen sich so lesen. Aber diese Interpretation wäre falsch.
Man muss kein Fan von Science-Fiction sein, um sich eine Welt vorzustellen, in der Wissenschaft als höchste Instanz der Glaubwürdigkeit zur Dystopie gerät. (…) Und um Irrtümer zu entdecken, braucht es ein Mindestmass an Skepsis.
Das ist es, was die Philosophin Hannah Arendt meint, wenn sie schreibt, die «lebendige Menschlichkeit» nehme in gleichem Masse ab, in dem man auf eigenständiges Denken verzichte. Wissenschaft braucht kein blindes Vertrauen, sondern mündige Auseinandersetzung. (…)
Eine solche gelingt nur, wenn man Prozesse der Wissenschaft zumindest den Grundlagen nach versteht. Auch dazu findet sich eine Zahl in der Studie: 83 Prozent der Befragten wünschen sich Forschende, die mehr mit der breiten Öffentlichkeit kommunizieren.
Nun liegt darin auch Gefahr: Ein Forscher bleibt ein Mensch mit einer Meinung. Wer als Vertreter «der Wissenschaft» die Bühne sucht, gerät in Versuchung, objektives Wissen und subjektive Meinung zu vermengen. Ein Wissenschafter wird so vom neutralen Informanten zum Spieler auf dem politischen Parkett. Eine weitere Figur, die versucht, eigene Überzeugungen durchzusetzen. Das schadet der Glaubwürdigkeit. (…)
Daher fordern manche Forscher, Wissenschaft müsse gesellschaftlich unsichtbar bleiben. Das ist Unsinn. Wer unsichtbar bleiben will, fordert religiöses Vertrauen. Nur wer sich Sichtbarkeit zumutet, muss sein Vorgehen erklären.
Aufgabe der Wissenschaft ist es, Fakten zu erarbeiten. Aufgabe der Bürger ist es, diese Fakten zu interpretieren, um bei Debatten vernünftige Positionen zu finden. Dafür braucht es nicht mehr Vertrauen, sondern mehr Einblicke in den Maschinenraum der Forschung. Mehr Transparenz. Mehr Kommunikation. Mehr Aufklärung.
Le Figaro, 18 janvier, article payant
La charcuterie suspectée d’augmenter le risque de démence
Une étude qui a suivi plus de 100 000 personnes sur quatre décennies a identifié que les plus gros mangeurs de charcuterie avaient un risque de démence accru de 13 %.
Extraits :
Pour certains, c’est un plaisir incontournable de la vie. Mais il devient de plus en plus clair qu’il ne faut pas en abuser : après avoir été classée « cancérigène avéré » par l’Organisation mondiale de la Santé en 2015, voilà que la charcuterie est suspectée d’être néfaste pour le cerveau. Une nouvelle étude menée par des scientifiques de l’université de Harvard suggère en effet que les plus gros mangeurs de bacon, de salami et autres saucisses ont plus de risque de développer une démence. À l’inverse, les personnes privilégiant les fruits à coque, les légumineuses et le poisson ont un risque fortement abaissé.
(…) Au total, environ 1,2 million de personnes souffrent de démence en France, davantage de femmes que d’hommes.
Pour mener à bien ce travail publié dans la revue Neurology , les scientifiques ont utilisé deux larges cohortes américaines, l’une initiée en 1976, l’autre en 1986. En science, une étude de cohorte est un type d’enquête qui suit un grand nombre de personnes sur des années, afin d’étudier les liens entre leur mode de vie, leur environnement et la survenue de maladies. Parmi les 133 000 participants à l’étude, un peu plus de 11 000 ont reçu un diagnostic de démence au cours des dernières décennies. Des questionnaires très détaillés sur leur santé et leur alimentation leur ont régulièrement été envoyés et plusieurs entretiens téléphoniques visant à évaluer leurs fonctions cognitives ont été réalisés.
Ces résultats – qui devront être confirmés par d’autres études – montrent que les plus gros mangeurs de charcuterie ont un risque accru de 13 % de développer une démence, par rapport aux personnes n’en mangeant pas ou très peu. Un excès de risque certes faible, mais suffisamment important pour être considéré comme bien concret. (…)
Bien sûr, l’alimentation est loin d’être l’unique cause à blâmer dans la survenue de ce type de maladies. Mais il est clair pour les scientifiques qu’elle y est indirectement liée. L’âge, l’hypertension artérielle, le diabète, l’obésité, le tabagisme, un manque d’interactions sociales sur le long cours ou encore l’excès d’alcool sont autant d’autres facteurs impliqués. (…)
« Même si vous réduisez votre consommation un peu, cela apportera des bienfaits pour votre santé cognitive. Et le plus tôt est le mieux », a-t-il insisté. Pour rappel, les autorités sanitaires françaises préconisent de limiter la consommation de charcuterie à 150 g par semaine, soit environ 3 tranches de jambon blanc.
The Economist, 17 janvier, article payant
From oil to AI : Can the Gulf states become tech superpowers?
The region’s rulers want to move away from fossil fuels
Extraits :
Few middle powers have the towering technological ambitions of the rich Gulf states. As they seek to shift their economies away from fossil fuels, the Emiratis want to lead the world in artificial intelligence (AI) and the Saudis want the kingdom to become home to startups in cutting-edge areas such as robotics. Those aspirations, however, are about to collide with geopolitical reality.
The fascination with tech is not new, but the scale of the plans is. In Marchthe United Arab Emirates (UAE) created MGX, a tech-investment company with a target size of $100bn, which will invest in AI infrastructure, such as data centres and chips. It has also set up a $10bn AI venture-capital fund. In Saudi Arabia a number of different funds with a combined firepower of $240bn will splurge on AI, data centres and advanced manufacturing.
The rulers are making bets in three areas. One is model-making and applications. (…)
Gulf companies are building data centres abroad, too. (…)
A third area is chip manufacturing, which the UAE seems especially keen on. Samsung, a South Korean electronics giant, and TSMC, the world’s largest chipmaker, have held talks with officials to build plants in the UAE. Sam Altman, the boss of OpenAI, has convinced the UAE’s sheikhs, among other investors, to fund his chipmaking plans.
There are early signs the strategy could come together. The total capacity of all data centres currently in construction in Saudi Arabia and the uae has grown about ten-fold in the past five years. Investment has flowed in. The Gulf recorded almost $8bn of foreign direct investment in tech infrastructure and another $2bn in software in 2024, up three-fold from 2017, according to fDi Markets, a data firm. Talent is moving, too. BCG, a consultancy, says that the AI talent pool in the UAE and Saudi Arabia has grown by over one-third and almost a fifth, respectively, since 2022.
But a big risk looms over the Gulf’s ambitions: souring relations between America and China. The rulers have leaned heavily on America’s big technology firms for partnerships. At the same time, they have struckplenty of deals with large Chinese firms, including Huawei, a tech company, and China Telecom, communications firm. Saudi Arabia has invested $400m in Zhipu AI, one of China’s most prominent AI companies. Moreover, the data-centre boom relies on China: about a third of imports of servers, chips and storage devices by Saudi Arabia and the UAE come from the country.
American policymakers are clearly wary of this relationship. (…)
The Gulf’s rulers may hope their close ties to big American tech firms will help insulate them from such machinations in Washington. Google, for instance, plans to set up an AI hub in Saudi Arabia. Microsoft has invested $1.5bn in G42.
But ultimately they will face an uncomfortable choice. Geopolitical tensions are likely to intensify during Mr Trump’s second term. America’s tech giants already see themselves in a race with China. Brad Smith, Microsoft’s president, says that “the real key to American leadership from a long-term perspective is to put American technology around the world—and to do it faster than China does.” If the Gulf’s rulers want their tech dreams to materialise, they may eventually be forced to pick a side. ■
https://www.economist.com/business/2025/01/16/can-the-gulf-states-become-tech-superpowers
The Economist, 16 janvier, article payant
Fat and health : Is obesity a disease?
It wasn’t. But it is now
Extraits :
For years there has been a push to recognise obesity as a disease in its own right, and therefore something that needs to be treated in and of itself, rather than just as a risk factor for other things, such as diabetes, heart disease, strokes and some cancers. And there is indeed much evidence that being obese can result in exceptionally poor health. But many who are obese are not unwell in the slightest. This argues that obesity per se should not be treated as an illness.
Until two years ago, such discussion was of little practical relevance since there were few treatments for obesity between the extremes of bariatric surgery and the old-fashioned approach of eating less and exercising more. However, the arrival in 2023 of GLP-1 weight-loss drugs in the form of semaglutide (known commercially as Wegovy) changed that. If these drugs are to be prescribed sensibly and fairly, then who among the fat is sick and who is not becomes an important question.
The usual current measure of obesity is body mass index (BMI). This has the advantage of being easily calculated (by dividing a person’s weight by the square of their height). Obesity is then defined as a BMI of more than 30. But some people with a high BMI show no signs of being unwell. And, absurdly, stocky and well-muscled athletes have been known to qualify as obese according to this classification. (…)
To diagnose their newly defined disease, which they call “clinical obesity”, the commissioners require two things. First, the addition of a third measure of body size (waist circumference, waist-to-hip ratio or waist-to-height ratio) to those used to calculate BMI—though measuring body fat directly, with sophisticated modern scanning tools is even better. Second, if this revised measurement does, indeed, proclaim an individual to be obese, some objective signs and symptoms of reduced organ function, or ability to conduct daily activities—such as bathing, eating and dressing—are also needed to declare that obesity to be clinically relevant. (…)
Francesco Rubino, a professor in metabolic and bariatric surgery at King’s College, London, who is also one of the commissioners, reckons describing obesity as an actual disease is quite a radical shift. The next task—one which others have already started, he says—is to work out who among the 1bn or so people on the planet who were classified as obese according to the old definition qualify as being clinically obese under the new one, and thus in need of treatment. Preliminary work, he says, suggests 20-40% of them.
The commission’s approach already seems popular with medical officialdom. Seventy-six of the world’s leading health organisations, including the American Heart Association, the Chinese Diabetes Society and the All Indian Association for Advancing Research in Obesity, have already endorsed it. How quickly it will percolate into medical practice and public perceptions of who is and is not dangerously obese is another matter. ■
https://www.economist.com/science-and-technology/2025/01/15/is-obesity-a-disease
The Economist, 13 janvier, article payant
The fight over America’s economy : Tech is coming to Washington. Prepare for a clash of cultures
Out of Trumpian chaos and contradiction, something good might just emerge

Extraits :
Already things have turned nasty. Donald Trump has not even got to the White House, and his raucous court of advisers have rounded on each other. In recent days Elon Musk and other tech tycoons have traded insults with the MAGA crowd over highly skilled migration. What seems like a petty spat over visas is in fact a sign of a much deeper rift. For the first time, tech is coming to Washington—and its worldview is strikingly at odds with the maga movement. The ways in which these tensions are resolved, and who gains the upper hand, will profoundly affect America’s economy and its financial markets over the next four years.
As in his first term, Mr Trump has assembled an economic-policy team with disparate, sometimes contradictory goals. The maga diehards, such as Stephen Miller, Mr Trump’s choice for deputy chief of staff, are anti-trade, anti-immigration and anti-regulation, and are supported by an energetic base. The Republican mainstreamers, such as Scott Bessent, Mr Trump’s pick for treasury secretary, and Kevin Hassett, the head of the National Economic Council, are primarily low-tax, small-government enthusiasts. This time, though, there is a new faction that makes the mix more volatile still: the tech bros from Silicon Valley.
David Sacks, a venture capitalist, has been appointed Mr Trump’s crypto and artificial-intelligence tsar. He will hope to relax curbs on the crypto industry and, together with other arrivals from Silicon Valley, to loosen controls on ai to encourage faster progress. But the influence of the techies goes beyond tech policy. Mr Musk has been tasked with running the newly created Department of Government Efficiency (doge). Marc Andreessen, a renowned venture capitalist, says he has been spending about half his time at Mar-a-Lago as a “volunteer”. Scott Kupor, who worked for Mr Andreessen, will take charge of the Office of Personnel Management, which oversees public-sector hiring. Former employees of Palantir, the Thiel Foundation and Uber have been appointed to roles in the state and health departments and to the Pentagon, respectively. Once the revolving door between Wall Street and the Treasury spun so fast that Goldman Sachs was nicknamed “Government Sachs”. Mr Trump, by contrast, is trying to put the tech into technocracy.
This is new for American politics. (…)
One problem is that, when tech and maga say they are signed up to America First, they mean different things. Whereas the maga movement hopes to restore a vision of the past, including an impossible return to a manufacturing heyday, tech looks forward. It wants to accelerate progress and disrupt society, leaving the world for which maga yearns ever farther in the dust.
These contrasting visions will translate into policy disputes. (…)
A combination of infighting, botched implementation and self-dealing could provoke a backlash that hobbles Mr Trump’s second term.
Yet that dismal scenario is not foreordained. Instead of fighting each other to a standstill, the factions on Mr Trump’s team could moderate each other in some ways and reinforce each other in others, perhaps with benign results for America. For example, the mainstreamers and the tech bosses could limit maga’s worst instincts on protectionism and immigration, while tech’s clever ideas for reform could be implemented in a way that is politically astute. Everyone’s agreement on America’s need to deregulate and innovate, meanwhile, could lend the programme useful momentum. (…)
That may sound far-fetched. However, the stockmarket could help steer the administration towards this compromise. Mr Trump is sensitive to share prices, and will not want to endanger the roaring rally that has followed his re-election. By providing a real-time gauge of whether investors think Trumponomics will help the economy, the stockmarket could sway his decisions. If so, the administration could feel its way towards policies that boost growth. Tech’s arrival in Washington is high-risk. It could also—conceivably—be high-reward. ■
Frankfurter Allgemeine Zeitung, 12 janvier, article payant
Europa investiert in die falschen Technologien
Europa investiert zu wenig – und das auch noch in die falschen Technologien. Während US-Unternehmen mit Wucht in Zukunftstechnologien wie Software und KI investieren, konzentriert sich Europa seit 20 Jahren auf traditionelle Branchen wie die Autoindustrie.

Extraits :
Die Unternehmen in der EU investieren nur 1,2 Prozent des Bruttoinlandsproduktes in Forschung und Entwicklung – in den USA sind es 2,3 Prozent. Werden die Investitionen des Staates dazugerechnet, gibt die EU etwa zwei Prozent ihres Bruttoinlandsprodukts für F&E aus – vergleichbar mit Japan, aber weit unter den USA oder Südkorea. Besonders dramatisch ist der Rückstand in Zukunftstechnologien: US-Unternehmen dominieren mit einem Anteil von 75 Prozent die globale Softwareentwicklung, die EU kommt nur auf 6 Prozent und liegt damit auch hinter China. Während in den USA die großen Digitalkonzerne die größten F&E-Investoren sind, führen in Europa seit 20 Jahren die gleichen Autohersteller die Liste an.
Wo in Amerika 85 Prozent der privatwirtschaftlichen Investitionen in Hightechbranchen fließen, sind es in Europa nur 50 Prozent, mit einem Schwerpunkt auf mitteltechnologischen Sektoren. Eine neue Studie der Università Bocconi zeigt, dass diese Spezialisierung Europa nicht nur Wachstumschancen nimmt, sondern es auch geopolitisch schwächt.
Die EU müsse ihre Innovationsförderung radikal umbauen, um den Anschluss nicht zu verlieren. Die Studie spricht von einer „Mitteltechnologie-Falle“: Die EU ist auf mittelkomplexe Technologien spezialisiert, die zwar technologische Fortschritte nutzen, aber nicht selbst entwickeln. Diese Pfadabhängigkeit verstärkt sich selbst – während US-Unternehmen ihre Technologieführerschaft durch hohe F&E-Ausgaben ausbauen, fehlen in Europa die Ressourcen für den Aufbau neuer Hightechindustrien. Besonders problematisch: Die europäische Autoindustrie wurde trotz hoher F&E-Investitionen von US- und chinesischen Herstellern überholt. Sowohl bei den softwarelastigen Fahrzeugen als auch beim autonomen Fahren in den relevanten Ausbaustufen 4 und 5 spielen Europas Hersteller aktuell keine Rolle.
Das EU-Innovationsprogramm „Horizon Europe“ mit einem Jahresbudget von mehr als elf Milliarden Euro ist nach Ansicht der Autoren falsch aufgestellt. Weniger als 5 Prozent der Mittel fließen in bahnbrechende Innovationen. Der neu geschaffene European Innovation Council (EIC) konzentriere sich zu stark auf die Finanzierung reifer Technologien statt auf echte Durchbrüche. Die Entscheidungsprozesse sind zu politisch, die Zusammenarbeit wird erzwungen statt begleitet.
Die Autoren fordern eine radikale Reform nach dem Vorbild der US-Forschungsagentur DARPA. (…)
Das Zeitfenster, in dem dies möglich ist, schließt sich jedoch. Während die USA und China ihre Führungspositionen weiter ausbauen, bleibt Europa wenig Zeit, um das Ruder herumzureißen. Die „Middle Technology Trap“ ist keine unvermeidbare Sackgasse, sondern ein Hindernis, das durch entschlossenes Handeln überwunden werden kann. Die Frage sei, ob Europa den Willen dazu habe.
The Economist, 11 janvier, article payant
Meta’s makeover : Mark Zuckerberg’s U-turn on fact-checking is craven—but correct
Social-media platforms should not be in the business of defining truth
Extraits :
Apart from the million-dollar wristwatch, it had the look of a hostage video. On January 7th Mark Zuckerberg posted a clip to Facebook and Instagram in which he announced changes to his social networks’ content-moderation policies in response to what he called the “cultural tipping point” of Donald Trump’s election. There have been “too many mistakes and too much censorship”, he said, adding that Mr Trump’s return provides an “opportunity to restore free expression”. He also appointed Dana White, an ally of Mr Trump’s, to Meta’s board (as well as John Elkann, the boss of Exor, which part-owns The Economist’s parent company).
For all the talk of freedom, Mr Zuckerberg’s video was another example of the capture of American business by the bullying incoming president. Mr Trump has called Facebook an “enemy of the people” and threatened to ensure that Mr Zuckerberg “spends the rest of his life in prison”. Mr Zuckerberg is not the only executive to submit: everyone from Apple’s Tim Cook to OpenAI’s Sam Altman is said to have donated to Mr Trump’s inauguration vanity fund. This week Amazon announced a $40m biopic of the incoming First Lady.
The circumstances may be grotesque and the motives suspect. But the substance of Meta’s sweeping changes is, in fact, correct. Speech online urgently needs to become freer. Making it so will shore up America’s democracy against whatever tests it faces in the years to come.
Mr Zuckerberg was once a free-speech enthusiast, allowing content such as Holocaust denial on Facebook even as many urged him to block it. But following claims of Russian online interference in Mr Trump’s first election, in 2016, and an outbreak of misinformation around the covid-19 pandemic, in 2020, the company cracked down on a broad range of “lawful but awful” content, from quack medicine to crackpot groups such as QAnon.
What first seemed like common sense has placed a growing cost on users’ freedom of expression. Never mind the freedom to be wrong; in some cases perfectly accurate claims have been blocked, as when Facebook suppressed a New York Post story about Joe Biden’s son, Hunter, which turned out to be true. The definition of hate speech has expanded in a way that limits debate about subjects such as transgender rights. Automated filters are so strict that even Meta says 10-20% of the content it removes is taken down in error. Mr Zuckerberg’s promise to replace fact-checking with user-led “community notes”, and loosen the rules on what can be said about testy topics like gender, is welcome.
There are risks. Mr Zuckerberg acknowledges that moderation involves trade-offs and that his new rules will mean more “bad stuff” online. (…) On X, where Elon Musk has dismantled much of the moderation apparatus, posts inciting violence—a criminal offence—spread rapidly during a recent spate of rioting in Britain. Telegram, a libertarian network popular in Russia, has become a haven for crooks owing to its hands-off approach.
The best way to guard against these dangers is to be transparent about how rules are set. Meta’s Oversight Board, an independent standards watchdog set up in 2020, appears to have been wrongfooted by this week’s announcement, first supporting the measures and then expressing concerns. The rules on what can and cannot be said online should be explained and defended transparently, not overturned by the company’s chief executive in a pre-inauguration panic.
For all that, Meta’s moves are a step in the right direction. Social networks should stamp out illegal content. For the sake of advertisers’ business and users’ enjoyment, they will probably want to keep things civil. But it is past time that they got out of the business of ruling on what is right and wrong. Only a fool would claim that his social network was the truth.■
Articles du 27 décembre au 7 juin 2024