Apple's kritisches Paper zu AI

20. Juni 2025

 

The Illusion of Thinking

Apples kritisches Paper zu LLMs

 

 

Apple veröffentlichte im Juni 2025 die Studie “The Illusion of Thinking”, die sich mit der Fähigkeit von Large Language Models (LLMs) wie Claude, DeepSeek-R1 und o3-mini zur logischen Argumentation und Problemlösung beschäftigt. Im Fokus stand die Frage: Denken diese Modelle wirklich oder imitieren sie nur?

 

1. Kernaussage der Apple Studie:

  • Viele LLMs zeigen bei einfachen Aufgaben beachtliche Leistungen.
  • Bei komplexeren logischen Herausforderungen, z. B. beim Tower-of-Hanoi-Puzzle, scheitern sie zunehmend, besonders ohne explizites Codieren.
  • Was oft als „Reasoning“ interpretiert wird, basiert eher auf Mustererkennung als auf echtem Denken.

Das Narrativ vom bevorstehenden Durchbruch zur AGI (Artificial General Intelligence) wird kritisch hinterfragt.

 

 

2. Was stand in unseren Timelines? „AI ist gescheitert!“

 

Einige Stimmen auf Social Media nutzen die Ergebnisse, um dramatische Schlagzeilen zu produzieren, wie z.B. „LLMs können nicht denken.“, „Hundert Milliarden Dollar wurden verschwendet." oder der „Der AGI-Traum ist geplatzt.“

 

Diese Positionen greifen stark verkürzend Apples Aussagen auf und ignorieren sowohl methodische Grenzen als auch den tatsächlichen Nutzen von LLMs.

 

 

3. Differenzierte Betrachtung

 

Zum Glück gab es auch viele differenzierte Betrachtungen, die etwas genauer hingeschaut haben. Hier einige wichtige Erkenntnisse:

 

Die begrenzte Reasoning-Fähigkeit ist keine Überraschung, aber kein Beweis für Wertlosigkeit. Apples Forschung ist vielleicht nicht unbedingt objektiv. Methodische Schwächen wie Token-Limits und nicht standardisierte Schwierigkeitsgrade verzerren die Ergebnisse.


Entscheidend sei nicht, was Reasoning ist, sondern welche Fähigkeiten daraus entstehen. Die Studienkritik vernachlässigt, dass viele LLMs sehr wohl komplexe Aufgaben lösen, wenn sie dazu Code generieren dürfen. Die Studie zeigt nicht, dass LLMs nicht denken, sondern dass sie nicht immer zu 100 % akkurat sind, besonders bei schwierigen Problemen.
 

 

4. Fazit

 

Die Apple-Studie liefert wertvolle Hinweise auf die Grenzen aktueller LLMs im Bereich reasoning. Das Problem liegt weniger in der Existenz von Reasoning, sondern in seiner Zuverlässigkeit unter schwierigen Bedingungen.

 

LLMs sind nicht wertlos, sondern Werkzeuge mit spezifischen Stärken und Schwächen. Wir brauchen mehr Differenzierung und weniger Sensationsjournalismus.

 

Aber warum veröffentlich Apple diese Studie genau jetzt, während sie wenige Tage später ihr wichtigstes AI Release auf 2026 verschieben? Wollen Sie sich rechtfertigen? Oder ist dies reines Marketing um ein Problem zu manifestieren, zu dem Apple in naher Zukunft eine Lösung veröffentlichen wird?

 

 

Schauen Sie gerne auch mal auf fup-ag.com

 

Wir benötigen Ihre Zustimmung zum Laden der Übersetzungen

Wir nutzen einen Drittanbieter-Service, um den Inhalt der Website zu übersetzen, der möglicherweise Daten über Ihre Aktivitäten sammelt. Bitte überprüfen Sie die Details in der Datenschutzerklärung und akzeptieren Sie den Dienst, um die Übersetzungen zu sehen.