"Die KI-Blase wird platzen, und zwar gewaltiger als alles, was wir bisher erlebt haben."

Wenn die Anleger erst einmal begreifen, was Sie in diesem Video sehen werden – und was durch echte, harte Fakten untermauert wird –, dann wird die finanzielle Zerstörung sowohl den Dotcom-Crash als auch die Krise von 2008 zusammen in den Schatten stellen. Die Produktivitätsrevolution durch LLMs ist eine glatte Lüge. Uns wurde gesagt, dass KI uns schneller machen, unsere Lebensqualität verbessern und sogar bahnbrechende Erkenntnisse in der Wissenschaft hervorbringen würde. Die Technologie sollte sich so lange verbessern, bis sie eine menschliche Utopie erschaffe. Die Wahrheit ist jedoch, dass sich die Situation seit über einem Jahr nicht mehr verbessert hat, und die KI-Unternehmen wissen das. Die LLMs stießen Ende 2024 an ihre Grenzen. Die Chinchilla-Skalierungsgesetze, die alle glauben ließen, dass eine allgemeine künstliche Intelligenz (AGI) unvermeidlich sei, haben ihre Gültigkeit verloren. Mehr Rechenleistung führt nicht mehr zu besseren Modellen. Was wir jetzt sehen, sind größere Marketingbudgets, die vorgeben, bessere Technologie zu sein.

„Wir werden keine KI auf menschlichem Niveau erreichen, indem wir einfach bessere LLMs entwickeln. Das wird einfach nicht passieren, okay? Das ist unmöglich, okay? Absolut unmöglich. Das wird nicht in den nächsten zwei Jahren passieren. Das ist absolut unmöglich. ... Ich habe kein Interesse mehr an LLMs."
— Yann LeCun, leitender KI-Wissenschaftler bei Meta

Die Produktivitätsrevolution durch LLMs ist eine glatte Lüge.

Uns wurde gesagt, dass KI uns schneller machen, unsere Lebensqualität verbessern und sogar bahnbrechende Erkenntnisse in der Wissenschaft hervorbringen würde.

Die Technologie sollte sich so lange verbessern, bis sie eine menschliche Utopie erschaffe.

Die Wahrheit ist jedoch, dass sich die Situation seit über einem Jahr nicht mehr verbessert hat, und die KI-Unternehmen wissen das.

Die LLMs stießen Ende 2024 an ihre Grenzen.

Die Chinchilla-Skalierungsgesetze, die alle glauben ließen, dass eine allgemeine künstliche Intelligenz (AGI) unvermeidlich sei, haben ihre Gültigkeit verloren.

Mehr Rechenleistung führt nicht mehr zu besseren Modellen.

Was wir jetzt sehen, sind größere Marketingbudgets, die vorgeben, bessere Technologie zu sein.

In diesem Video zeige ich Ihnen nun, was wirklich passiert, wenn Sie diese Werkzeuge selbst benutzen.

Sie werden nicht nur langsamer bei der Arbeit, weil Sie ständig Zeit damit verbringen, Fehler zu beheben, anstatt kreativ zu sein, sondern Ihr Gehirn hört auch auf, die anstrengende Denkarbeit zu verrichten.

Sie haben sie an eine Maschine ausgelagert, die tatsächlich gar nicht denken kann.

Die neurowissenschaftlichen Erkenntnisse zu diesem Thema sind eindeutig.

Regelmäßiger Konsum führt zu messbaren kognitiven Beeinträchtigungen.

Diese Systeme sind auch gefährlich.

Sie halluzinieren regelmäßig falsche Informationen und klingen dabei völlig autoritär und selbstsicher.

Der professionelle, sachliche Tonfall lässt Ihre Skepsis völlig im Keim ersticken, sodass Sie das Gelesene nicht mehr überprüfen.

Und genau dann können teure Fehler passieren.

Falsche Fakten, erfundene Zitate und fehlerhafte Logik werden mit absoluter Überzeugung vorgetragen.

Und hier ist der Grund, warum sie sich nicht mehr verbessern können.

LLMs werden mit Daten trainiert, die aus dem Internet gesammelt werden.

So verbesserten sie ihre Skalierungsfähigkeiten.

Das Problem ist jedoch, dass ihnen an diesem Punkt die Daten ausgegangen sind.

Sie haben bereits alles, was im Internet zu finden ist, in diese Modelle eingespeist.

Und nun überschwemmen KI-generierte Inhalte das Internet.

Wenn sie also die nächste Generation dieser LLMs ausbilden, werden sie mit ihren eigenen Fehlern trainiert, was langsam die Leistungsfähigkeit dieser LLMs mindert.

Es ist ein Teufelskreis, und jede Generation wird es immer schlimmer machen, nicht besser.

Und das ist nicht meine Meinung.

In diesem Video werde ich es Ihnen beweisen und Studien zeigen, die belegen, dass dies genau jetzt passiert.

Nun haben Unternehmen Billionen von Dollar auf eine Technologie gesetzt, die bereits gescheitert ist.

Ihr Aktienkurs basiert auf der Annahme einer Zukunft, die laut Mathematik unmöglich ist.

Wenn die Anleger erst einmal begreifen, was Sie in diesem Video sehen werden – und was durch echte, harte Fakten untermauert wird –, dann wird die finanzielle Zerstörung sowohl den Dotcom-Crash als auch die Krise von 2008 zusammen in den Schatten stellen.

Okay, als Erstes möchte ich über die größte Lüge im Marketing-Handbuch für LLMs sprechen, nämlich die Behauptung, dass diese Tools Ihre Produktivität steigern.

Mittlerweile haben alle Technologieunternehmen, die LLMs anbieten, im Grunde die gleiche Verkaufsstrategie.

„Nutzen Sie unsere Technologie, und Sie werden schneller programmieren, besser schreiben und in Stunden fertig sein, wofür Sie früher Tage brauchten.

Die Produktivitätsrevolution hat begonnen.“

Das stimmt aber überhaupt nicht.

Sehen Sie, im Juli 2025 hat METR, eine gemeinnützige Forschungsorganisation, die sich der Bewertung von KI widmet, Fähigkeiten, eine bahnbrechende Studie durchgeführt.

Es handelte sich um eine randomisierte Kontrollstudie mit 16 erfahrenen Softwareingenieuren.

Es handelte sich um Personen mit durchschnittlich fünf Jahren Berufserfahrung in der Arbeit an eigenen Projekten mit Millionen von Codezeilen.

Diese Personen hatten in der Vergangenheit auch schon Erfahrungen mit LLMs gesammelt.

Es handelte sich um eine Blindstudie, in der die Forscher die tatsächlichen Bearbeitungszeiten für reale Programmieraufgaben maßen.

Vor Beginn der Studie hatten die Entwickler prognostiziert, dass KI sie um etwa 24 Prozent beschleunigen würde.

Nachdem sie fertig waren, schätzten sie jedoch, dass die KI sie um etwa 20 Prozent schneller gemacht hatte.

Okay, jetzt aber halten Sie sich fest für die tatsächlichen Ergebnisse.

Mit KI waren sie 19 Prozent langsamer als ohne.

Denken Sie einmal über diesen Unterschied nach.

Sie dachten, sie seien 20 Prozent schneller, aber tatsächlich waren sie 19 Prozent langsamer.

Das ist eine Differenz von 39 Punkten zwischen Wahrnehmung und Realität.

Die KI hatte eine so starke Illusion von Produktivität erzeugt, dass selbst erfahrene Fachkräfte nicht bemerkten, dass sie langsamer arbeiteten.

Ich möchte Ihnen den Grund dafür erklären.

Wenn man KI zum Schreiben von Code oder irgendetwas anderem verwendet, erhält man sofortige Ergebnisse, und das fühlt sich wie Fortschritt an.

Ihr Gehirn registriert die Geschwindigkeit der Datengenerierung als extreme Produktivität.

Was Sie aber nicht berücksichtigen, ist alles, was danach kommt.

Die KI halluziniert Funktionen, die in Ihrer Codebasis nicht existieren, und generiert Lösungen, die zwar richtig aussehen, aber unter realen Bedingungen nicht funktionieren.

Man verbringt viel Zeit mit Debuggen, Überprüfen und Beheben subtiler Fehler, die schwer zu finden sind, und es wäre viel schneller gegangen, wenn man den Code von Anfang an selbst geschrieben hätte.

Nun wollen wir das Ganze aus einer übergeordneten Perspektive betrachten und sehen, wie sich das auf die gesamte Wirtschaft auswirkt.

McKinsey befragte für seinen KI-Einführungsbericht 2025 Tausende von Unternehmen.

Obwohl 88 Prozent der Unternehmen angeben, KI einzusetzen, profitieren tatsächlich nur 6 Prozent davon.

Der Rest verbrannte Millionen von Dollar für die Implementierung von Instrumenten, die nichts brachten.

Zwei Drittel der Unternehmen stecken immer noch in der Phase der Durchführung von Experimenten und Pilotprojekten fest, weil sie die KI einfach nicht zuverlässig zum Laufen bringen können.

Dann gibt es noch die Uplevel-Datenstudie vom September 2024.

Sie verfolgten 800 Entwickler über drei Monate hinweg und verglichen Teams, die GitHub Copilot nutzten, mit Teams, die ohne dieses Tool arbeiteten.

Dabei maßen sie die Qualität des Codes und die Geschwindigkeit, mit der die Arbeit erledigt wurde.

Entwickler, die Copilot nutzten, bauten 41 Prozent mehr Fehler in ihren Code ein als Entwickler, die manuell arbeiteten, ohne dass sich die Geschwindigkeit der Code-Erstellung oder die Produktivität verbesserte.

Die einzige messbare Veränderung bestand darin, dass mehr Fehler auftraten, die später behoben werden mussten.

Das ist ein Muster.

KI macht Sie nicht schneller.

Sie erzeugt mehr Arbeit und wird als Produktivität getarnt.

Man fühlt sich produktiv, weil man weniger tippen muss, aber die tatsächliche Zeit von Anfang bis Ende verlängert sich und die Qualität nimmt ab.

Man merkt es gar nicht, weil einen das Tool davon überzeugt hat, dass der sofortige Output gleichbedeutend mit Fortschritt ist.

Die Produktivitätsrevolution ist eine Marketingkampagne, die auf einem grundlegenden Missverständnis dessen beruht, was Produktivität eigentlich bedeutet.

Künstliche Intelligenz erfüllt nicht nur ihre Versprechen nicht, sie tut etwas noch Schlimmeres.

AI schadet tatsächlich denjenigen, die sie benutzen, und die meisten von Ihnen wissen nicht einmal, dass es passiert.

Okay, wir wissen also, dass KI Sie bei der Arbeit langsamer macht, aber was wäre, wenn ich Ihnen sagen würde, dass sie auch Ihr Gehirn umstrukturiert und der Schaden sich mit zunehmender Nutzung verschlimmert?

Das Media Lab des MIT begleitete 54 Studenten über vier Monate hinweg beim Schreiben von Essays.

Die Teilnehmer wurden in drei Gruppen aufgeteilt.

Einer nutzte ChatGPT, einer recherchierte mit Google, und einer arbeitete ganz ohne Hilfe, ganz altmodisch in der Bibliothek.

Alle Teilnehmer trugen während der Arbeit ein EEG-Headset, das die Gehirnaktivität überwachte.

Die ChatGPT-Gruppe wies die schwächste neuronale Vernetzung aller drei Gruppen auf.

Die Forscher maßen eine verringerte Aktivität im präfrontalen Kortex.

Das ist der Teil Ihres Gehirns, der für kritisches Denken und Entscheidungsfindung zuständig ist.

Wenn man das Denken an die KI auslagert, beginnt dieser Bereich langsam abgeschaltet zu werden.

Nach vier Monaten forderten die Forscher die ChatGPT-Gruppe auf, ohne KI-Unterstützung zu schreiben, und ihre Gehirne erholten sich nicht.

Im Vergleich zu den anderen Gruppen wiesen sie weiterhin eine schwache Konnektivität auf.

83 Prozent konnten sich nicht an die wichtigsten Punkte ihrer selbst verfassten Aufsätze erinnern.

Als sie gebeten wurden, aus ihren eigenen Werken zu zitieren, konnte keiner der Schüler dieser Gruppe dies korrekt tun, weil ihr Gehirn keine Verbindung zu dem von ihnen geschaffenen Werk hatte.

In dieser Studie wird dies als kognitive Schuld bezeichnet.

Jedes Mal, wenn Sie KI zum Denken einsetzen, schwächen Sie Ihre zukünftige Denkfähigkeit.

Die neuronalen Bahnen, die für komplexe Denkprozesse zuständig sind, verkümmern durch Nichtgebrauch.

Nun gibt es noch ein weiteres Problem, das die Situation im Berufs- und Privatleben noch verschlimmert.

Die Antworten des LLM klingen, als kämen sie von einem Experten, und das verleitet das Gehirn dazu, ihnen zu vertrauen, ohne zu überprüfen, ob es sich um eine Halluzination handelt oder nicht.

Und wie wir wissen, halluzinieren diese Models regelmäßig.

Harvard und das MIT veröffentlichten im Jahr 2025 eine Studie, die zeigte, dass Menschen KI eher aufgrund ihrer Selbstsicherheit und Professionalität vertrauen, als aufgrund ihrer Genauigkeit.

Der flüssige, elegante Schreibstil vermittelt dem Gehirn den Eindruck, die Informationen seien zuverlässig.

Wenn eine KI mit Autorität schreibt, hört man einfach auf, sie zu hinterfragen.

Eine weitere Studie hat nun ergeben, dass KI-Modelle in einem selbstsicheren und autoritären Ton schreiben, selbst wenn sie völlig falsch liegen.

Dieser Tonfall erschwert es Ihnen, zwischen wahren und falschen Informationen zu unterscheiden.

Ihr Gehirn sieht Fachsprache und geht davon aus, dass sie korrekt sein muss, als käme sie von einem Experten.

Das verursacht echten Schaden.

Man fragt nach Gesundheitsinformationen und erhält etwas zurück, das sich wie ein medizinisches Lehrbuch liest, also überprüft man es nicht genauer, weil es so seriös aussieht.

Aber die Fakten sind falsch und die Quellen möglicherweise erfunden.

Dieser Rat könnte Ihnen tatsächlich schaden, aber vielleicht haben Sie ihm bereits vertraut, weil er sich so smart anhörte.

Dasselbe kann bei finanziellen Entscheidungen, Rechtsfragen oder technischen Problemen passieren.

KI liefert Ihnen halluzinierten Müll, verpackt in Expertensprache.

Und man merkt gar nicht, dass es Schrott ist, weil die Präsentation so professionell aussieht.

Dadurch entsteht ein Teufelskreis.

Wenn man KI für einfache Aufgaben nutzt, beginnen die eigenen Fähigkeiten zu verkümmern.

Man fängt an, KI für Dinge zu benötigen, die man früher selbst erledigt hat.

Und mit der Zeit verliert man sogar die Fähigkeit zu überprüfen, ob die KI richtig oder falsch liegt.

Das führt dazu, dass man falschen Informationen vertraut, viele Fehler macht und sich dann noch stärker auf KI verlässt, um die Probleme zu beheben, die sie ursprünglich verursacht hat.

Der Schaden besteht nicht nur in langsamerem Arbeiten oder schwächerem Denken.

Es ist die völlige Abhängigkeit von einem System, das nicht denken kann, verbunden mit dem Verlust der Fähigkeit zu erkennen, wann dieses System einen anlügt.

Okay, jetzt möchte ich darüber sprechen, warum LLMs von hier aus eigentlich nicht mehr besser werden können.

Die Verbesserungen sind zum Stillstand gekommen, und dafür gibt es drei Hauptgründe.

Nun, erstens sind uns die soliden Trainingsdaten ausgegangen.

LLMs lernen, indem sie riesige Mengen an Texten lesen, die sie aus dem Internet sammeln.

Je mehr qualitativ hochwertige Daten man ihnen zuführt, desto besser werden sie.

Und so kamen wir von GPT-2 über GPT-3 zu GPT-4, und mit jedem Modell konnten wir große Verbesserungen feststellen.

Jede Version wurde mit mehr Daten trainiert und wurde dadurch intelligenter.

Epic AI veröffentlichte 2024 eine Studie, die zeigt, dass wir alle existierenden qualitativ hochwertigen Texte ausgeschöpft haben.

Jedes digitalisierte Buch, jede wissenschaftliche Arbeit, jeder Wikipedia-Artikel, jeder gut geschriebene Online-Inhalt wurde bereits extrahiert und verwendet.

Es gibt nichts mehr, womit diese Modelle trainiert werden könnten.

Also entwickelten die Unternehmen eine innovative Lösung – zumindest dachten sie das.

Also begannen sie stattdessen damit, neue Modelle mit KI-generierten Inhalten zu trainieren.

Sie begannen, LLMs mit Texten zu füttern, die von anderen LLMs geschrieben wurden, und dies führt zu etwas, das man Modellkollaps nennt.

Eine Studie in Nature aus dem Jahr 2024 dokumentierte, was passiert, wenn man das tut.

Die Qualität verschlechtert sich mit jeder Generation um 8-12%.

Das ist, als würde man eine Fotokopie einer Fotokopie anfertigen, wobei jede Version immer unschärfer wird.

Wir befinden uns bereits in der zweiten oder dritten Generation dieses Prozesses, und das Internet besteht mittlerweile zu bis zu 60 Prozent aus KI-generierten Inhalten.

Jedes neue Modell wird mit diesen fehlerhaften Daten trainiert und wird dadurch tatsächlich schlechter, anstatt besser zu werden.

Okay, als nächstes möchte ich darüber sprechen, warum die Skalierungsgesetze nicht mehr funktionierten.

Jahrelang folgten KI-Unternehmen also den sogenannten Chinchilla-Skalierungsgesetzen.

Das Prinzip war ganz einfach.

Solange Sie Ihre Rechenleistung verdoppeln, erhalten Sie ein Modell, das in etwa die doppelte Leistungsfähigkeit aufweist.

Deshalb haben wir all diese Rechenzentren gebaut, die mit immer mehr GPUs ausgestattet sind.

Allerdings zeigte sich von 2020 bis 2023, dass eine Verdopplung des Rechenaufwands tatsächlich zu einer Verdopplung der Ergebnisse führte.

Doch im Jahr 2024 brach dieser Trend vollständig.

Man kann also sehen, dass man bei einer Verdopplung der Rechenleistung zwar eine Verbesserung von etwa 5-8 Prozent erzielen kann, aber dafür auch doppelt so viel Geld für einen extrem geringeren Nutzen ausgibt.

OpenAI entdeckte dies mit seinem neuesten Modell mit dem Codenamen Orion.

Aus durchgesickerten Dokumenten vom Dezember 2025 ging hervor, dass sie das Zehnfache der Rechenleistung ihres vorherigen Modells aufgewendet hatten, und das Ergebnis war kaum eine Verbesserung bei den Benchmarks.

Tatsächlich schnitt AI bei komplexen Denkaufgaben sogar noch schlechter ab, und das wurde auch in dem internen Memo deutlich zum Ausdruck gebracht.

Skalierung allein reicht nicht aus.

Die Unternehmen versuchten dies zu verschleiern, indem sie bei Tests betrogen.

Sie würden die Modelle gezielt mit Benchmark-Fragen übertrainieren, damit die Ergebnisse gut aussehen.

GPT-4 kann beim GSM-8K, einem standardisierten Mathematiktest, 95 Prozent erreichen.

Aber wenn man ihm eine neue mathematische Aufgabe stellt, die AI noch nie zuvor gesehen hat, selbst auf einem Niveau der Oberstufe, scheitert sie an der Lösung des Problems.

Es entbehrt jeder Logik.

Es geht einfach darum, die Antworten auswendig zu lernen.

Drittens, und das ist vielleicht der wichtigste Punkt, können LLMs nicht logisch denken.

Aufgrund ihrer grundlegenden Funktionsweise können sie niemals eine allgemeine allgemeine Intelligenz (AGI) erreichen.

LLMs sind Vorhersagemodelle.

Sie sagen das nächste Wort anhand von Mustern aus ihren Trainingsdaten voraus.

Sie verstehen nicht, was sie sagen, sie haben kein Verständnis dafür, wie die Welt funktioniert, und sie begreifen nicht den Zusammenhang von Ursache und Wirkung.

Wenn Sie eine Frage stellen, denkt der LLM nicht über die Antwort nach.

AI generiert einfach Wörter, die statistisch gesehen Antworten auf ähnliche Fragen ähneln, die sie während des Trainings gesehen hat.

Zum logischen Denken gehört es, mentale Modelle zu entwickeln, Ideen zu testen und Wahrheit von Fiktion zu unterscheiden.

Und LLMs können all das nicht.

Sie gleichen Mustern an, und das war's.

Yann LeCun, der bei Meta die KI-Forschung leitet, formulierte es so: „Autoregressive LLMs sind eine Ausfahrt, nicht die Autobahn zu AGI.“

Was er damit meinte, war, dass diese Technologie eine Sackgasse ist.

Allgemeine Intelligenz lässt sich nicht durch das Vorhersagen von Wörtern ermitteln.

Man braucht ein System, das tatsächlich versteht, wovon es spricht, und LLMs tun das schlichtweg nicht.

Die Unternehmen, die diese Systeme derzeit entwickeln, wissen das.

Die Forscher wissen das, aber sie haben Milliarden von Dollar eingesammelt, indem sie versprochen haben, dass AGI bald kommt, also tun sie weiterhin so, als ob die Technologie einfach nur mehr Zeit bräuchte.

Tatsächlich ist das nicht der Fall.

Es bedarf eines völlig anderen Ansatzes, den noch niemand gefunden hat.

Die LLMs haben ihren Höhepunkt erreicht, mein Freund.

Es gibt keine Daten mehr.

Skalierung funktioniert nicht mehr, und die Architektur kann nicht mehr vernünftig arbeiten.

Alles, was von hier kommt, sind nur größere, teurere Versionen derselben aussichtslosen Technologie.

Okay, zum Schluss möchte ich über meine persönlichen Erfahrungen mit LLMs sprechen.

Und ich denke, das zeigt wirklich, dass vieles von dem, was ich in diesem Video gesagt habe, tatsächlich ziemlich zutreffend ist.

Und falls Sie selbst Erfahrungen mit LLMs gemacht haben und wissen möchten, ob diese für Sie hilfreich waren oder nicht, teilen Sie uns diese bitte in den Kommentaren unten mit, damit wir darüber diskutieren können.

Ich finde, die besten Informationen entstehen oft im Dialog, und ich möchte gerne mit Ihnen in Kontakt treten.

Aber vorerst möchte ich sagen, dass ich mit der Verwendung von LLMs begonnen habe, als ChatGPT-3 herauskam.

Und damals dachte ich, ich hätte eine Superkraft entdeckt.

Ich war einer der ersten, die LLMs nutzten.

Ich habe sie bei der Arbeit und auch privat genutzt.

Ich produzierte Unmengen an detaillierten Dokumenten, die super professionell aussahen und wirklich gut zusammengestellt waren.

Ich war wirklich der Meinung, dass ich auf einem Niveau arbeitete, das ich alleine nicht hätte erreichen können.

Als ich jedoch mit detaillierteren Aufgaben begann und tatsächlich das anwenden musste, was mir die KI lieferte, wurde mir klar, dass vieles davon nur allgemeiner, vager Unsinn war, der als tiefgründige Erkenntnisse verkleidet wurde.

Es wurden selbstbewusste Aussagen gemacht, denen jedoch jeglicher Inhalt fehlte.

Ich stellte außerdem fest, dass mich LLMs ungemein ärgerten, und das wurde auch nicht besser, als ChatGPT-4 und 5 herauskamen.

Es war, als hätte man einen unfähigen Assistenten, der einfach nichts richtig machen kann.

Es vergaß ständig Details dessen, was ich ihm aufgetragen hatte.

AI lieferte fehlerhafte Ergebnisse, die nicht meinen Anweisungen entsprachen, und schien überhaupt nicht in der Lage zu sein, komplexe Aufgaben zu bewältigen.

Tatsächlich stellte ich fest, dass AI mir nicht einmal eine genaue Zeichen- oder Wortanzahl bei Dokumenten anzeigen konnte, die wir gemeinsam erstellt hatten.

AI kann nicht zählen.

Da wurde mir klar, dass diese Technologie keine Intelligenz besitzt, dass ich mich mit einem Roboter unterhalten hatte, der lediglich ein Vorhersagemodell ist und nicht einmal komplexe Anfragen bewältigen kann.

Ich hatte das Gefühl, meine Zeit verschwendet zu haben, und war ehrlich gesagt jedes Mal verärgert, wenn ich AI benutzt hatte.

Mir wurde klar, dass selbst wenn mich die Technologie beschleunigte, der damit verbundene Ärger so groß war, dass AI sich eigentlich gar nicht lohnte.

Und als ich die METR-Studie und andere sah, wurde mir klar, dass AI mich tatsächlich nicht einmal beschleunigte.

Deshalb habe ich einfach aufgehört, AI zu benutzen.

Und das ist der Punkt.

Ehrlich gesagt, als ich damit aufhörte, fühlte ich mich eine Zeit lang wirklich dumm.

Aufgaben, die früher einfach und automatisch vonstatten gingen, erschienen plötzlich schwierig.

Ich hatte Schwierigkeiten, meine Gedanken so zu ordnen wie früher, und ertappte mich oft dabei, wie ich aus Gewohnheit auf KI zurückgriff, und ich musste mich dazu zwingen, es nicht zu tun.

Es dauerte Wochen, bis ich wieder da war, wo ich vor der regelmäßigen Anwendung war.

Mein Gehirn fühlte sich an, als müsse es sich neu vernetzen; ich hatte mein Denken so lange an eine Maschine ausgelagert, dass ich hatte einen Teil der Fähigkeit verloren, selbst zu denken.

Diese Erfahrung hat meine Sicht auf die Technologie grundlegend verändert.

Es geht nicht nur darum, dass LLMs nicht wie versprochen funktionieren, sondern darum, dass sie einem aktiv schaden, während sie einen davon überzeugen, dass sie helfen, und die meisten Menschen haben nicht einmal eine Ahnung davon.

Deshalb sind alle Inhalte auf diesem Kanal von mir selbst erstellt, ohne KI.

Dies sind organische, natürliche und von Menschenhand geschaffene Inhalte.

Wenn Ihnen das gefällt, abonnieren Sie bitte unseren Kanal, denn der regelmäßige Gebrauch dieser Tools könnte genauso schädlich sein wie Rauchen.

Man merkt den Schaden erst, wenn es zu spät ist und man versucht, damit aufzuhören.

Schauen Sie, nur weil LLMs an ihre Grenzen stoßen, heißt das nicht, dass die KI als Ganzes zwangsläufig am Ende ist.

Es werden noch andere Ansätze erarbeitet, die möglicherweise zu etwas führen, und wenn Sie daran interessiert sind, dass ich diese Themen behandle, hinterlassen Sie einfach einen Kommentar, um mich darüber zu informieren.

Die KI-Blase wird platzen, und zwar gewaltiger als alles, was wir bisher erlebt haben.

Auf diesem Kanal möchte ich jede einzelne Sekunde davon abdecken, also abonnieren Sie bitte den Kanal und lassen Sie uns das gemeinsam durchgehen.

Nun möchte ich dieses Video mit einem herzlichen Dankeschön an alle beenden, die bis hierher zugeschaut haben, und ein ganz besonderes Dankeschön an diejenigen, die den Kanal abonniert haben.

Ich weiß Sie wirklich zu schätzen, und es ist gut zu wissen, dass es da draußen noch andere Menschen gibt, die meine Ansicht teilen.

Um Ihnen etwas zurückzugeben, werde ich in naher Zukunft den ersten paar hundert Abonnenten kostenlosen Patreon-Zugang schenken.

Wenn Sie daran interessiert seid, abonnieren Sie bitte den Kanal.

Sobald ich den Kanal starte, werde ich mich bei Ihnen melden, um sicherzustellen, dass Sie Ihren kostenlosen Zugang erhalteen.

Danke fürs Zuschauen, und denkt daran: Lassen keine Maschine für Sie denken.

Damit das menschliche Gehirn funktionsfähig bleibt.

Vielen Dank und gute Nacht.

Transkript automatisch übersetzt mit Google Translate, editiert

Yann LeCun: "We are not going to get human level AI, by just getting better LLMs. This is just not going to happen, okay? There is no way, okay? Absolutely no way. It's not going to happen within the next 2 years. There's absolutely no way in hell. ... I'm not interested in LLMs anymore."
— Yann LeCun, Chief AI Scientist at Meta

The productivity revolution of LLMs is a complete lie.

We've been told that AI was going to make us faster, improve the quality of our life, and even create breakthroughs in science.

The technology was supposed to keep improving until it created a human utopia.

But the truth is, it stopped improving over a year ago, and the AI companies know this.

You see, LLMs hit a ceiling in late 2024.

The chinchilla scaling laws that made everyone think AGI was inevitable stopped working.

More computing power no longer produces improved models.

What you're seeing now is bigger marketing budgets pretending to be better technology.

Now, in this video, I'm gonna show you what really happens when you use these tools yourself.

Not only do you get slower at your job because you're always spending time fixing mistakes instead of creating, but your brain stops doing the hard work of thinking.

You've outsourced that to a machine that actually can't think.

The neuroscience on this matter is clear.

Regular use causes measurable cognitive decline.

These systems are also dangerous.

They hallucinate false information on a regular basis while sounding completely authoritative and sure of themselves.

The polished expert tone completely shuts down your skepticism so you don't verify what you're reading anymore.

And that's when costly mistakes can really happen.

Wrong facts, fabricated citations, and broken logic delivered with total confidence.

Now, here's why they can't improve anymore.

LLMs are trained on data scraped from the internet.

That's how they got better with scaling.

But the thing is, they ran out of data at this point.

They've already fed everything on the internet into these models.

And now, AI-generated content is starting to flood the internet.

So when they train the next generation of these LLMs, they're being trained on their own slop, which slowly starts degrading the power of these LLMs.

It's a vicious cycle, and each generation is going to keep getting worse, not better.

And that's not my opinion.

In this video, I'm going to prove it to you, showing studies that this is happening right now as we speak.

Now, companies have staked trillions of dollars on a technology that's already failed.

Their stock price assumes a future that the math says is impossible.

When investors figure out what you're about to see in this video, which is backed by actual hard data, the financial destruction will dwarf both the dot-com crash and the 2008 crisis combined.

Okay, now, first, I want to talk about the biggest lie in the LLM marketing playbook, and that's that these tools are making you more productive.

Now, every tech company selling LLMs has basically the same pitch.

"Use our technology, and you'll code faster, you'll write better, and you'll finish in hours, what used to take days.

The productivity revolution has arrived."

Except that's not true at all.

You see, in July 2025, METR, which is a nonprofit research organization dedicated to evaluating AI capabilities, ran a breakthrough study.

It was a randomized control trial with 16 experienced software engineers.

These were people with an average of five years of experience working on their own projects that had millions of lines of code.

And these people also had experience using LLMs in the past.

This was a blind study where researchers measured actual completion times for real coding tasks.

Now, before the study started, developers predicted that AI would make them approximately 24% faster.

But after they were finished, they estimated that AI had made them about 20% faster.

Okay, now, brace yourself for the actual results.

They were 19% slower with AI than without it.

Think about that gap.

They thought they were 20% faster, but they were actually 19% slower.

That's a 39-point swing between perception and reality.

The AI had created such a strong illusion of productivity that even experienced professionals could not tell that they were moving slower.

Let me explain why.

When you use AI to write code, or anything for that matter, you get instant outputs, and that feels like progress.

Your brain registers the speed of the speed of the generation as extreme productivity.

But what you're not accounting for is everything that comes after.

The AI hallucinates functions that don't exist in your code base and generates solutions that look right but break under real conditions.

You spend a lot of time debugging, verifying, and fixing subtle errors that are hard to find, and it would have been a lot faster if you had just written the code yourself from the start.

Now, let's zoom out and take a look at how this plays out across the entire economy.

McKinsey surveyed thousands of companies in their 2025 AI Adoption Report.

Despite 88% of organizations claiming they use AI, only 6% are actually seeing any value from it.

The rest burned millions of dollars implementing tools that delivered nothing.

Two-thirds of companies are still stuck running experiments and pilot programs because they just can't get the AI to work reliably.

Then there's the Uplevel Data Study from September 2024.

They tracked 800 developers over three months comparing teams using GitHub Copilot against teams working without it, and they measured the quality of the code and how fast the work got completed.

Developers using Copilot introduced 41% more bugs into their code than the developers working manually with no improvement in how fast code got fished or how much they produced.

The only measurable change was more errors that needed to be fixed later.

This is a pattern.

AI does not make you faster.

It creates more work and it's disguised as productivity.

You feel productive because you're typing less, but the actual time from start to finish gets longer and the quality degrades.

You don't even realize it's happening because the tool has convinced you that the instant output equals progress.

The productivity revolution is a marketing campaign built on a fundamental misunderstanding of what productivity actually means.

AI doesn't just fail to deliver on its promises, it does something even worse.

It actually damages the people using it and most of you don't even know it's happening.

Okay, so we know that AI is making you slower at work, but what if I told you that it was also rewiring your brain and the damage gets worse the more you use it?

MIT's Media Lab tracked 54 college students over four months as they wrote essays.

They split participants into three groups.

One used ChatGPT, one used Google for Research, and one worked with no help at all, old school in the library.

Every participant wore an EEG headset monitoring brain activity while they worked.

Now, the ChatGPT group showed the weakest, neural connectivity of all three groups.

Researchers measured reduced activity in the prefrontal cortex.

That's the part of your brain responsible for critical thinking and decision making.

Now, when you outsource thinking to the AI, that region begins to slowly shut down.

After four months, researchers told the ChatGPT group to write without AI assistance and their brains did not recover.

They still showed weak connectivity compared to the other groups.

83% could not recall key points from the essays they'd written themselves.

When asked to quote from their own work, none of the students in this group could do it accurately because their brains had no connection to the work they'd created.

Now, this study calls this cognitive debt.

Every time you use AI to think for you, you're borrowing against your future ability to think.

The neural pathways that handle complex reasoning atrophy from disuse.

Now, there's another problem that makes this even worse in professional and personal life.

The LLM responses sound like they come from an expert and that tricks your brain into trusting them without checking if it's a hallucination or not.

And as we know, these models hallucinate on a regular basis.

Harvard and MIT published research in 2025 showing that people trust AI based on how confident and professional it sounds, not based on whether it's accurate or not.

The smooth, polished writing style makes your brain think the information is reliable.

When AI writes with authority, you just stop questioning it.

Now, another study found that AI models write in a confident and authoritative tone, even when they are completely wrong.

That tone makes it hard for you to tell the difference between true information and false information.

Your brain sees professional language and assumes it must be correct as if it's coming from an expert.

This causes real damage.

You ask for health information, you get back something that reads like a medical textbook, so you don't double check it because it looks so legit.

But the facts are wrong and the sources are possibly made up.

This advice could actually hurt you, but you may already have trusted it because it sounded so smart.

The same thing can happen with financial decisions, legal questions, or technical problems.

AI gives you hallucinated garbage wrapped up in expert language.

And it's hard to tell it's garbage because the presentation looks so professional.

This creates a vicious cycle.

You use AI for simple tasks and your skill set begins to degrade.

You start needing AI for things you used to do yourself.

And as time goes on, you even lose the ability to check if AI is right or wrong.

This leads to you trusting bad information, making lots of mistakes, and then relying on AI even more to fix the problems it created in the first place.

The damage isn't just slower work or weaker thinking.

It's complete dependence on a system that can't think, combined with losing the ability to tell when that system is lying to you.

Okay, now I want to talk about why LLMs can't actually get any better from here.

The improvements have stopped, and there are three main reasons behind that.

Now, firstly, we've run out of solid training data.

LLMs learn by reading massive amounts of text that they gather from the internet.

The more quality data you feed them, the better they get.

And that's how we went from GPT-2 to GPT-3 to GPT-4, and we saw large improvements with each model.

Each version was trained on more data, and thus they got smarter.

Now, Epic AI published a study in 2024, showing that we've exhausted all the high-quality text that exists.

Every digitized book, every scientific paper, every Wikipedia article, every well-written piece of content online, has already been scraped and used.

There's nothing left to train these models with.

So the companies came up with an innovative solution, or so they thought.

So what they did was they started training new models on AI-generated content instead.

They started feeding LLMs text written by other LLMs, and this causes something called model collapse.

A Nature study from 2024 documented what happens when you do this.

Quality degrades by 8-12% with each generation.

It's like making a photocopy of a photocopy, where each version just gets blurrier and blurrier.

We're already two or three generations deep into this, and the internet has now become up to 60% AI-generated content.

Every new model trains on that polluted data, and actually gets worse instead of getting better.

Okay, next I want to talk about how the scaling laws stopped working.

So for years, AI companies were following something called the Chinchilla scaling laws.

The principle was very simple.

As long as you doubled your computing power, you would get a model that was roughly double in capability.

That's why we've been building all these data centers filled with more and more GPUs.

However, from 2020 to 2023, the trend held that doubling the compute actually did give you double the results.

But in 2024, that trend broke completely.

Now what you can see is when you double the compute, you may get approximately 5-8% improvement, but you're spending twice the money for an extremely diminished return.

OpenAI discovered this with their latest model codenamed Orion.

Leaked documents from December 2025 showed that they had used 10 times the compute of their previous model, and the result was barely any improvement on benchmarks.

In fact, it actually had worse performance on complex reasoning tasks, and the internal memo said it plainly.

Scaling alone is insufficient.

Companies tried hiding this by cheating on tests.

They would overtrain models specifically on benchmark questions so the scores looked good.

GPT-4 can score a 95% on the GSM-8K, which is a standard math test.

But if you give it a novel math problem it hasn't seen before, even on a high school level, it fails to solve the problem.

It doesn't possess logic.

It is simply memorising the answers.

Now, thirdly, and this may be the most important part, LLMs cannot reason.

They can never reach AGI because of how they fundamentally work.

LLMs are prediction models.

They predict the next word based on patterns from their training data.

They don't understand what they're saying, they have no model of how the world works, and they don't grasp cause and effect.

When you ask a question, the LLM does not think about the answer.

What it's doing is it's simply generating words that statistically look like answers to similar questions it saw during training.

Reasoning requires building mental models, testing ideas, and understanding truth versus fiction.

And LLMs cannot do any of that.

They pattern match, and that's it.

Yann Lecun, who runs AI research over at Meta, put it this way:

"Auto-regressive LLMs are an off-ramp, not the highway to AGI."

Now, what he meant by that is that this technology is a dead end.

You can't get to general intelligence by predicting words.

You need a system that actually understands what it's talking about, and LLMs quite simply do not.

The companies building these systems right now know this.

The researchers know this, but they've raised billions of dollars promising AGI is coming soon, so they keep pretending the technology just needs more time.

The fact is, it doesn't.

It needs a completely different approach that no one's figured out yet.

LLMs have peaked, my friend.

The data is gone.

Scaling doesn't work anymore, and the architecture can't reason.

Everything from here is just bigger, more expensive versions of the same dead-end technology.

Okay, so to wrap things up, I want to talk about my own personal experience using LLMs.

And I think it really does show that a lot of what I've said in this video is truly quite accurate.

And if you've got your own experience using LLMs, and whether it was useful for you, or not, I want you to go ahead and drop it in the comments below so that we can have a discussion.

I really do find that some of the best bits of information come out in a back and forth discussion, and I want to interact with you guys.

But for now, I want to say that I started using LLMs back when ChatGPT-3 first came out.

And at the time, I thought I'd found a superpower.

I was one of the first people to start using LLMs.

I was using them at work, and I was using them for my own personal life.

I was pumping out massive, detailed documents that looked super professional and really well put together.

I genuinely thought I was working at a level that I couldn't have done on my own.

But as I started doing more detailed work, where I actually had to use what the AI was giving me, I started to realize that a lot of it was saying was generic, vague nonsense dressed up as profound insights.

There were confident statements with absolutely no substance behind them.

I also found that LLMs would annoy me to no end, and this didn't get any better when ChatGPT-4 and 5 came out.

It was like having a foolish assistant who just can't do anything right.

It would constantly forget details of what I had asked it to do.

It would give incorrect outputs that did not follow my instructions, and it seemed to have no ability to handle complex tasks at all.

In fact, I found it couldn't even give me an accurate character or word count on documents that we had completed together.

It can't count.

This is when I realized that this tech has no brainpower, that I'd been having discussions with a robot, which is just a prediction model, and it can't even handle complex prompts.

I felt like I had ended up wasting my time, and I honestly felt annoyed every single time I finished using it.

I realized that even if it was speeding me up, the amount of annoyance that I felt from using this technology meant that it really wasn't even worth it.

And when I saw the meter study and others, I realized that, in fact, that it wasn't even speeding me up.

So that's when I just stopped using it.

And here's the thing.

Honestly, when I stopped, I genuinely felt stupid for a while.

Tasks that used to be easy and automatic suddenly seemed difficult.

I had a hard time organizing my thoughts the way I used to, and I'd often find myself reaching to AI out of habit, and I had to force myself not to.

It took weeks to get back to where I was before I started using it on a regular basis.

My brain felt like it had to rewire itself, I had outsourced my thinking to a machine for so long that I had lost some of the ability to think myself.

The experience really changed how I saw the technology.

It's not just that LLMs don't work as advertised, it's that they actively damage you while convincing you that they're helping, and most people don't even have any idea that this is happening.

That's why everything on this channel is made by me, without AI.

This is organic, free-range, human-made content, and if you appreciate that, I want you to hit that subscribe button, because relying on these tools regularly might be as damaging as smoking.

You don't notice the harm until it's too late and you try to stop.

Look, LLMs hitting a dead end doesn't mean that AI as a whole is necessarily finished.

There are other approaches being worked on that may actually lead somewhere, and if you're interested in me covering those topics, go ahead and drop a comment to let me know.

The AI bubble is going to pop, and it's going to be bigger than anything we've seen before.

On this channel, I want to cover every single second of it, so please hit subscribe and let's go through this together.

Now, I just want to end this video by saying a thanks from the bottom of my heart to everyone who watched this far, and I really want to say an extra special thank you to those who've subscribed to the channel.

I genuinely appreciate you guys, and it's good to know there's other people out there who share my point of view.

Now, to give back to you guys, I am going to be giving away free Patreon access in the near future to the first, few hundred subscribers.

So if you're interested in that, please make sure you're subscribed, and as soon as I launch the channel, I will be reaching out to you guys to make sure you get your free access.

Thanks for watching, and remember, don't let a machine do your thinking for you.

Keep that human brain functioning.

Thank you, and good night.

Transcript

LLMs Can't Reason And They Never Will - Here's Why. - https://www.youtube.com/watch?v=z2TH5ietCZQ

Wird der Fakt, dass das menschliche "Denken an eine Maschine ausgelagert wird, die nicht denken kann", die Politik weltweit davon abhalten AI mit Aufgaben zu betrauen, mit der man sie besser nicht betrauen sollte? Darauf können Sie wetten. Es gibt nichts, was ferngesteuerte Schwarzköpfe und Berufsschwerstverbrecher nicht durchwinken - man denke nur an den Klimabetrug und das Covid-Verbrechen -, wenn es nur von der richtigen Stelle angeordnet wird, und je größer der Schaden, am besten sowieso irreversibel, desto höher die Wahrscheinlichkeit, dass es gemacht wird.

Grok Enters the War Room, AI to Control American Military? Pentagon's AI Push | WION - https://rumble.com/v74gyii-grok-enters-the-war-room-ai-to-control-american-military-pentagons-ai-push-.html

Sie haben Ihnen keinen Impfstoff gegeben. Sie haben Ihnen eine biologische Cyber-Schnittstelle injiziert. Damit können sie sich mithilfe von KI leichter täglich in Ihr Gesicht, Ihren Körper einloggen und so eine präzise KI-gestützte Gesundheitsversorgung ermöglichen.

Sabrina Wallace (3:08)

They didn't give you a vaccine. They gave you a biological to cyber interface. So it would easier for them to log in to your face, your body, every day with AI for precision AI healthcare.

Sabrina Wallace (3:08)

Haben Sie verstanden, was mit präziser KI-gestützte Gesundheitsversorgung (precision AI healthcare 4.0) gemeint ist? Es geht darum, dass sich andere jederzeit in Ihren Körper einloggen und mit ihm tun können, was sie wollen. Aber kennt diese Technologie überhaupt? Und wer weiß, dass sie bereits seit Jahren eingesetzt wird, ohne dass jemand darum gebeten oder dem gar zugestimmt hätte?

Screaming "Give Me A Solution" Aww You Are So Cute! YOU SHOULD HAVE PAID ATTENTION To Current R&D Standardization/POLICY, Industry & Deployments! We Really Tried But You Wasted Time! - https://rumble.com/v636ine-368140010.html?start=188
Electronic/Electromagnetic Warfare Is The New AI Precision Healthcare! - https://rumble.com/v6es52v-electronicelectromagnetic-warfare-is-the-new-ai-precision-healthcare.html
Trump's "Genesis Mission" to Plant the Deadly AI Tree of Knowledge in the Eden of the World to Come - https://odysee.com/@CJBbooks.com:8/small-Trumps-Genesis-Mission-and-the-AI-Tree-of-Knowledge-for-the-World-to-Come:3

Siehe auch:

Kontaktformular

Name

E-Mail *

Nachricht *