top of page

Was Sie über KI wissen sollten

Die Abhängigkeit von Energieexporten trifft Deutschland gleich doppelt. Denn die KI-Revolution wurde diese Woche auf der GTC-Konferenz von Nvidia als abhängig von der verfügbaren Energie definiert. CEO Jensen Huang erklärte, dass die maßgebliche Kennziffer der Zukunft "Token pro Watt" sei. Die Energie, die für die Ausgabe eines Tokens benötigt wird.



Lassen Sie mich die verschiedenen KI-Generationen kurz veranschaulichen:


  1. November 2022: ChatGPT-Moment. Die Welt ist überrascht und begeistert, wie sinnvoll die Antworten von ChatGPT klingen. Large Language Modelle (LLMs) ermitteln über Wahrscheinlichkeiten stets die nächste Silbe, die sie ausgeben. Die Silben werden häufig mit Token verglichen.

  2. Im Laufe von 2023: Agenten werden von Claude (Okt. 24), der AWS (Sept. 23) und OpenAI (Jan 25) angeboten. Mit Agenten kann eine KI dazu gebracht werden, eigenständig Aufgaben abzuarbeiten und periodisch zu wiederholen. Große IT-Konzerne in den USA beginnen mit Massenentlassungen.

  3. Januar 2025: DeepSeek-Moment: Die Welt ist überrascht und begeistert, wie die Qualität der Antworten gesteigert werden konnte. Mit Hilfe von Reasoning-Modellen werden die Anfragen in verschiedene Teilaufgaben aufgesplittert, getrennt beantwortet und anschließend zu einer Antwort zusammengeführt. Die verschiedenen Silben / Token der einzelnen Antworten auf die Teilaufgaben werden zu einer Antwort zusammengeführt, wobei auch das Zusammenführen wieder eine eigene Rechenleistung ist. Eine Reasoning-Antwort verbraucht 100x so viele Token, um eine Antwort zu liefern, als das ursprüngliche ChatGPT-Modell.

  4. Oktober 2025: OpenClaw-Moment: Peter Steinberger strickt hemdsärmelig ein Open Source Betriebssystem für KIs zusammen, mit dem Sie von Ihrem heimischen Computer die verschiedenen KI-Angebote nutzen und miteinander kombinieren können. Die Anzahl der benötigten Token verhundertfacht sich erneut. OpenClaw Agenten, oder auch Lobster (Hummer), wie sie häufig genannt werden, arbeiten 24/7 an den Aufgaben, die man ihnen gibt, optimieren die Ergebnisse und denken sich teilweise neue, eigene Aufgaben aus.


Fleißarbeit, mit der viele Menschen ihr Geld verdienen, wird künftig nicht mehr benötigt. Seit kurzem kann sich jeder auf einem alten Rechner einen eigenen KI-Agenten installieren und ihn für seine Bedürfnisse "ausbilden". Das sind heute noch digitale Arbeiten: Buchhaltung, Recherche, jegliche wiederkehrene Tätigkeiten. Künftig, wenn Roboter brauchbar sind, werden KI-Roboter auch physische Aufgaben übernehmen.


Doch so weit sind wir noch nicht. Kümmern wir uns zunächst um die digitalen KI-Agenten, um die Lobster. Ihr Autor wird an diesem Wochenende sein 12 Jahre altes MacBook auf Ubuntu umstellen und OpenClaw darauf installieren. Ich werde den Agenten Kai nennen, da ich für den Heibel-Ticker im Kopf immer zwischen den Begriffen KI (Künstliche Intelligenz) und ai (artificial intelligence) hin und her springe.


Kai wird meine Fleißarbeit übernehmen. Dabei finde ich verlockend, dass hohe Anlaufprobleme, die ich erwarte, später überproportional zurückgezahlt werden können. Ich muss also zunächst dafür sorgen, dass Kai alle Finanzzahlen bekommt, die ich für wichtig halte. Dazu werde ich die Quellen klar definieren, um den Spagat zwischen probabilistischer und deterministischer KI zu schaffen: Die probabilistische (Wahrscheinlichkeit) KI sorgt dafür, dass die Antworten intelligent klingen, mit Hilfe der deterministischen Komponente sorge ich dafür, dass die gelieferten Zahlen verlässlich sind.

Wenn dies bei einem Dutzend Unternehmen funktioniert, dann kann ich diese intellektuelle Grundlage in Fleißarbeit umwandeln und mit einem Klick alle 1.400 Unternehmen aus meinem Aktienuniversum einbeziehen.


Warum erzähle ich das so ausführlich? Nun, das hat drei Gründe: Zum einen entziehe ich mir damit meine eigene Geschäftsgrundlage. Denn das kann jeder von Ihnen auch tun. Zum zweiten jedoch bin ich davon überzeugt, dass wir das gemeinsam besser können. Daher kommuniziere ich, was ich tue, und freue mich auf Ihre Anmerkungen, was ich besser machen kann, was ich zusätzlich berücksichtigen sollte, etc.


Zum dritten lässt sich aus dem Verständnis der KI besser ableiten, welche Unternehmen in der Zukunft erfolgreich sein werden. Dies hat sich heute ausgezahlt, als Dell aufgrund von Klagen gegen Mitarbeiter des Wettbewerbers SuperMicro (-27%) um 5% anspringt. Außerdem hat uns das Verständnis der KI davon abgehalten, Nvidia zu verkaufen, wie es viele Spekulanten getan haben.


Warum ich auf den Token so herumreite? CEO Jensen Huang zeigte auf seiner Keynote zur GTC eine Graphik, in der er Energie ins Verhältnis zu Token setzte. Je mehr Energie eingesetzt wird, desto mehr Token können erzeugt werden. Je mehr Token erzeugt werden können, desto qualitativ hochwertiger ist die KI-generierte Antwort.


Es ist nachvollziehbar, dass eine Frage "Um wie viel Uhr findet heute Abend das HSV-Fußballspiel statt" nicht so viele Token verbrauchen sollte, wie die Frage nach einem Konzept für KI-Rechenzentren auf der Erdumlaufbahn. Also wird es in der Zukunft für unterschiedliche Bedürfnisse unterschiedlich aufwendige KIs geben. Wer komplexe Fragen stellt, möchte vermutlich die High-End KI-Modelle für sich nutzen und muss dafür aber bereit sein, dafür auch mehr zu zahlen.


Dabei wird sich der Tokenpreis nach der eingesetzten Energie richten. Je leistungsfähiger die KI-Chips, desto schneller die Token-Generierung, desto mehr Anfragen können die KI-Rechenzentren bedienen. Aus dieser Logik heraus ist es sinnvoll, den Energieeinsatz je Token zu minimieren, so wie es AMD, Trainium und Inferentia tun. Doch die Energieoptimierung geht zu Lasten der Geschwindigkeit und so können weniger Token pro Zeiteinheit verkauft werden.


Kosten für KI-Rechenzentren werden gegen mögliche Token-Verkäufe gerechnet. Da Rechenzentren nur eine genau definierte Strommenge (=Energie) verarbeiten können, führt der Einsatz von energieeffizienten KI-Chips zu langsameren Antwortzeiten und damit zu weniger Umsatz pro Monat.


Huang rechnete auf seiner Präsentation vor, dass gerade aus diesem Blickwinkel Nvidia-Chips unangefochten führend seien. Die Energie je Token sei führend. Auch bei der neu vorgestellten CPU, die als Ergänzung der GPUs ins Nvidia-System passt, werden der Energiekosten je Token reduziert. (Autor: Stephan Heibel), Quelle: Heibel-Ticker.

Kommentare


© 2026  

Alle Rechte vorbehalten

Hans-Peter Holbach

Auch für meine private Webseite gilt ebenfalls die AGB und Datenschutzerklärung dieser Webseite

bottom of page