Intels KI-Comeback: CPUs werden zum Flaschenhals der Agentic-Ära
Intel hat im ersten Quartal 2026 die Prognosen der Wall Street deutlich übertroffen: 13,6 Milliarden Dollar Umsatz statt der erwarteten 12,4 Milliarden, ein bereinigter Gewinn von 29 Cent je Aktie statt der erwarteten null, ein Datenzentrumsgeschäft das um 22 Prozent auf 5,1 Milliarden Dollar gewachsen ist. Die Aktie stieg nachbörslich um 20 Prozent auf ein Allzeithoch. Was steckt hinter der überraschenden Wende? Ein Strukturwandel in der KI-Architektur, der Intels Kernprodukt plötzlich unentbehrlich macht.
Vom Verlierer zum Comeback-Kandidaten
Lange hatte Intel im KI-Boom nur zugeschaut. Nvidia fuhr mit Grafikprozessoren für KI-Training Gewinne von mehreren hundert Milliarden Dollar ein, AMD gewann sukzessive Marktanteile im Server-CPU-Markt. Intels Aktie hatte sich 2024 auf ein Jahrzehnt-Tief halbiert, die Belegschaft wurde in mehreren Wellen um Zehntausende Stellen reduziert. CEO Pat Gelsinger trat im Dezember 2024 zurück, nachdem der Vorstand ihn nach drei Jahren glückloser Sanierung abgelöst hatte.
Lip-Bu Tan, langjähriger CEO des Chip-Designsoftware-Konzerns Cadence, übernahm Intel im März 2025. Seine Strategie: Intel nicht als GPU-Konkurrenten zu Nvidia positionieren, sondern als Anbieter von Prozessoren für die nächste Phase der KI-Infrastruktur. Dass diese Strategie greift, zeigt das erste Quartal 2026 erstmals in klaren Zahlen. Insgesamt entfallen inzwischen 60 Prozent von Intels Gesamtumsatz auf KI-getriebene Geschäftsbereiche, die zusammen 40 Prozent gegenüber dem Vorjahresquartal gewachsen sind.
Warum CPUs wieder zählen
Der Schlüsselbegriff ist Agentic AI. Klassische KI-Anwendungen arbeiten auf einfache Weise: Anfrage rein, Antwort raus. Agentic AI funktioniert anders: Ein Sprachmodell erledigt selbständig mehrstufige Aufgaben, führt Websuchen durch, schreibt und startet Code, koordiniert mehrere Subprozesse ohne menschlichen Eingriff. Genau dieser Ablauf belastet CPUs massiv.
Forscher von Georgia Tech und Intel haben gemessen, dass das Verarbeiten von Werkzeugaufrufen in agentic Workflows zwischen 50 und 90 Prozent der gesamten Rechenlatenz ausmacht. Das ist der neue Engpass in KI-Rechenzentren: nicht das Trainieren des Modells auf Nvidia-GPUs, sondern das Ausführen der vielen kleinen Zwischenschritte auf CPUs. Intel-CEO Lip-Bu Tan formuliert es so: „Skalierung von KI erfordert mehr als Beschleuniger. CPUs sind zentral für Leistung, Effizienz und Flexibilität moderner KI-Workloads.“
Google hat diese Entwicklung als eines der ersten Hyperscaler-Unternehmen in seiner Einkaufsstrategie verankert. Im April 2026 verkündeten Intel und Google eine mehrjährige Partnerschaft: Google verpflichtete sich zum Einsatz mehrerer Generationen von Intels Xeon-6-Prozessoren in seinen KI-Rechenzentren. Das ist eine explizite Wette gegen die GPU-Monokultur, die bislang KI-Infrastrukturbudgets dominierte.
Zahlen und Einschränkungen
Das Ausmaß des Überraschungseffekts war groß. Analysten hatten für das erste Quartal einen Gewinn nahe null erwartet, 0,01 Dollar je Aktie. Intel lieferte das 29-Fache. Der Umsatz von 13,6 Milliarden übertraf den Konsensus um mehr als zehn Prozent. Das Datenzentrum-Geschäft erzielte bei 5,1 Milliarden Dollar eine operative Marge von 31 Prozent. Für das zweite Quartal 2026 erwartet Intel einen Umsatz zwischen 13,8 und 14,8 Milliarden Dollar, der Analystenkonsensus lag bei 13,1 Milliarden.
Eine Einschränkung verdient Beachtung: Im bereinigten Gewinn von 29 Cent je Aktie steckt ein Einmalertrag von 6 Cent aus Zinserträgen. Die operative Marge verbessert sich, liegt aber noch unter Intels langfristigen Zielwerten. Das ändert nichts an der Dynamik des Wachstums, dämpft aber die Erwartung, dass Intel sofort wieder zur alten Profitabilität zurückkehrt.
Ein offenes Rennen um Chip-Architektur
Nvidias Dominanz im GPU-Segment für Modelltraining ist weiterhin real. Doch der Markt für Inferenz und agentic Workloads entwickelt sich zu einer Multi-Chip-Welt. Neben Intel baut AMD seine Datenzentrum-CPU-Sparte aus. Nvidia selbst integriert CPU-Kapazitäten in seine Grace-Hopper-Architektur. Für KI-Rechenzentren bedeutet das: Heterogene Systeme aus GPU, CPU und spezialisierten Prozessoren werden zum Standard.
Für deutsche Unternehmen hat das praktische Konsequenzen. Wer 2025 und 2026 KI-Infrastruktur kauft, kauft nicht mehr ausschließlich Nvidia-Grafikkarten. Die Energiebilanz und Kostenstruktur von Rechenzentren verändert sich, wenn CPU-intensive Agentic-Workloads einen wachsenden Anteil der Last übernehmen.
Was als nächstes kommt
Lip-Bu Tan soll auf dem Computex 2026 im Mai in Taipeh die nächste Produktstrategie vorstellen. Entscheidend wird sein, ob nach Google weitere Hyperscaler wie Microsoft oder Amazon Xeon-6-Kapazitäten in größerem Umfang buchen. Bis Ende 2026 dürfte sich zeigen, ob Intels CPU-Renaissance ein strukturelles Phänomen ist oder ob neue, stärker integrierte GPU-CPU-Architekturen die Nachfrage wieder verschieben. Die erste Messung kommt bei den Q2-Zahlen, die Intel voraussichtlich im Juli präsentiert.