AMD schlägt zurück: MI400-Chip soll Nvidias Monopol knacken
Inhaltsverzeichnis
AMD kündigt für 2026 die Instinct MI400-Serie an: Ein KI-Chip mit zehnfacher Leistung und 432 GB Speicher soll Nvidias Marktführerschaft angreifen. Die Zahlen klingen zu schön, um wahr zu sein.
Es ist ein bisschen wie David gegen Goliath – nur dass David diesmal selbst ein Riese ist. AMD, der ewige Verfolger im Grafikkarten-Geschäft, hat einen Plan, wie das Unternehmen dem übermächtigen Konkurrenten Nvidia das Leben schwer machen will.
Die Waffe: Ein KI-Chip namens Instinct MI400, der alles in den Schatten stellen soll.
Zehn Mal schneller als heute
AMD legt 432 GB HBM4 pro GPU auf den Tisch, dazu 19,6 TB/s Speicher-Durchsatz und ~10× Rechenleistung gegenüber dem MI300X. Das sind absurd große Sprünge – klar oberhalb heutiger Spitzenwerte.
Auf dem Papier ist das ein Brett. Die Frage bleibt: Wie viel davon kommt bei echten Workloads an?
Zahlen begeistern sogar OpenAI
Wenn OpenAI-Chef Sam Altman bei einem AMD-Event auf die Bühne steigt und die Spezifikationen als „völlig verrückt“ bezeichnet, dann hat das Gewicht. Genau das passierte beim „Advancing AI 2025“-Event, als AMD-Chefin Lisa Su die MI400-Serie erstmals der Öffentlichkeit präsentierte.
AMDs Antwort auf Nvidias Rack-Systeme
Das „Helios“-Rack-System soll 72 MI400-GPUs in einem einzigen Serverschrank vereinen – so viel Rechenpower, dass AMD extra doppelt so breite Gehäuse entwickeln musste. Die Zahlen sind gigantisch: 31 Terabyte Arbeitsspeicher und 1,4 Petabyte Bandbreite pro Sekunde pro Rack.
Zum Vergleich: Ein solches System hätte theoretisch genug Power, um die kompletten KI-Modelle von Google, OpenAI oder Meta zu trainieren. Lisa Su bestätigte, dass die MI400-Serie bereits in den AMD-Laboren getestet wird – ein Zeichen dafür, dass das Projekt weit vorangeschritten ist.
Kampfansage an das 40.000-Dollar-Monopol
Warum ist das so wichtig? Weil Nvidia derzeit praktisch jeden KI-Chip bestimmt – von ChatGPT bis zu den neuesten Bildgeneratoren, alles läuft bisher auf Nvidia-Hardware. Ein einzelner H200-Chip kostet rund 40.000 Dollar, und die Wartelisten sind lang. Tech-Konzerne geben Milliarden aus, weil sie keine Alternative haben.
AMD will das mit einer cleveren Strategie ändern: Offene Standards statt geschlossene Systeme.
„Wir sind das einzige Unternehmen, das sich vollständig der Offenheit verschrieben hat„, betont Lisa Su. Mit der neuen ROCm 7-Software verspricht AMD vier Mal bessere Leistung bei KI-Anwendungen.
Die Großkunden machen schon mit
Die ersten namhaften Partner haben bereits zugesagt: Meta nutzt bereits AMD-Chips für seine Llama-KI-Modelle, Oracle plant Rechenzentren mit über 130.000 GPUs, und Microsoft lässt auf Azure bereits KI-Modelle auf AMD-Hardware laufen.
Das Jahr der Entscheidung
Der MI400 soll Mitte 2026 auf den Markt kommen – zeitgleich mit Nvidias neuer „Vera Rubin“-Generation. Perfektes Timing für AMD: Dann laufen viele aktuelle Nvidia-Verträge aus und Kunden schauen nach günstigeren Alternativen.
Was das für Normalverbraucher bedeutet
Sollte AMD tatsächlich Nvidias Monopol durchbrechen, profitieren letztendlich alle: Günstigere KI-Services, schnellere Innovation und mehr Auswahl. Die Technologie wird sich von den Rechenzentren bis zu Gaming-Grafikkarten durchziehen.
Allerdings werden die neuen Chips zunächst nur an Großkunden verkauft – private Nutzer müssen auf günstigere Consumer-Versionen warten, welche wahrscheinlich 2027 kommen werden.