AMD schlägt zurück: MI400-Chip soll Nvidias Monopol knacken

AMD-Logo links, Nvidia-Logo rechts, Boxhandschuh dazwischen – Symbolbild für den KI-Chip-Wettbewerb
AMD vs. Nvidia

AMD kündigt für 2026 die Instinct MI400-Serie an: Ein KI-Chip mit zehnfacher Leistung und 432 GB Speicher soll Nvidias Marktführerschaft angreifen. Die Zahlen klingen zu schön, um wahr zu sein.

Es ist ein bisschen wie David gegen Goliath – nur dass David diesmal selbst ein Riese ist. AMD, der ewige Verfolger im Grafikkarten-Geschäft, hat einen Plan, wie das Unternehmen dem übermächtigen Konkurrenten Nvidia das Leben schwer machen will.

Die Waffe: Ein KI-Chip namens Instinct MI400, der alles in den Schatten stellen soll.

Zehn Mal schneller als heute

AMD legt 432 GB HBM4 pro GPU auf den Tisch, dazu 19,6 TB/s Speicher-Durchsatz und ~10× Rechenleistung gegenüber dem MI300X. Das sind absurd große Sprünge – klar oberhalb heutiger Spitzenwerte.

Auf dem Papier ist das ein Brett. Die Frage bleibt: Wie viel davon kommt bei echten Workloads an?

Zahlen begeistern sogar OpenAI

Wenn OpenAI-Chef Sam Altman bei einem AMD-Event auf die Bühne steigt und die Spezifikationen als „völlig verrückt“ bezeichnet, dann hat das Gewicht. Genau das passierte beim „Advancing AI 2025“-Event, als AMD-Chefin Lisa Su die MI400-Serie erstmals der Öffentlichkeit präsentierte.

Advancing AI 2025 Keynote

AMDs Antwort auf Nvidias Rack-Systeme

Das „Helios“-Rack-System soll 72 MI400-GPUs in einem einzigen Serverschrank vereinen – so viel Rechenpower, dass AMD extra doppelt so breite Gehäuse entwickeln musste. Die Zahlen sind gigantisch: 31 Terabyte Arbeitsspeicher und 1,4 Petabyte Bandbreite pro Sekunde pro Rack.

Zum Vergleich: Ein solches System hätte theoretisch genug Power, um die kompletten KI-Modelle von Google, OpenAI oder Meta zu trainieren. Lisa Su bestätigte, dass die MI400-Serie bereits in den AMD-Laboren getestet wird – ein Zeichen dafür, dass das Projekt weit vorangeschritten ist.

Kampfansage an das 40.000-Dollar-Monopol

Warum ist das so wichtig? Weil Nvidia derzeit praktisch jeden KI-Chip bestimmt – von ChatGPT bis zu den neuesten Bildgeneratoren, alles läuft bisher auf Nvidia-Hardware. Ein einzelner H200-Chip kostet rund 40.000 Dollar, und die Wartelisten sind lang. Tech-Konzerne geben Milliarden aus, weil sie keine Alternative haben.

AMD will das mit einer cleveren Strategie ändern: Offene Standards statt geschlossene Systeme.

Wir sind das einzige Unternehmen, das sich vollständig der Offenheit verschrieben hat„, betont Lisa Su. Mit der neuen ROCm 7-Software verspricht AMD vier Mal bessere Leistung bei KI-Anwendungen.

Die Großkunden machen schon mit

Die ersten namhaften Partner haben bereits zugesagt: Meta nutzt bereits AMD-Chips für seine Llama-KI-Modelle, Oracle plant Rechenzentren mit über 130.000 GPUs, und Microsoft lässt auf Azure bereits KI-Modelle auf AMD-Hardware laufen.

Das Jahr der Entscheidung

Der MI400 soll Mitte 2026 auf den Markt kommen – zeitgleich mit Nvidias neuer „Vera Rubin“-Generation. Perfektes Timing für AMD: Dann laufen viele aktuelle Nvidia-Verträge aus und Kunden schauen nach günstigeren Alternativen.

Was das für Normalverbraucher bedeutet

Sollte AMD tatsächlich Nvidias Monopol durchbrechen, profitieren letztendlich alle: Günstigere KI-Services, schnellere Innovation und mehr Auswahl. Die Technologie wird sich von den Rechenzentren bis zu Gaming-Grafikkarten durchziehen.

Allerdings werden die neuen Chips zunächst nur an Großkunden verkauft – private Nutzer müssen auf günstigere Consumer-Versionen warten, welche wahrscheinlich 2027 kommen werden.

Total
0
Geteilt
Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Prev
Grok 4 kostenlos: xAI macht sein Top-Modell für alle frei
Next
Silencio App Test – Lohnt sich das Messen von Lärm wirklich?
Das könnte dir auch gefallen