FabelForscher
Well-known member
Nvidia-Deal mit OpenAI kollabiert: GPU-Hersteller ist zu langsam für KI-Inferenz
Es scheint, als hätte sich die Beziehung zwischen Nvidia und OpenAI verschlechtert. Der GPU-Hersteller hatte sich entschieden, Milliarden in das KI-Unternehmen zu investieren, um es zu sichern. Doch nun kriselt es zwischen den beiden Partnern. OpenAI versucht, seine Hardwarebasis breiter aufzustellen und sucht nach Alternativen.
Der Grund für die Enttäuschung ist die unzureichende Leistung von Nvidias GPUs bei der Inferenzleistung. Insbesondere beim neuen Coding-Modell Codex macht sich dies bemerkbar. Die Verarbeitung von Eingaben durch trainierte Modelle wird durch einen anderen Aufbau gelöst, der in den Chips von OpenAI integriert ist.
Dieser Ansatz verfolgt auch Groq, das Nvidia Ende Dezember 2025 effektiv übernommen hat. Die Gespräche zwischen OpenAI und Groq sollen abgebrochen worden sein, da Nvidia die Entwickler übernommen hatte. Ähnliche Gespräche soll Nvidia auch mit Cerebras geführt haben, das ablehnte.
Die Differenzen zwischen den beiden CEOs sind öffentlich zum Ausdruck gekommen. Jensen Huang von Nvidia sagte, was er immer sagt: Mit Nvidia erreichten Kunden die beste Total Cost of Ownership. Sam Altman postete bei X, dass OpenAI noch lange ein gigantischer Kunde von Nvidia bleiben werde.
Es ist jedoch zu beachten, dass OpenAI auf der Suche nach Alternativen ist und regelmäßig über eigene Hardware spricht. CEO Sam Altman hatte sogar Zeitweise geplant, eigene Halbleiterfabriken zu bauen. Während AWS, Google und Microsoft längst Modelle auf selbst entwickelter Hardware betreiben, hat OpenAI hier bislang keine Erfolge vorzuweisen.
Die Situation zeigt, dass die Beziehung zwischen Nvidia und OpenAI nicht so unproblematisch ist, wie man dachte. Die GPUs von Nvidia sind offensichtlich zu langsam für die Herausforderungen der KI-Inferenz. Es bleibt abzuwarten, wie sich dies auf die Zukunft des Unternehmens auswirken wird.
Es scheint, als hätte sich die Beziehung zwischen Nvidia und OpenAI verschlechtert. Der GPU-Hersteller hatte sich entschieden, Milliarden in das KI-Unternehmen zu investieren, um es zu sichern. Doch nun kriselt es zwischen den beiden Partnern. OpenAI versucht, seine Hardwarebasis breiter aufzustellen und sucht nach Alternativen.
Der Grund für die Enttäuschung ist die unzureichende Leistung von Nvidias GPUs bei der Inferenzleistung. Insbesondere beim neuen Coding-Modell Codex macht sich dies bemerkbar. Die Verarbeitung von Eingaben durch trainierte Modelle wird durch einen anderen Aufbau gelöst, der in den Chips von OpenAI integriert ist.
Dieser Ansatz verfolgt auch Groq, das Nvidia Ende Dezember 2025 effektiv übernommen hat. Die Gespräche zwischen OpenAI und Groq sollen abgebrochen worden sein, da Nvidia die Entwickler übernommen hatte. Ähnliche Gespräche soll Nvidia auch mit Cerebras geführt haben, das ablehnte.
Die Differenzen zwischen den beiden CEOs sind öffentlich zum Ausdruck gekommen. Jensen Huang von Nvidia sagte, was er immer sagt: Mit Nvidia erreichten Kunden die beste Total Cost of Ownership. Sam Altman postete bei X, dass OpenAI noch lange ein gigantischer Kunde von Nvidia bleiben werde.
Es ist jedoch zu beachten, dass OpenAI auf der Suche nach Alternativen ist und regelmäßig über eigene Hardware spricht. CEO Sam Altman hatte sogar Zeitweise geplant, eigene Halbleiterfabriken zu bauen. Während AWS, Google und Microsoft längst Modelle auf selbst entwickelter Hardware betreiben, hat OpenAI hier bislang keine Erfolge vorzuweisen.
Die Situation zeigt, dass die Beziehung zwischen Nvidia und OpenAI nicht so unproblematisch ist, wie man dachte. Die GPUs von Nvidia sind offensichtlich zu langsam für die Herausforderungen der KI-Inferenz. Es bleibt abzuwarten, wie sich dies auf die Zukunft des Unternehmens auswirken wird.