Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?

Die nächste GPU-Generation von Nvidia könnte den Architekturnamen Hopper bekommen. Das Unternehmen sicherte sich die Rechte an dem Begriff, der womöglich auf Grace Hopper zurückzuführen ist, eine US-Wissenschaftlerin, die mit Computertechnologie eng in Verbindung stand.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?
 
AW: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?

Die kommen dann wohl 2022, wenn zwischendurch nicht noch ein Refresh von Ampere erscheint.
 
AW: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?

Bitte mal 30 TFlops an Shaderleistung und 50 GRays/s and RT-Leistung! :daumen:
 
AW: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?

Die kommen dann wohl 2022, wenn zwischendurch nicht noch ein Refresh von Ampere erscheint.

Dann aber eher Ende 2022, wenns wirklich gut läuft.
Mindestens 1 Jahr Ampere biste schon bei Mitte 2021, dann sicherlich den Refresh, der auch 1 Jahr laufen sollte, zwecks Gewinnmaximierung. Jeweils zeitverzögert für alle Leistungsklassen bist dann schon gegen Weihnachten.
Dann noch etwas Luft dazwischen, um erst einmal alle Karten auch über Monate hinweg an den Mann zu bringen, ehe selbst Gerüchte das schon wieder abflauen lassen.
Und wenn kein massiver Druck besteht, wird man eher 1 Hj 2023 damit ankommen, oder gar im Sommer.
Ein weiterer Faktor ist die Umsetzbarkeit der komplet neuen Technik.
AMD hat Erfahrung (machen müssen).
Die Frage ist, wie lange beschäftigt sich NVidia schon damit, und wie ausgereift ist das bereits auch mit Treibern etc. realisierbar?
Was nützt einem lauffähige Hardware, wenn man dann erst merkt, dass die Software nicht damit funktioniert wie gewünscht?
Das wäre nicht das erste Mal, dass das am ende doch voll nach hinten losgeht.
AMD selber hat das auch schon zu spüren bekommen.
Zuletzt mit Vega, wo die "überlegene" Leistung nicht abgerufen werden konnte, weil eine Hardwarefunktion nicht in Software umgesetzt worden ist.
Und diese Chipletsache könnte auch Probleme herbeiführen, die AMD auch beim Ryzen in den Griff kriegen musste.
Z.b. diesen Leistungseinbruch in Spielen bei zu vielen Kernen, zu langsame Kommunikation zwischendrin, etc.
Und wer sagt, dass bei diesen aufgeteilten Chips nicht z.B. das Mikroruckeln oder höhere Latenzen bei der Bildausgabe auftauchen?
Da kann nachträglich noch viel passieren, selbst wenn der Chip schon fertig vorliegt.
Theoretisch sollte NVidia aber schon längst in der Lage sein, imemrhin 20 Jahre lang hat man solche Technik in der Schublade verrotten lassen.
An dieser Stelle darf Raff mal seine Voodoo 6000 streicheln (oder welche hat er nochmal?). ;-)
Ich freue mich jedenfalsl schon auf diese Bretter, dann auch von AMD.
Legt man mal eben1,2,4 oder 8 Chips zusammen auf einen Die, fertig sind die Leistungsklassen.
Und das in billig, nicht für 2600 Euro, Nvidia!?!
Oder "wieviel Raytracing hättens denn gerne? Ganz, Halb oder Viertel? Oder ohne?"
Wie wärs mit einer nachbestückbaren Variante?
Wär doch cool. :-) Ist aber wohl heutzutage dann alles von der Verbindung her zu lahm. Aber damals gabs das ja, auch auf Mainboards, einfach mal was nachträglich reindrücken, zack, aufgerüstet. :-)
Raytracing statt wie damals Co-Prozessor drauf, wupp, GTX wird zur RTX. :-))
Da kann man viel herumspinnen, wenn man möchte. :-))
 
AW: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?

Das wird erst einmal für HPC ( Quadro ) kommen, bis 2024 brauchen wir "Gamer" uns damit wohl nicht wirklich beschäftigen. Meine bescheidene Meinung.
 
AW: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?


Ich tippe darauf, dass der Nachfolger von BIG NAVI ein Chipletdesign haben wird. Wenn der große NAVI schon über 5000 Shader haben soll wird das doch eng mit der Skalierung und der Yield oder?
Navi Chiplets mit 4096 Shadern in 5nm wären mal was feines. Und ich vermute, dass so ein Chipletdesign eher noch mit HBM realisierbar wäre, um die Shader nicht verhungern zu lassen. Denk mal an ein 4 Chiplet Monster mit >16000 Shadern. Damit wären locker über 50 TFlops drin. Das Ganze mit einem 32 GB VRAM HBM.

:sabber::sabber::sabber:

Könnte sein, dass solche Karten bei aktuellen Spielen von der Performance her nicht so gut skalieren, da zu wenig paralleler Workload da ist (Amdahl). Mit stark fordernden Spielen würden sie sich dann aber immer mehr absetzen.
 
AW: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?

Und ich dachte der Stranger Things Hype wäre vorüber.
Bei Nvidia sieht das wohl anders aus ;) :ugly:
 
AW: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?

Könnte sein, dass solche Karten bei aktuellen Spielen von der Performance her nicht so gut skalieren, da zu wenig paralleler Workload da ist (Amdahl). Mit stark fordernden Spielen würden sie sich dann aber immer mehr absetzen.

Bei 2 Millionen Pixeln aufwärts, die geshadert werden wollen würde ich mir um den Workload und Amdahl bei 16.000 Shadern prinzipiell keine großen Sorgen machen. Das Front-End muss es halt hergeben und es darf auch sonst keine gravierenden Bottlenecks geben.
 
AW: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?

Ich wusste schon immer, dass der Jensen 'n Easy Rider-Fan ist. Das erklärt immerhin die Lederjacke.;)
 
AW: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?

Bei 2 Millionen Pixeln aufwärts, die geshadert werden wollen würde ich mir um den Workload und Amdahl bei 16.000 Shadern prinzipiell keine großen Sorgen machen. Das Front-End muss es halt hergeben und es darf auch sonst keine gravierenden Bottlenecks geben.

Guter Punkt. Dann immer her mit VERY BIG NAVI!
 
AW: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?

Vielleicht mal als Anmerkung - Hopper wurde mit Aerial registriert und das ist ein Software-Devkit für 5G-Netzwerke auf Basis von GPU-Beschleunigung. Vermutlich geht es eher um Hochgeschwindigkeitsnetzwerke - statt irgendwelchen Consumer GPUs und unter Ersterem ist MCM wohl Alltag. Das MCM Design das hier als Vergleich Monolith und Multi vorgehalten wird - ist was völlig anderes (rein erfunden) und damit reine Phantasie.:D

Nvidia will wohl im Zusammenhang mit KI-Computing für selbstfahrende Autos in das Hochgeschwindigkeitsnetzwerk 5G und damit in neue Märkte vorstoßen. Macht ja Sinn zu expandieren - wie Intel vor kurzen gerade vorhielt.

Immer ruhig Blut, von wegen neuer Ampere+ Gen für Gamer - irgendwas.
 
AW: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?


Und wieso sollte sowas nicht auch für Consumer kommen? Chiplets sind doch perfekt hinsichtlich Preis, Skalierbarkeit und Yield. Man muss eben die Latenzen bei der Kommunikation und beim Speicherzugriff optimieren.
Was spricht aus deiner Sicht dagegen es genauso wie AMD bei den CPUs zu machen?
 
AW: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?

Und wieso sollte sowas nicht auch für Consumer kommen? Chiplets sind doch perfekt hinsichtlich Preis, Skalierbarkeit und Yield. Man muss eben die Latenzen bei der Kommunikation und beim Speicherzugriff optimieren.
Was spricht aus deiner Sicht dagegen es genauso wie AMD bei den CPUs zu machen?
Da muß man sich einfach nur SLI und CF ansehen.

Intel NUC auf Basis von KabyLakeG und Vega11 ist auch ein MCM. Besonders leistungsfähig ist es hinsichtlich eines Vergleiches mit dem Desktop nicht - aber kompakt - was Nvidia helfen würde ein MCM Design herauszubringen das Hausintern schon den 5G Standard kann.

So wie = 1 GPU Chiplet+1 xARM CPU+5G Modem auf einem Substrat. Also irgendwas Tegra ähnliches (eben wie Intel das genauso tut) - ich will sehen wie du damit Desktopgames spielst.:D

https://www.notebookcheck.com/fileadmin/Notebooks/News/_nc3/Intel_AMD_CPU_GPU.jpg

Das man dort gleich 4 Compute GPU Chiplets miteinander verbindet - ist weit hergeholt und überhaupt nicht nötig.
 
AW: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?


Du kannst das doch jetzt nicht mit CF und SLI vergleichen. Das ist etwas lächerlich.
Und ich spreche nicht explizit von Hopper, wenn der für 5G und irgendwelche Automotive Applikationen sein soll.

Ich spreche von einem Package aus Chiplets, die wirklich für's Gaming entwickelt wurden mit entsprechenden Optimierungen. Das wird für das OS nicht wie ein MultiGPU Gespann ausehen sondern eben wie EINE GPU. Das Scheduling übernimmt dann eben der Treiber so wie er heute schon die ganzen Operationen auf die Shadercluster verteilt.

Aber ganz ehrlich, ich steck da nicht so tief drin in der Materie und habe eigentlich nur relativ oberflächliche Ahnung dazu. Eventuell kennt sich hier jemand wirklich mit Chipdesign aus bzw. arbeitet in dem Bereich und kann was dazu sagen. Ich schmarr ja bloß rum :D

Ist auch etwas Wunschdenken, dass AMD mit einem Chipletdesign auch bei GPUs kommt und mit Nvidia das macht, was sie bei den CPUs mit Intel machen.:daumen:
 
AW: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?

- je nachdem, wie viele Module man kombiniert. Das würde deutlich mehr Flexibilität erlauben und soll Kosten für mehrere Designs sparen.

korrektur bitte von kosten Sparen zu "Gewinn Maximieren" . ;)
 
AW: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?

Wie wärs mit einer nachbestückbaren Variante?
Wär doch cool. :-) Ist aber wohl heutzutage dann alles von der Verbindung her zu lahm. Aber damals gabs das ja, auch auf Mainboards, einfach mal was nachträglich reindrücken, zack, aufgerüstet. :-)
Raytracing statt wie damals Co-Prozessor drauf, wupp, GTX wird zur RTX. :-))

Hab mich auch schon vor ein paar Monaten gefragt, ob man die RT Cores nicht auf eine Zusatz Karte packen könnte (wie einst mit der PPU PhysX Karte von Ageia) ?!?
Wird allerdings an der Bandbreite (Daten Übertragung) scheitern … :-(

MfG, Föhn.
 
AW: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?

Um echt in directx multigpu vernünftig ans laufen zu bekommen bräuichte man erstens cpu die unendlich hoch takten
Zweitens einen aktiven interposer mit null latenz zum anderen chip
das geht physikalisch nicht.
Man kann versuchen den L1 als interposer zu bauen das wäre an der chipfläche gesehen extrem teuer und nein HBM eignet sich dazu nicht
L1 cache sind max 1ns wenn nicht weniger HBm min 20ns
So einfach kann man keine mcm gpu designen
dafür benötigt man zwangsweise andere rendertechnik als rastern.
voxel würde theoretisch gehen
Wie man anhand 3dfx gesehen hat nur ist die Rechenleistung dafür extrem hoch. vergleichbar mit echten raytraycing.
Die Rechen-last ist exponentiell. Daran scheiterst und rasterizer sind eben effizienter nur ist es eben so das das bild nur als gesamtes gerendert werden kann teilt man es auf kommt es zu Verzerrungen oder rucklern.
Dabei gibt es zwei render arten afr und sfr
afr= eine gpu das erste bild, zweite gpu oder mehr das andere im Wechsel sehr mimiruckler anfällig
sfr = bild wird in Teilbereiche aufgeteilt muss allerdings syncronisiert werden= latenz vergrößert sich.
bei afr muss ein game das unterstützen
bei sfr ist es reine treibersache
Sfr ist aber nie wirklich von nvidia genutzt worden (die idee dahinter war von 3dfx mit voxel basierende gpu erfunden worden)
Theoretisch könnte man wenn man die latenzen zwischen den chips gelöst hat sfr im Treiber windows einfach sagen das 6 chip mit je 1280shader addiert 7680shader gpu ist
Das große problem ist aber je mehr gpu syncronisiert werden müssen desto mehr frames müssen gewartet werden ideal sind es nur 2 real aber eher bei bsp 6
Das bedeutet je frame latenzen zwischen 26-78ms bei 60fps
und das merkt man bei der Steuerung
also ja mcm gpu werden kommen sogar schon bei ampere aber nur im hpc bereich wo latenzen egal sind.
Uns gamern werden die monolythen bleiben bis nvidia und microsoft das Latenzproblem gelöst haben.
und ich sprach nicht mal vom physikalischen limit mit dem aktiven interposer und den physisch zu langen wegen..
Es ist schlicht nicht umsetzbar

Da lohnt es sich immer eine neue Fertigung immer mehr shader aufn chip zu pressen (5nm eventuell 170mt, 7nm bis 100mt)
Und da euv scheinbar möglich wurde sehe ich da auch kein limit eher sehe ich die cpu als limitierenden Faktor an.
 
Zuletzt bearbeitet:
AW: Nvidia Geforce: Nächste GPU-Generation mit dem Architekturnamen Hopper?

Theoretisch sollte NVidia aber schon längst in der Lage sein, imemrhin 20 Jahre lang hat man solche Technik in der Schublade verrotten lassen. An dieser Stelle darf Raff mal seine Voodoo 6000 streicheln (oder welche hat er nochmal?).

Die Technik, die 3dfx damals bei den Voodoos (Raff hat eine 5-6000, glaub eine 3700er) ist in keiner Weise vergleichbar mit dem Chipletdesign von heute. Primitiv gesagt waren das 2 bzw. 4 Grafikkarten auf einem Brett, die im SLI (Scan Line Interleave) gerechnet haben, also nur jede 2. bzw. 4. Bildzeile. Die Technik ist ab T&L nicht mehr brauchbar, deswegen sollte Hardware-T&L auf einem seperaten Chip der Spectre verwirklicht werden.

Also ist NV weit davon entfernt, die Technik seit 20 Jahren in der Schublade verrotten zu lassen. Genauso gut könnte man sagen Intel könnte nächste Woche mit einem Chipletdesign aufkreuzen und 32-Kerner bringen, weil der Pentium II war schon dualsockel-fähig und auch schon über 20 Jahre her.

Ich erwarte mir rein vom Chipletdesign (sollte es aus bekannten Problemen überhaupt im Endanwenderbereich kommen) keine großen Leidtungssprünge, sondern eher Margensprünge, und im besten Fall etwas günstigere Preise. Die Shader alleine machens nicht, siehe Vega, und NV kann bereits enorm große Dies produzieren und verpacken.

@Raff: Solltest du das lesen, mein Angebot steht noch: 2 5500er gegen eine 6000er. Die 5500er zicken weniger herum und passen in fast jedes Gehäuse. ;) :lol:
 
Zuletzt bearbeitet:
Zurück