Geforce RTX 4000: Angeblich mit 100 TFLOPS FP32-Performance

100 TFlops ist schon mal eine Ansage.
Das ist tatsächlich etwas worüber man mal kurz nachdenken kann.

Der schnellste Supercomputer der Welt des Jahres 2004, BlueGene/L, erreichte in der ersten Ausbaustufe rund 70 TFlops - mit 16 Racks und 32768 CPUs drin und mehreren 100 kW Verbrauch.

Keine 20 Jahre später wird es Grafikkarten geben, die man sich einfach so zu Hause in seinen PC klatschen kann und die schneller sind. Zum SPIELEN.

Das ist schon ziemlich verrückt.
 
Das ne 6900XT mit 24 TFlops FP32 so schnell ist wie ne 3090 mit über 36 TFlops ist doch bekannt...
Vorsicht bei solchen Aussagen, denn FP32 TFlops haben nichts mit "Schnelligkeit" in FPS gemessen zu tun.

TFlops sind "Floating Point Operations Per Second", also übersetzt "Gleitkomma-Operationen pro Sekunde". Das ist nur ein bestimmter Teil von Berechnungen, wie man sie größtenteils in sondierten GPGPU-Aufgaben findet.

Beim Spielen macht das wenig Unterschied. Dort sind die geometrischen Einheiten inklusive der spezialisierten Hardwarebereiche zuständig.

FP64 hat AMD auch die 3 Fache Leistung...
AMD hat auch lange Zeit für Gaming nutzloses FP64 mitgeschleppt, weil man sich viele Jahre keine geteilte Entwicklung für Gaming / Profi leisten konnte. Der Verbrauch war entsprechend höher bei den Radeons.

Ich sehe hier nirgendwo nen Sieg für NV...
Es gibt keinen Sieg! Weder für Nvidia noch für AMD.
Das sind die üblichen Fanboykriege hier im Forum.

Ne Vega ist auch rund 20% langsamer als ne 6600XT obwohl ca. gleich viel TFlops, einfach weil der neue Treiber da mehr raus holt.
Nein, Vega hatte noch mehr FP64-Einheiten verbaut. Die hatte AMD zum Großteil mit Navi und danach RDNA² gestrichen und die Chipfläche für spielerelevante Einheiten ersetzt. Daher kam auch die Leistung!

Deine 20% Mehrleistung sind genau dieser Unterschied. Beim Treiber hat sich auch einiges getan! Stellenweise wurden Featues nachgereicht, die Nvidia seit Maxwell besser beherrscht. Aus dem Kopf kann ich da "Delta colour compression" und "Culling". Das zusammen komplett überarbeiteten Grafikpipeline unter anderem.

Kurz gesagt:
-AMD hatte in dieser Zeit die Hausaufgaben endlich gemacht.

Mit TFlops hat das rein garnichts zu tun!

Das gleiche trifft aber auch auf NV zu, ne 1080Ti bekommt jetzt auch kaum noch Optimierungen.
Wie kommt ihr immer darauf, dass man eine 5-6 Jahre alte Architektur immer weiter optimieren kann? Irgendwann ist einfach Schluss!

Pascal ist schlicht in die Jahre gekommen. Der Architektur fehlen sowohl die neuen Hardwareeinheiten sowie unterstützung für neuartige DX12-Features. Je mehr diese aber zum Einsatz kommen, desto weiter fällt die 1080 Ti zurück. Das ist auch logisch!

Man kann nichts optimieren, das nicht vorhanden ist!
 
pc-gaming ist mittlerweile leider ein trauerspiel; wahnsinnig teuer in der anschaffung UND beim verbrauch, also den folgekosten.

naja, im grunde wird damit den konsolenherstellern ein gefallen getan.
Eigentlich haben es wir als Kunden in der Hand. Stellt euch mal vor, fast jeder würde eine Karte mit einer GPU der Klasse AD104 oder 106 kaufen, auch wenn es hier schwer vorstellbar ist.
Auf der anderen Seite gibt es aber 2 weitere Punkte: Solche Produkte sind Prestigeobjekte der Firmen selbst und die Kunden fordern es zum Teil auch. Da fragt es sich nur, ob es genug solcher Kunden geben wird...
 
Zuletzt bearbeitet:
Genau das. Dieses: "mir scheiß egal, hauptsache Power" wird uns allen eher früher wie später noch ganz gewaltig auf die Füße fallen...

Aber richtig, morgen haben wir schon den Mars bewohnbar gemacht und dort kostet der Strom ja auch nur 3Cent/h:schief:

Gruß
Glaubst du wirklich das die paar Enthisiasten-Karten einen so großen Einfluss haben?
 
Glaubst du wirklich das die paar Enthisiasten-Karten einen so großen Einfluss haben?
Der Spruch kommt immer, gelle;) Ich gebs mal zurück: wenn alle so denken würden, wo wären wir dann? Oder anders, würde es uns dann noch geben...

Die Erde brauch uns nicht, wir brauchen die Erde. Jeder sollte seinen Beitrag leisten und sei es eben nur der, solche Wattmonster nicht zu kaufen oder solche Entwicklungen möglichst scharf anzuprangern...

Gruß
 
Der Spruch kommt immer, gelle;) Ich gebs mal zurück: wenn alle so denken würden, wo wären wir dann? Oder anders, würde es uns dann noch geben...

Die Erde brauch uns nicht, wir brauchen die Erde. Jeder sollte seinen Beitrag leisten und sei es eben nur der, solche Wattmonster nicht zu kaufen oder solche Entwicklungen möglichst scharf anzuprangern...
Man muss aber auch realistisch bleiben und erkennen, dass der einzelne Verbraucher sich ein Bein ausreißen kann, wenn das System und Konzerne nicht mitziehen. Auch sollte man bedenken, dass Spiele Grakas im üblichen Betrieb nicht unter Dauervollast laufen.
 
Selbst dann ist das nicht eindeutig, siehe mein Beispiel oben, AMD legt selbst mit 72TF noch genausostark zu wie Nvidia! 23 auf 72, bei NV 36 auf 100, beide legen also in der Rohleistung um knappe 200% zu!
Wenn man eines gelernt hat, dann dass man nie stumpf TF Leistung miteinander vergleichen kann, vor allem da Nvidia noch einiges aufzuholen hat was die Leistung pro TF angeht, bzw die Auslastung der neuen Architektur.
Auf Ampere gab es 64 reine FP32 ALUs pro SM, allerdings zu den 64 reinen INT32-ALUs 64 zusätzliche, welche integer oder floiting-point Berechnungen durchführen konnten.
Um das aber gleichzeitig machen zu können, wurde einiges aufgebohrt, unter anderem der L-2 Cache und die Struktur der SMs. Komplexe SMs brauchen viel Cache.
Kann Nvidias nächste Generation parallel FP32 und INT berechnen, ist der TF Vergleich hinfällig.
Das kann eine gute Erklärung für den steigenden Energieverbrauch sein.
 
Und wozu braucht man diese Leistung? 16k gaming oder CSGO endlich mit over 9000fps? :ugly:
Eigentlich hab ich gern viele Hobbies, aber das ufert ja immer mehr aus.
 
Wenn man eines gelernt hat, dann dass man nie stumpf TF Leistung miteinander vergleichen kann, vor allem da Nvidia noch einiges aufzuholen hat was die Leistung pro TF angeht, bzw die Auslastung der neuen Architektur.
Auf Ampere gab es 64 reine FP32 ALUs pro SM, allerdings zu den 64 reinen INT32-ALUs 64 zusätzliche, welche integer oder floiting-point Berechnungen durchführen konnten.
Um das aber gleichzeitig machen zu können, wurde einiges aufgebohrt, unter anderem der L-2 Cache und die Struktur der SMs. Komplexe SMs brauchen viel Cache.
Kann Nvidias nächste Generation parallel FP32 und INT berechnen, ist der TF Vergleich hinfällig.
Das kann eine gute Erklärung für den steigenden Energieverbrauch sein.
1.) Mein Kenntnisstand ist, dass grds. nur möglich ist eine FP32 und eine Integer, oder 2 x FP32 Berechnungen anzustellen. Cache ist da nach meinem Verständnis keine Lösung.

2.) Des Weiteren würde dies in meinen Augen auch nicht den gestiegenen Energieverbrauch erklären, bzw. ist dieser bereits ausreichend geklärt. Man verdoppelt die Shaderanzahl, man erhöht den Takt (massiv) und das reicht mehr als aus um den gestiegenen Verbrauch, trotz Shrink zu erklären.

Bzgl des Eingangssatz, man sollte so clever sein und niemals aus zwei komplett unterschiedlichen Architekturen die TF Werte nebeneinander stellen. Allerdings sind wir uns doch einig, dass sowohl Nvidia als auch AMD an der grundlegenden Chiparchitektur nicht viel geändert haben wird. Insofern finde ich es nach bisherigem Kenntnisstand durchaus plausibel, die Werte der Beiden ins Verhältnis zu setzen, so komme ich erstmal dazu, dass sich am Status Quo nicht viel ändern wird, 73TF von AMD würden doch ziemlich deckungsgleich auf 100TF bei NV hinauslaufen, also quasi 3090 und 6900XT, nur halt neu und schneller.

Was halt gar nicht abgebildet wird ist die RT Performance (hier muss ADM massiv zulegen), der Energieverbrauch (sollten 500W AMD auf 600W NV treffen,. Oweia), MCM Design (bspw. gleichmäßige Frameverteilung), der Preis, etc. Es gibt zu allem irgendwelche Spekulationen, ich glaube zwar, dass sich weitestgehend ein Bild ergibt, aber gerade zwei Aspekte, Preis und MCM Design sind für mich noch unklar, werden aber nunmal Kernaspekte sein.
 
Also wenn eine 4070 "nur" auf dem Niveau einer 3090 landen sollte, wäre ich schon etwas enttäuscht bei dem hochgelobten Leistungssprung der rumkursiert. Immerhin hat das eine 3070 auch schon im Vergleich zur 2080ti geschafft. Ich hoffe einfach, dass diese großen Sprünge durch die Bank durch für alle Chips gelten. Dem Schema nach sollte also schon eher die 4060 auf 3090 Niveau liegen was schon echt heftig wäre..
 
Man muss aber auch realistisch bleiben und erkennen, dass der einzelne Verbraucher sich ein Bein ausreißen kann, wenn das System und Konzerne nicht mitziehen. Auch sollte man bedenken, dass Spiele Grakas im üblichen Betrieb nicht unter Dauervollast laufen.
Schon klar. Aber wenn jeder sein (kleines) Scherflein beiträgt. Aufgeben und LMAA (der/die Anderen/große Firmen machen`s doch auch nicht) is ni;)

Gruß
 
1.) Mein Kenntnisstand ist, dass grds. nur möglich ist eine FP32 und eine Integer, oder 2 x FP32 Berechnungen anzustellen. Cache ist da nach meinem Verständnis keine Lösung.
Mein Kenntnisstand zum Ampere Nachfolger ist zumindest schon soweit, dass ich sagen kann, dass man da einiges aufgebohrt hat - was mehr parallele Berechnungen ermöglicht, aber ich lege mich da nicht endgültig fest, aber es werden mehr möglich sein.

Des Weiteren würde dies in meinen Augen auch nicht den gestiegenen Energieverbrauch erklären, bzw. ist dieser bereits ausreichend geklärt. Man verdoppelt die Shaderanzahl, man erhöht den Takt (massiv) und das reicht mehr als aus um den gestiegenen Verbrauch, trotz Shrink zu erklären.
"Ausreichend geklärt" in einem Stadium in dem noch nicht viel über die neuen Karten bekannt ist.:-D

Allerdings sind wir uns doch einig, dass sowohl Nvidia als auch AMD an der grundlegenden Chiparchitektur nicht viel geändert haben wird.
Nein, gar nicht einig. Das ist ja der Grund, warum ich meinen Beitrag überhaupt verfasst habe.:-P
 
Der schnellste Supercomputer der Welt des Jahres 2004, BlueGene/L, erreichte in der ersten Ausbaustufe rund 70 TFlops - mit 16 Racks und 32768 CPUs drin und mehreren 100 kW Verbrauch.

Keine 20 Jahre später wird es Grafikkarten geben, die man sich einfach so zu Hause in seinen PC klatschen kann und die schneller sind. Zum SPIELEN.

Das ist schon ziemlich verrückt.
Wirklich verrückt wäre es, WENN eine solche Grafikkarte nur 100W verbraten würde. Ja, ich weiß meckern kann man immer. Aber, weißte wie ich`s mein:-D

Gruß
 
Glaubst du wirklich das die paar Enthisiasten-Karten einen so großen Einfluss haben?
Diese Karten ziehen die Mittelklasse und darunter aber mit.... ne 1070 hatte ungefähr 150 Watt gezogen, ne 2070 zieht 200 W und mehr....

Geht mir ganz schön auf den Keks, dass Leistung stets über mehr Verbrauch gesteigert wird... warum nicht mal den Ansatz verfolgen mit gleicher oder gar weniger Verbrauch mehr Leistung zu erzielen.

Dann hört man ständig, dass die neuen Karten effizienter sind, weil mehr FPS je Watt.... ist dennoch doof das mehr Watt am Ende verbraucht werden. Überall wird Strom gespart nur die Hardwareentwickler leben noch in einer Welt, wo es keine Klimaänderung gibt.

Jetzt soll es gar in Richtung 600 W gehen. Gehts noch? Mein gesamtes System zieht weniger. Früher waren 300 bis 500 W Netzteile Standard, heute musste ja quasi schon 1000 W Netzteile haben.

Hier muss dringend mal ein Umdenken stattfinden!
 
Eigentlich haben es wir als Kunden in der Hand. Stellt euch mal vor, fast jeder würde eine Karte mit einer GPU der Klasse AD104 oder 106 kaufen, auch wenn es hier schwer vorstellbar ist.
Auf der anderen Seite gibt es aber 2 weitere Punkte: Solche Produkte sind Prestigeobjekte der Firmen selbst und die Kunden fordern es zum Teil auch. Da fragt es sich nur, ob es genug solcher Kunden geben wird...
Ähm, das passiert doch bereits!
Die 104er und 106er Chips sind in der Regel x70er, x60er und evtl kastrierte x50er Karten. Dort ist der Massenmarkt und Produkt verkaufen sich in diesem Bereich millionenfach.

Ein x90er Topmodell hingegen verkauft sich auf Produktlebenszeit höchsten im unteren zehntausender bis hundertausender Bereich.

Also wenn eine 4070 "nur" auf dem Niveau einer 3090 landen sollte, wäre ich schon etwas enttäuscht bei dem hochgelobten Leistungssprung der rumkursiert. Immerhin hat das eine 3070 auch schon im Vergleich zur 2080ti geschafft. Ich hoffe einfach, dass diese großen Sprünge durch die Bank durch für alle Chips gelten. Dem Schema nach sollte also schon eher die 4060 auf 3090 Niveau liegen was schon echt heftig wäre..
Das ist eine utopische Vorstellung.
Normalerweise ist einer x60er des Nachfolgers etwa auf Höhe einer x80er des Vorgängers. Alle x70er sind Pi x Daumen oftmals zwischen 80er bis 90er im selben Schema.

Würde die 4070er die jetzige Top-3090 erreichen, wäre das das eine Sensation. Das ganze noch für 600€ und lediglich 200-300W TDP und man hat eine regelrechte Wunderkarte. In der Wirklichkeit werden wahrscheinlich nicht alle diese Kriterien erreichbar sein und du willst noch mehr?

Eine Mainstream 4060 (Ti?) irgendwo auf 3080 Niveau hingegen ist ein guter Sprung. Vor allem falls die aufgebohrte Raytracingleistung jenseits der 3090 liegen wird wie in Gerüchten angedeutet. Sofern verfügbar werden die Käufer den Händlern die Karten regelrecht aus den Händen reißen!

Geht mir ganz schön auf den Keks, dass Leistung stets über mehr Verbrauch gesteigert wird... warum nicht mal den Ansatz verfolgen mit gleicher oder gar weniger Verbrauch mehr Leistung zu erzielen.
Ja, und die Rennfahrer beschweren sich auch immer über ihre Monster V8 und V12, die Benzin geradezu saufen. Ironischerweise hat die Industrie reagiert und baut bevorzugt Turbos in die Autos ein für kleinere Motoren und Kostenersparnis.

Bei Grafikkarten wird es einen ähnlichen Umschwung geben. Nicht diese Generation, aber sobald die Ersatztechnik vorhanden ist, findet auch der Umschwung in Sachen Verbrauch und Größe statt.

Dann hört man ständig, dass die neuen Karten effizienter sind, weil mehr FPS je Watt.... ist dennoch doof das mehr Watt am Ende verbraucht werden. Überall wird Strom gespart nur die Hardwareentwickler leben noch in einer Welt, wo es keine Klimaänderung gibt.
Halbleiter sind nun einmal an die Physik gebunden, nicht an utopischen Klimaterrorzielen. Jeder Transistor mehr möchte auch mit Energie versorgt werden. Das ändert auch nichts, wenn die Energiekosten pro Transistor durch Effizienz verringert werden.

Der Gesamtstromverbrauch wird trotzdem steigen.

Alle paar Architekturen gibt es dann wieder eine neue Technik, die die Verbräuche theoretisch um die Hälfte wieder senken.

Jetzt soll es gar in Richtung 600 W gehen. Gehts noch? Mein gesamtes System zieht weniger. Früher waren 300 bis 500 W Netzteile Standard, heute musste ja quasi schon 1000 W Netzteile haben.
Das gilt nicht für die Standardkarten, nicht für die überzüchteten Monstermodelle. Auf die Arbeit fährst du selbst wohl auch nicht mit dem Dragster oder dem Formel 1 Wagen.

Hier muss dringend mal ein Umdenken stattfinden!
Bei Entwicklungszeiträumen von vielen Jahren kann ein solches Umdenken immer nur verspätet erfolgen. Es könnte sogar der Fall sein, dass AMD und Nvidia bereits an der Wunderlösung für dieses Problem arbeiten.
 
Zuletzt bearbeitet von einem Moderator:
Würde die 4070er die jetzige Top-3090 erreichen, wäre das das eine Sensation. Das ganze noch für 600€ und lediglich 200-300W TDP und man hat eine regelrechte Wunderkarte. In der Wirklichkeit werden wahrscheinlich nicht alle diese Kriterien erreichbar sein und du willst noch mehr?
Fairerweise muss man ja sagen, dass dieser "70 = 80Ti/90" Sprung vor Turing normal war. Das ist halt 8 Jahre her....
 
Ausreichend geklärt
Sorry, die Autokorrektur, es sollte ausreichend "erklärt" heißen, will sagen, die Gerüchte (doppelte Shader und höherer Takt bei besserer Fertigung) liefern genug Anhaltspunkte um den Mehrverbrauch zu erklären
Nein, gar nicht einig. Das ist ja der Grund, warum ich meinen Beitrag überhaupt verfasst habe.
Schade, denn dann lässt du nahezu alle Gerüchte die teilweise von verschiedensten Quellen stammen außer Acht.
 
Zurück