Nvidia Volta: GTC-Keynote ab 18 Uhr im Live-Ticker bei PCGH

Vega 10 ist ja auch eigentlich nicht der Konkurrent, das wird eher Vega 20. Und bei dem könnte ich mir ein 1:2 Verhältnis schon vorstellen, hat AMD ja prinzipiell schon bei Hawaii gemacht. Und durch die (vermuteten) 4 HBM Stacks dürfte auch die Bandbreite sehr gut konkurrenzfühig sein - wenn er denn mal kommt.
[...]
Teilweise schon, da der Deep-Learning-Market sich überschneidet und so wie es aussieht, wird Vega 10 da wenig reißen können.
Und Vega 20 erscheint scheinbar erst in der zweiten Jahreshälfte von 2018.

Für AMD bleiben praktisch wieder nur Krümel übrig.
 
Hübsche Profikarte. Gefällt mir, das NVidia sich auch um DeepLearning und Profis kümmert.
Vermutlich 8-15k € / Stück? 16GB HBM2? 815mm²?
Alles schon ziemlich dekadent, aber in dem Bereich ists halt teuer! ;)
 
Stimmt schon, die RX 480 ist etwa so schnell wie eine GTX 980 (je nachdem welche Tests man nimmt) und braucht etwa gleichviel. Die geringer getakteten sind noch effizienter. Von daher hast du leider Mist verzapft.
Ich hoffe das war sarkasmus:
980 kam 2014 in 28 ... ACHTUNDZWANZIG nm.
480 kam 2016 in 14... VIERZEHN nm.

beide sind annähernd gleich schnell bei gleicher Verlustleistung. Aber in völlig anderem Prozess (der 28nm Prozess ist 5 Jahre alt, 14nm ist fast neu).
Die Unterschiede in der Effizienz sind natürlich gewaltig.
 
Es liegt nicht an nVidia, es liegt an der hundsmiserablen Leistung von AMD !

AMD's Polaris Architektur ist mit Abstand schlechter/ineffizienter als die Thermi Arch von NV ! Pack mal Polaris auf 526mm², dann hast du den 450 Watt Supergau vor Augen den du hier verteidigst.

Und das kann auch nur AMD. Super was von Effiziens bei Polaris im Vorfeld labern und dann die schlechteste Architektur aller Zeiten bringen (im Vergleich zur Konkurrenz).

Schwachsinn.

Die zu hohe Leistungsaufnahme liegt nicht nur an der Architektur, sondern hauptsächerlich an dem zu hohen Powerlimit und übertriebenen Stock Spannungen, hinzu kommt das der Speicher sich einiges an Watt genehmigt. Beispiel rx 480: GPU 100 Watt max. Speicher 60 Watt. Nun kommen die Custom Designs von der rx 580 und die Hersteller geben der GPU echt ein Powerlimit von 150-175 Watt, dazu kommen dann noch die 50-70 Watt vom Speicher drauf. Da ist es kein Wunder das der Stromverbrauch durch die Decke geht und was bringt es ? 5-10 % Leistung maximal.

Nvidia Karten sind zwar trotzdem Effizienter, aber das ist bei weiten nicht so krass wie es dargestellt wird. Jeder User dem es stört kann da problemlos via Wattman eingreifen.

Back to topic:

Das ist schon ein Monsterchip.:) Aufjedenfall nichts für uns Customer.:) Aber so grob kann man ja schon etwas für den gv 102 - 104 ableiten. Mit knapp 5000 Shader einheiten sollte da die Karte ja um einiges schneller sein, sollte man meinen. Aber ich denke es wird weniger als viele erwarten. Die 5000 Shader einheiten müssen auch erstmal ausgelastet werden, AMD kann davon ein Lied singen.:) Man sieht jedenfalls bei der 1080 ti schon das die 1000 weiteren Shader einheiten nur 20 % Mehrleistung bringen, was wiederrum auf ein Auslastungs und Powerlimit Problem vermuten lässt.
 
Zuletzt bearbeitet:
Falsch... Die Polaris Reihe ist Effizienz Technisch ungefähr Maxwell niveau, nur das sie kein TBR besitzen... Die 470 (als Bsp) ist punktgenau auf der Effizienz der effizientesten Maxwell karte, der 960, gelandet (Effizient im sinne von Leistung pro W)
Polaris ist effizienter als Maxwell, da Polaris die 400mm² Maxwell Performance auf ~200mm² schafft. Ein 400mm² Polaris Chip mit mehr Einheiten und geringerem Takt/gerigerer Spannung/gleichem Verbrauch wäre deutlich schneller als ein GM104.

edit: Um Missverständnisse zu vermeiden: Der Effizienzvorteil von Polaris ergibt sich natürlich fast ausschließich aus der Strukturverkleinerung. Die Architekur ist nicht wirklich effizienter!

Das Problem ist hier einzig der spätestens mit der 580 deutlich überschrittene Sweetspot. (Die 1060 ist natürlich wiederum effizienter als Polaris, welcher sich irgendwo zwischen Maxwell und Pascal einordnet.)

Und jetzt kommt's: Ich seh schon die Schnappatmung einiger User hier :D:
Unter DX12 ist die Effizienz von Maxwell und Hawaii etwa gleich, da die 390er out of the box schneller als die GM104 GPUs sind. Bringt man beide Chips in Punkto Takt und Voltage auf das gleiche Niveau, verbrauchen sie auch etwa das gleiche. Beide Chips sind auch etwa gleich groß (398 zu 440mm²).
 
Zuletzt bearbeitet:
Ach ja muss jetzt nen flachen raushauen, aaaaaaaaaaaaaaa geeeeeeht net anders.
Ich hoffe das Nvidia an ein Kondom beim GV gedacht haben, nicht das es sich nen Virus einfängt......:ugly::fresse:
 
Ich verstehe jetzt , warum AMD “Poor Volta“ sagt. 815mm^2 sind einfach größen wahnsinnig.
Ich bin echt gespannt, ob Nvidia damit Geld machen wird.

Eddit: Meine Theorie ist, dass Nvidia das für 7nm designt hat. Und da der Prozess sich verzögert, aber sie liefern müssen, wird es in 14nm++ aka 12nm gemacht.
 
Zuletzt bearbeitet:
Ich verstehe jetzt , warum AMD “Poor Volta“ sagt. 815mm^2 sind einfach größen wahnsinnig.
Ich bin echt gespannt, ob Nvidia damit Geld machen wird.

Eddit: Meine Theorie ist, dass Nvidia das für 7nm designt hat. Und da der Prozess sich verzögert, aber sie liefern müssen, wird es in 14nm++ aka 12nm gemacht.

Nun dem ist nicht so, Intel hat bereits mit Itanium gezeigt, dass man komplexeres Silizium auf 700mm² herstellen kann. GPUs sind einfacher aufgebaut als eine x86 CPU.
Abgesehen davon, verkauft NV dieses Chips für Fünfstellige Summen auf Teslakarten für Datacenter. Beim Consumer wird der Chip auf maximal 600mm² (ich denke eher darunter) eingedampft.
Die NVLinks, In64 Einheiten, Tensor-Cores und evtl auch die Int- Einheiten werden fürs Gaming nicht gebraucht. Man wird auch die Fähigkeit der FP16 Berechnung evtl. beschneiden.
Also nein, NV wird sehr wohl mit den Chips Gewinn machen. Vor allem da AMD den Gerüchten zu folge keine Antwort darauf hat, Vega kommt (den Gerüchten nach) nur auf Pascal Niveau.
 
Schwachsinn.

Die zu hohe Leistungsaufnahme liegt nicht nur an der Architektur, sondern hauptsächerlich an dem zu hohen Powerlimit und übertriebenen Stock Spannungen, hinzu kommt das der Speicher sich einiges an Watt genehmigt.

Ja und ? AMD ist doch nun ganz offensichtlich seit der HD 7970 nicht in der Lage die korrekte Spannung bei ihren Karten einzustellen ? Das liegt nicht daran das man möglichst viele Karten problemlos betreiben möchte, nein, die Ingenieure bei AMD sind komplett zu behindert die Spannungen einzustellen, seit Jahren. Und nVidia cheatet nur heftig weil sie bei der 1060 2GB Vram weg lassen, das erspart den Loosern mindestens 50 Watt TDP......

Merkst du langsam was für einen Stuss du Schreibst ?
 
Ich denke dass FP16 mit doppeltem Speed auch in der Consumerversion bleibt. Ist ja beim GP102 auch geblieben AFAIK. Außerdem ist gibts das auch bei Vega und der PS4 Pro. Ich denke, dass FP16 in Zukunft auch von Game Engines unterstützt wird, da half precision für viel Berechnungen völlig ausreichend ist und damit die Performance billig erhöht werden kann. Ich denke entsprechende Templates werden zumindest in AMDs OpenGPU bald eingepflegt. Schade dass MS nicht für ihre Scorpio darauf setzt, hier fällt man wieder gegenüber Sony zurück, ich denke dass zumindest Sony Exclusivspiele bald auf FP16-Pfade für die Pro Versionen setzen. Die wenigen mm^2 mehr hätten das Kraut auch nicht fett gemacht.

EDIT: Eine mögliche Antwort von AMD wäre Vega20. Ich vermute, dass es sich dabei um 2 Vega10 GPUs handeln wird, die mittels Infinity Fabric miteinander verbunden sind. Im Gegensatz zu CF über PCIe würde so ein Setup einer einzelnen großen GPU entsprechen, welche doppelt so viele Ressourcen zur Verfügung hat. Quasi als Preview zu Navi.
 
Zuletzt bearbeitet:
Also Geld liegen schon wieder bereit für die Aufrüstung.
40% mehr Power immer her damit ;-) und wenn es nur 20% sind bin ich auch noch dabei
 
Wenn man sich auf die ~Wattage und dann auf den 3dcenter ***% durchschnitt der Karten unter Full HD bezieht hat man:
960 = 4,00 % pro Watt
970 = 3,57 % pro Watt
980 = 3,23 % pro Watt

Die 960 war/ist die effizienteste Karte aus der Maxwell Generation da sie mit grob 85w läuft... :D
Sie verbraucht grob genausoviel wie ne 950 die bedeutend weniger Punkte hat (was ich bis heute nicht verstehe wieso die beschnittene 950 so "säuft")

source für Stromverbrauch "FE" http://media.bestofmicro.com/H/5/474953/original/02-Overview-Gaming.png / Tomshardware
Source für Leistungseinstufung Schneller FullHD Performance-Uberblick der 28/16/14nm-Grafikkarten | 3DCenter.org
Und bei TechPowerup ist die Reihenfolge genau andersrum: NVIDIA GeForce GTX 1070 8 GB Review | techPowerUp

Wobei du dir bei deiner Stromverbrauchstabelle die 85W der sparsamsten 2GB-960 herauspickst und die anderen Modelle von 90 - 108 Watt ignorierst.

Und das kombinierst du dann mit der recht groben Performance-Einstufung der 3D-Center-Tabelle, wo nicht näher aufgeschlüsselt wird, welches 2GB-960-Modell als Maßstab gewählt wurde (könnte z.B. ein Durchschnittswert der verschiedenen Modelle sein) oder ob es sich überhaupt um eine 2GB-Karte und nicht um eines der 4GB-Modelle handelt.
 
Ich denke dass FP16 mit doppeltem Speed auch in der Consumerversion bleibt. Ist ja beim GP102 auch geblieben AFAIK. Außerdem ist gibts das auch bei Vega und der PS4 Pro. Ich denke, dass FP16 in Zukunft auch von Game Engines unterstützt wird, da half precision für viel Berechnungen völlig ausreichend ist und damit die Performance billig erhöht werden kann. Ich denke entsprechende Templates werden zumindest in AMDs OpenGPU bald eingepflegt. Schade dass MS nicht für ihre Scorpio darauf setzt, hier fällt man wieder gegenüber Sony zurück, ich denke dass zumindest Sony Exclusivspiele bald auf FP16-Pfade für die Pro Versionen setzen. Die wenigen mm^2 mehr hätten das Kraut auch nicht fett gemacht.

EDIT: Eine mögliche Antwort von AMD wäre Vega20. Ich vermute, dass es sich dabei um 2 Vega10 GPUs handeln wird, die mittels Infinity Fabric miteinander verbunden sind. Im Gegensatz zu CF über PCIe würde so ein Setup einer einzelnen großen GPU entsprechen, welche doppelt so viele Ressourcen zur Verfügung hat. Quasi als Preview zu Navi.
Nur der GP100 hatte Double-Rate FP16, die anderen Pascals besaßen nur eine FP16-ALU pro Cluster (Eine native Rate von 1/64 gegenüber FP32), vermutlich nur um Kompatibilität von Code sicher zu stellen.
Der GV100 scheint keine Mixed-Precision-Einheiten mehr für FP16 zu verwenden, vermutlich haben die Tensor-Schaltungen das Ganze ersetzt.

Bezüglich Vega, laut den geleakten Folien stellt Vega 20 einen neuen Single-Chip dar:
AMD VEGA 10 and VEGA 20 slides revealed | VideoCardz.com

Vega 10 x2 ist aber auch geplant und die neuesten Linux-Einträge bestätigen das praktisch offiziell.
AMD Vega Dual GPU Liquid Cooled Graphics Card Spotted In Linux Drivers
 
Wobei du dir bei deiner Stromverbrauchstabelle die 85W der sparsamsten 2GB-960 herauspickst und die anderen Modelle von 90 - 108 Watt ignorierst.

Und das kombinierst du dann mit der recht groben Performance-Einstufung der 3D-Center-Tabelle, wo nicht näher aufgeschlüsselt wird, welches 2GB-960-Modell als Maßstab gewählt wurde (könnte z.B. ein Durchschnittswert der verschiedenen Modelle sein) oder ob es sich überhaupt um eine 2GB-Karte und nicht um eines der 4GB-Modelle handelt.

Ich nehme den Verbrauch der "FE", habe ich doch auch geschrieben...
Die Werte ausm 3dcenter sind ja schon "gemittelt"...
Keine Ahnung wie Techpowerup das berechnet... Aber durchgehend sieht man das die Effizienz ab ner gewissen größe der Chips wieder sinkt und nicht steigt. Sprich die unbeschnittene Midrange (~200-300mm²) ist meistens am effizientsten (Es ging übrigens nicht um Pascal)...
 
AW: Nvidia Tesla V100: Volta-Flaggschiff ist 815 mm² riesig und hat 5.376 Shader [Update]

Dass sowieso nur einkleiner Prozentanteil scheint irgentwie keinen zu interessieren. Kaum einer Leistet sich eine 1080 ti und trz beschweren sich alle das AMD möglicherweise nicht mit den Topmodellen Nvidias konkurieren kann ;D. Ich denke AMD wird mit Absicht nicht die größten Chips herstellen, da sie dort noch wenoger berkaufen als würden sie eine Karte auf 1080 Niveau rausbringen.
 
Zurück