Samsung mit 24 Gb/s schnellem GDDR6-Speicher für kommende GPUs

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Samsung mit 24 Gb/s schnellem GDDR6-Speicher für kommende GPUs

Samsung bietet nun auch Speichermodule im Format GDDR6 mit bis zu 24 Gb/s an. Damit wildert man dort, wo der teure GDDR6X unterwegs ist.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Samsung mit 24 Gb/s schnellem GDDR6-Speicher für kommende GPUs
 
Na also, geht doch !
Somit wären dann doch die Stromfresser "6X" für den Popolores ?!?

MfG Föhn.
 
Echt? Wo steht denn das 24Gbps GDDR6 deutlich weniger Energiebedarf hat als 24Gbps GDDR6X bei identischer Leistung?
 
Nur als Info durch das Tauschen der Pads habe ich ca 20C an VRAM Temp gewonnen.
Also ja würde man nicht bei diesen (1€ mehr kosten Pro Karte) nicht scheuen. Hätten wir keine Probleme.
 
Zuletzt bearbeitet:
@Nathenhale :Nur als Info durch das der Pads habe ich ca 20C an VRAM Temp gewonnen.
Also ja würde man nicht bei diesen (1€ mehr kosten Pro Karte) nicht scheuen. Hätten wir keine Probleme.
Wenn man sie nicht vernünftig per Pad an den Kühler koppelt und sie an der absoluten Taktgrenze betreibt mit maximal erlaubter Spannung... Ja. ;-)
Gut, so sieht eine Problemlösung aus. :daumen:
Aber werden die jetzt tatsächlich heisser als GDDRnonX? Oder war Radeon mit Wärmeleitpads großzügiger? :D
Gruß T.
 
GDDR6 und GDDR6X unterscheiden sich nicht prinzipiell in Abwärme und Temperatur. Es kommt auf den Betriebspunkt und Kühlung des Speichers an.

Wenn man das letzte bisschen Bandbreite rausquetscht wirds wie immer bei Mikrochips sehr ineffizient. Oder anders gesagt GDDR6X mit ein paar MHz weniger und 50-100 mV weniger Spannung betrieben hätte selbst ohne Wärmeleitpads keine Temperaturprobleme. Aber es ist aktuell in der Industrie eben so, dass 2% Mehrleistung wichtiger sind als 30% Mehrverbrauch.
 
GDDR6 und GDDR6X unterscheiden sich nicht prinzipiell in Abwärme und Temperatur. Es kommt auf den Betriebspunkt und Kühlung des Speichers an.

Wenn man das letzte bisschen Bandbreite rausquetscht wirds wie immer bei Mikrochips sehr ineffizient. Oder anders gesagt GDDR6X mit ein paar MHz weniger und 50-100 mV weniger Spannung betrieben hätte selbst ohne Wärmeleitpads keine Temperaturprobleme. Aber es ist aktuell in der Industrie eben so, dass 2% Mehrleistung wichtiger sind als 30% Mehrverbrauch.
Kennst du eine Spiel das gut mit SpeicherTakt skaliert?
Weil wenn ja, dann könnte ich mal meine 3090 da durch jagen bei verschieden Taktungen des Speichers und schauen was man an FPS verliert.
Da kann man zwar keine Rückschlüsse auf den verbrauch ziehen (da nicht Akkurat Messbar) aber relation zur Temp wäre möglich.
 
Nein, nicht wirklich. Es kommt da auch nicht nur aufs spiel an sondern auf die eingesetzte Karte/Architektur. Bandbreite zum Speicher ist da schon länger ein Problem, deswegen hat Nvidia da ja den GDDR6X so an die Kotzgrenze gefahren znd deswegen gibts diese Entwicklung zu größeren (infinity...-)Caches in den GPUs um die Abhängigkeit vom vRAM abzumildern.

Extrem speicherlastig ist Ethereum Mining aber ich schätze das willste jetzt kaum testen :-D
 
Nein, nicht wirklich. Es kommt da auch nicht nur aufs spiel an sondern auf die eingesetzte Karte/Architektur. Bandbreite zum Speicher ist da schon länger ein Problem, deswegen hat Nvidia da ja den GDDR6X so an die Kotzgrenze gefahren znd deswegen gibts diese Entwicklung zu größeren (infinity...-)Caches in den GPUs um die Abhängigkeit vom vRAM abzumildern.

Extrem speicherlastig ist Ethereum Mining aber ich schätze das willste jetzt kaum testen :-D
Habe meine Karte schon eine weile zum Minen genutzt mit Großen erfolg.
Und bevor jemand kommt die Karte wurde fürs Gaming gekauft und auch genutzt. Ich finde aber einen Teil des Kaufpreises mir durch mining wieder zurück zu holen ok.

Mining skaliert halt eins zu eins mit Speichertakt spiele ja nicht, da diese ja nicht nur den Speicher nutzen sondern auch RT cores Rops und andere sachen in der GPU (den Chip) selber. Ich schätze ich schnapp mir am Wochende mal ein Schönes Singelplayer Game und Teste ein wenig.
 
Bei meiner Vega hat das Anheben des Speichetaktes schon was gebracht. Wobei das aber eher an der Architektur der Karte liegen wird.
Gruß T.
 
Aber es ist aktuell in der Industrie eben so, dass 2% Mehrleistung wichtiger sind als 30% Mehrverbrauch.

Also hier übertreibst du einfach nur maßlos. Lies dir den Test der RTX 3090Ti, da sind locker 5-10% Mehrleistung, gegenüber der RTX 3090 drin und das bei nur 29% Mehrverbrauch.

Gut, das hört sich nicht so spektakulär an und es ist auch weit von der Grenze, ab der man es bewußt wahrnehmen kann (ca. 20%) entfernt, aber es ist doch 2,5 bis 5 mal mehr, als du behauptest.

Das muß man schonmal klarstellen, wenn du so unsachlich über den Zeitgeist herziehst.

PS: wobei ich sagen muß, dass man es sehr wohl wahrnimmt, die wärmeren Füße fallen auf.
 
Lies dir den Test der RTX 3090Ti, da sind locker 5-10% Mehrleistung, gegenüber der RTX 3090 drin und das bei nur 29% Mehrverbrauch.
Ich rede nicht von Karten sondern von vRAM. Und ob du GDDR6X mit 19 oder 21 GBit/s betreibst merkste ohne Benchmarks garantiert nicht denn das ist ein kleiner einstelliger Performancegewinn, wenn überhaupt. Nur musste für 21 GBit 1,35v anlegen und für 19 Gbit ggf. nur 1,25v - was einen massiven Sprung nach Unten in Leistungsaufnahme und temperatur bedeutet. Ist etwa ähnlich wie bei hochgezüchtetem DDR5 - zwischen 5600 und 6000+ ist kein merklicher Unterschied, aber ersteres läuft mit 1,25v, letzteres nicht selten mit 1,4v und mehr. Da werden die Riegel auch 20K wärmer ohne dass es nen nennenswerten Mehrwert hätte.

Bevor du einem Unsachlichkeit und irgendwelchen Zeitgeist vorwirfst solltest du erstmal verstehen um was es genau ging - eben NICHT um ganze Grafikkarten. Dass die Tendenz "Leistungsaufnahme (fast) egal Hauptsache minimal schneller" sich durch GPUs, CPUs,... auch durchzieht ist klar, in dem speziellen Fall hier gings aber darum nicht konkret.
 
Bevor du einem Unsachlichkeit und irgendwelchen Zeitgeist vorwirfst solltest du erstmal verstehen um was es genau ging

Du hast den Humorvollen Anstrich des Betrags nicht verstanden. Ich dachte eigentlich, es wäre klar, als ich darauf hinwies, dass man die Leistungssteigerung nicht wahrnehmen kann, die Wärme hingen schon.

Mein Fehler, das nächste mal pflastere ich den Beitrag mit Smileys zu.
 
Zurück