GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Das Problem ist doch, dass das Speicherinterface ÜBERHAUPT beschnitten ist. Das wurde nirgends dokumentiert oder kommuniziert. Überall steht 4 GB und 256 Bit Interface und genau das erwarte ich auch.

Diese "eigentlich wären es nur 3 GB gewesen" Aussage ist ja wohl die größte Sauerei überhaupt. WTF. Keppler hatte auch schon 4 GB mit 256 Bit Interface (GTX 770) und so hätte die 970 auch sein MÜSSEN, wenn man sie so anbietet. Oder man hätte Maxwell auch mit 384 Bit und 6 GB für die 980 und dann 256 Bit mit 4 GB oder so bei der 970 anbieten können.
 
AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Das Speicherinterface ist nicht beschnitten, der Cache ist beschnitten.

Man kann mit 256Bit auf 4 GB zugreifen. Es wäre nur ungeschickt, da das durch den beschränkten Cache im letzten Segment sofort unerwünschtes Stalling mit sich bringen würde.

Für den Anwender ist das freilich egal: Er hat faktisch nur 3,5 GB und ein 244 bit Speicherinterface. Und das hätte natürlich klar kommuniziert werden müssen.
DASS die Beschränkung vorhanden ist, ist ja kein böser Wille sondern einfach eine Möglichkeit nicht 100% funktionsfähige Chips eben doch noch nutzen zu können. Erlaubt man das nicht, wären nur die Enduserpreise nochmal deutlich höher.
 
AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Jo die versuchen jetzt die Leute die technisch nicht so viel Verständnis haben auf ihre Seite zu ziehen und es als Feature anzupreisen.

Verstehe nicht wieso Nvidia hier von 3GB redet - das war ja nur bei 780 usw. der Fall da es zum Speicherinterface gepasst hat.

Bei den angegeben 256 Bit von 970/980 musste man davon ausgehen das es wie bei 670/680 ist und hier einfach nur die doppelte Menge verbaut ist - die 4GB waren übrigens für mich der Grund mich gegen eine 780Ti zu entscheiden als diese günstig war - die 970 ging dann wegen Spulenfiepen zurück.

Sie hätten es einfach richtig angeben müssen beim Launch und fertig - von mir aus auch wie jetzt als Feature zu verkaufen aber es hätte vorher klar sein müssen...

Das auch noch andere Angaben falsch sind macht das ganze noch schlimmer - imho war das alles nur so gemacht um die ähnlich starke R9 290(X) mit echten 4GB auszustechen da dann praktisch alles für die 970 spricht.

Wäre das bekannt gewesen hätten bestimmt mehr Leute ne R9 290(X) geholt eben wegen Preis und den 4GB.
 
AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Diese "eigentlich wären es nur 3 GB gewesen" Aussage ist ja wohl die größte Sauerei überhaupt. WTF. Keppler hatte auch schon 4 GB mit 256 Bit Interface (GTX 770) und so hätte die 970 auch sein MÜSSEN, wenn man sie so anbietet. Oder man hätte Maxwell auch mit 384 Bit und 6 GB für die 980 und dann 256 Bit mit 4 GB oder so bei der 970 anbieten können.

Sie haben sich entschiedenen GM204 mit fehlerhaften Cache als GTX970 zu verkaufen. Und da bliebe eben nur 192bit mit 3GB, 224bit mit 3,5GB oder 224bit + 32bit als 3,5GB + 0,5GB übrig.
 
AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Wird er sein. Die GTX970m kommt nur mit 3 64bit Controller.

/edit: Alleine von der Logik macht es überhaupt keinen Sinn voll funktionsfähige Chips künstlich zu beschneiden, sie jedoch im Markt aufgrund der Speicherlüge gegenüber der GTX980 besser zu stellen...
 
AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Bei dem Run auf die 970 sind bestimmt auch eigentlich einwandfreie als 970 verkauft worden und das nicht in geringer Stückzahl^^
 
AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Was gibt es da Groß zu interpretieren?

Für die MArketing abteilung war 3GB einfach zu wenig, und 3.5GB nicht möglich.

Daher wurden die 500MB nun langsam angebunenden um mit 4GB werben zu können.

Und dass ist nicht aus gutem willen, sondern durch die 290 als konkurenz geschehen. sonst hätte man die GTX 960 nicht mit 2 sondern mit 3 GB gebracht.


Aussage: Wir wollten nicht 3GB weil AMD mehr hat. Deswegen haben wir einfach langsamen mit draufgeklatscht in der hoffnung dass es keiner merkt.
 
AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Die Ausbeute an Chips erhöht sich ja nicht, wenn die Karte künstlich beschnitten werden würden. Da hätte man das auch sein lassen können. :(

/edit: 3,5GB sind natürlich möglich. Hey, 3,5Gb mit 224bit wären wesentlich sinnvoller als dieser komische Mischmaschbetrieb.
 
AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Die Ausbeute an Chips erhöht sich ja nicht, wenn die Karte künstlich beschnitten werden würden. Da hätte man das auch sein lassen können. :(

Aber man kann ja schlecht planen, dass genau dieser eine Part defekt ist und nicht mehr, oder?

Wäre die Karte 50 Euro teurer gewesen für die volle Speicheranbindung, hätte sich eigentlich auch keiner beschwert. Die Karte war ja so billig, dass AMD seine 290 Serie drastisch senken musste.
 
AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Wenn der Cache überhaupt fehlerhaft ist.

Das spielt keine Rolle. Sicher gibt es auch 970er, bei denen alle Cache Module funktionieren würden.

Das ganze ist eine rein statistische Sache. Es gibt eine gewisse Wahrscheinlichkeit, dass mindestens ein Cache Modul kaputt ist, und eine Wahrscheinlichkeit, dass mindestens ein Shadercluster kaputt ist. Natürlich könnte man jetzt für jede vorkommende Kombination eine eigene Karte herausbringen (z.B. Nur 1 SMM deaktiviert, nur ein L2 Modul deaktiviert, 1 SMM und 1 L2 Cache Modul deaktiviert usw.). Das ist aber nicht rentabel und wäre auch total verwirrend für den Markt.

Statt dessen legt man eine bestimmte Konfiguration fest (in diesem Fall 1 L2 Modul und 3 SM Module deaktiviert) in der einerseits möglichst viele teildefekte Chips verwendbar sind, andererseits aber die Kompromisse für die Performance noch am tragbarsten sind. Ergo die GTX 970.
 
Zuletzt bearbeitet:
AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Aber man kann ja schlecht planen, dass genau dieser eine Part defekt ist und nicht mehr, oder?

Wäre die Karte 50 Euro teurer gewesen für die volle Speicheranbindung, hätte sich eigentlich auch keiner beschwert. Die Karte war ja so billig, dass AMD seine 290 Serie drastisch senken musste.

Sie werden wohl alles durchsimuliert haben. Man darf ja nicht vergessen, dass der 28nm Prozess ausgereift und nVidia 3 Jahre Erfahrung hat.
Wäre die Wahrscheinlichkeit so gering, dass bei knapp 400mm^2 die Memorycontroller fehlerhaft wären, hätte man wohl das selbe wie bei GK104 und Gk110 gemacht. Macht ja kein wirtschaftlichen Sinn Karten künstlich zu beschneiden, wenn dazu kein Grund vorliegt.
 
AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Die Erklärung empfinde ich als unverschämt. Erst wird die tatsächliche Beschaffenheit der Karte (bewußt?) verschwiegen, und nachem das aufgeflogen ist, wird auch noch Dankbarkeit erwartet.

Und als Gimpfel finden sich hier noch Personen, die die Vorgehensweise verteidigen. Solche Kunden wünsche ich mir für meine Firma auch. Was kann einer Firma besseres passieren, als Kunden, die sich gerne verarschen lassen.
 
AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Die Erklärung empfinde ich als unverschämt. Erst wird die tatsächliche Beschaffenheit der Karte (bewußt?) verschwiegen, und nachem das aufgeflogen ist, wird auch noch Dankbarkeit erwartet.

Ich finde es lustig, dass man es so interpretiert. Die naheliegende Interpretation ist doch, "wir fanden es besser, es so zu implementieren, als es uns einfacher zu machen und eine 3GB Karte zu bauen". Natürlich verlangt keiner dafür Dankbarkeit, denn letztlich lässt sich eine 4GB Karte besser vermarkten als ein 3 GB Karte.

Und natürlich muss uns keiner erzählen, dass es keine Absicht war, das kleine feine Detail zu unterschlagen, dass es de Fakto eigentlich nur eine 3,5 GB Karte ist. Das ist sicher unverschämt, zweifellos. Wurde 1000x geschrieben und wird sich nicht mehr ändern. Ein immer und immer weiteres Echauffieren ändert daran aber auch nichts mehr.

Und als Gimpfel finden sich hier noch Personen, die die Vorgehensweise verteidigen. Solche Kunden wünsche ich mir für meine Firma auch. Was kann einer Firma besseres passieren, als Kunden, die sich gerne verarschen lassen.
Ich habe hier niemanden gesehen, der nVidia's Vorgehensweise verteidigt. Du hast eine sehr merkwürdige Wahrnehmung.
 
AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Ihr missversteht ihn total...

Die Begrenzung des Caches durch das eine deaktivierte (da defekte) L2 Cache Modul hätte eigentlich eine 3 GB Karte zur Folge gehabt mit nur 6 parallel nutzbaren Segmenten. Durch den Trick, den die Ingenieure sich ausgedacht haben, können sie 3,5 GB mit 7 Segmenten parallel anbinden und die letzten 512 MB immerhin als zwar langsamen Puffer nutzen, der zumindest noch nen Tick schneller ist, als über PCIe auf das RAM zuzugreifen.

Die Lösung ist schon gut, aber die Kommunikation natürlich unter aller Sau!
Ironie?

Die Kommunikation als "unter aller Sau" zu bezeichnen ist eine nette Umschreibung, die um den heißen Brei herumredet. Sagen wir, wie es ist: Jemand in Entscheiderposition bei Nvidia hat sich bewusst für eine Täuschung entschieden.

Die Mitarbeiter der Firma, die es mitbekommen hatten, hatten entweder nicht den Willen, oder nicht die Durchsetzungskraft, auf ehrliche Spezifikationen zu pochen.


Dass Chips mit defekten L2-Modulen in nennenswerter Zahl anfallen, ist aufgrund der Diefläche und des ausgereifen Herstellungsprozesses bei 28 nm ziemlich unwahrscheinlich. Und kein Grund, fürs Marketing noch 512 MB anzutackern dessen Nutzung der Treiber nach Möglichkeit zu vermeiden versucht.

Es ist kein besonderer Trick oder eine besondere Ingenieurskunst von Nvidia, das Interface auf 224 Bit zu verkleinern. Das war auch gerade die Idee dahinter, damit garantiert ist dass die 970 nie die Performance einer 980 erreicht.

Die noch immer von Nvidia original angegebenen, aber falschen Daten stehen bis heute offiziell online, ohne nähere Erklärung.

Bei 32-Bit-Memorycontrollern mit jeweils eigenem L2-Cache besteht keine Notwendigkeit, auf 3 GB runterzugehen. Mr. Huang tut so, als sei die 3,5-er Lösung noch ein Bonus, "invented" von Nvidia. Es ging nicht darum, ein GB hinzuzufügen. Es ging darum, die 970 sanft zu beschneiden – von 256 auf 224 Bit – und fürs Marketing noch 512 MB Spaß-RAM anzutackern.
 
Zuletzt bearbeitet:
AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Es ist total unglaubwürdig dass das intern nicht diskutiert wurde. Ein Problem/Feature diesen Ausmaßes muss dem Marketing bekannt geweden sein. Dass die "Erklärung" erst jetzt kommt nachdem man vor dem Kadi steht ist bezeichnend und ich hoffe dass sie hart bestraft werden.
 
AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Es ist total unglaubwürdig dass das intern nicht diskutiert wurde. Ein Problem/Feature diesen Ausmaßes muss dem Marketing bekannt geweden sein. Dass die "Erklärung" erst jetzt kommt nachdem man vor dem Kadi steht ist bezeichnend und ich hoffe dass sie hart bestraft werden.

Ist das so?
Auch bei uns hat das Marketing keine Ahnung von technischen Details. Und wir sind um ein vielfaches kleiner als Nvidia und die Dienstwege sind sehr kurz was Kommunikation betrifft.
Die Experten sitzen nicht beim Verkauf/Marketing oder auf den Pressekonferenzen. Die Experten sind in aller erster Reihe die Entwickler (Hardware/Software) und dann kommen sogenannte "Application-/Productspecialists" die meist die Schnittstelle für Vertrieb/Marketing und Entwicklung sind. Die Job Bezeichnungen und deren Tätigkeit variiert natürlich in jeder Firma/Unternehmen, aber im groben wird es so gehandhabt.

Eine Mischung aus verschweigen auf der einen Seite und Unwissenheit auf der andern wird die Ursache sein.
Was es in keiner Weise rechtfertigt das so etwas passiert! :nene:
 
AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Ironie?

Die Kommunikation als "unter aller Sau" zu bezeichnen ist eine nette Umschreibung, die um den heißen Brei herumredet. Sagen wir, wie es ist: Jemand in Entscheiderposition bei Nvidia hat sich bewusst für eine Täuschung entschieden.

Wegen dem Posting hast Du Dich jetzt extra hier angemeldet? Wahnsinn.

Nein, keine Ironie.

Ich komme mir schon langsam deppert vor, weil ich in fast jedem meiner Postings Declaimer-mäßig schreibe, dass ich es in keiner Weise gut finde, was nVidia gemacht hat. Ich habe auch schon ich-weiß-nicht-wie-oft geschrieben, dass ich mir sicher bin, dass dies kein "Versehen" sondern eine absolut bewusste Aktion des Management war und dass das mit die dümmste Entscheidung war, die man hätte treffen können.

Jetzt schreibe ich einmal 'nur' dass es unter aller Sau war statt den ganzen Sermon und schon kommst Du aus dem 3DC hier her gekrochen, um mir wieder zu unterstellen, ich würde nVidia's Entscheidung hier in irgendeiner Weise unterstützen oder zumindest nicht hart genug verurteilen.

Eigentlich halte ich mich schon seit Wochen aus der Diskussion raus, weil es nur noch nervt. Dann kommen aber wieder Leute angestürmt werfen Steine und schwingen Mistgabeln, missverstehen vor lauter Schaum vor dem Mund die technischen Aspekte der Aussage von Jen-Hsun Huang schlicht falsch und machen sich über ihn lustig ohne zu merken, dass sie sich gerade selbst lächerlich machen....

Wenn man sich über Huang aufregt, dann bitte wegen der haarsträubenden Entscheidung, die er zumindest mit getragen haben muss. Dieses kindische "der Mann hat ja keine Ahnung" hier im Thread ist dagegen einfach nur peinlich.

Interessant finde ich ja, dass Du Dich so einfach mal hinstellst, und als Fakt behauptest
Dass Chips mit defekten L2-Modulen in nennenswerter Zahl anfallen, ist aufgrund der Diefläche und des ausgereifen Herstellungsprozesses bei 28 nm ziemlich unwahrscheinlich.

Wunderbar, dass Du so gut über den Herstellungsprozess und den Ausschuss Bescheid weißt.

Außerdem macht die Argumentation keinen Sinn: Die GTX 970 ist ja nicht primär wegen des fehlenden L2 Cache spürbar langsamer als die 980 sondern wegen den 3 fehlenden Shaderclustern. Das fehlende L2 Modul alleine kostet ja nur in Situationen mit voller Abhängigkeit von der Speicherbandbreite schlimmstenfalls 1/8 der Leistung. Erst bei Nutzung von mehr als 3,5 GB bricht die Leistung zeitweise nochmal deutlich stärker ein. Jetzt erklär mir mal, wieso man diese Einschränkung bitte absichtlich hätte herbeiführen sollen, nur um sich gegen die 980 abzusetzen, wenn sie in den meisten Benchmarks - bei denen weniger als 3,5 GB genutzt werden - unsichtbar ist und deswegen kaum als Mittel tauglich ist, darzustellen wie viel besser die teure 980 ist?

Ich sehe schlicht überhaupt keinen Grund für nVidia den L2 Cache zu deaktivieren, wenn es dafür nicht klare Gründe durch die Chip-Ausbeute gibt.


Zu dem Thema technische Daten gibt es an anderer Stelle hier im Forum ausführliche Diskussionen. Das wärm ich jetzt nicht nochmal auf.
 
AW: GTX 970: Berichte über nur 3,5 GiByte nutzbarer VRAM

Wegen dem Posting hast Du Dich jetzt extra hier angemeldet? Wahnsinn.

Nein, keine Ironie.

Ich komme mir schon langsam deppert vor, weil ich in fast jedem meiner Postings Declaimer-mäßig schreibe, dass ich es in keiner Weise gut finde, was nVidia gemacht hat. Ich habe auch schon ich-weiß-nicht-wie-oft geschrieben, dass ich mir sicher bin, dass dies kein "Versehen" sondern eine absolut bewusste Aktion des Management war und dass das mit die dümmste Entscheidung war, die man hätte treffen können.

Jetzt schreibe ich einmal 'nur' dass es unter aller Sau war statt den ganzen Sermon und schon kommst Du aus dem 3DC hier her gekrochen, um mir wieder zu unterstellen, ich würde nVidia's Entscheidung hier in irgendeiner Weise unterstützen oder zumindest nicht hart genug verurteilen.
Angemeldet bin ich seit 2010.

Wenn jemand zu täuschen versucht, und das als "Kommunikation unter aller Sau" bezeichnet wird, trifft es das nicht.

Eigentlich halte ich mich schon seit Wochen aus der Diskussion raus, weil es nur noch nervt. Dann kommen aber wieder Leute angestürmt werfen Steine und schwingen Mistgabeln, missverstehen vor lauter Schaum vor dem Mund die technischen Aspekte der Aussage von Jen-Hsun Huang schlicht falsch und machen sich über ihn lustig ohne zu merken, dass sie sich gerade selbst lächerlich machen....

Wenn man sich über Huang aufregt, dann bitte wegen der haarsträubenden Entscheidung, die er zumindest mit getragen haben muss. Dieses kindische "der Mann hat ja keine Ahnung" hier im Thread ist dagegen einfach nur peinlich.

Interessant finde ich ja, dass Du Dich so einfach mal hinstellst, und als Fakt behauptest

Wunderbar, dass Du so gut über den Herstellungsprozess und den Ausschuss Bescheid weißt.

Außerdem macht die Argumentation keinen Sinn: Die GTX 970 ist ja nicht primär wegen des fehlenden L2 Cache spürbar langsamer als die 980 sondern wegen den 3 fehlenden Shaderclustern. Das fehlende L2 Modul alleine kostet ja nur in Situationen mit voller Abhängigkeit von der Speicherbandbreite schlimmstenfalls 1/8 der Leistung. Erst bei Nutzung von mehr als 3,5 GB bricht die Leistung zeitweise nochmal deutlich stärker ein. Jetzt erklär mir mal, wieso man diese Einschränkung bitte absichtlich hätte herbeiführen sollen, nur um sich gegen die 980 abzusetzen, wenn sie in den meisten Benchmarks - bei denen weniger als 3,5 GB genutzt werden - unsichtbar ist und deswegen kaum als Mittel tauglich ist, darzustellen wie viel besser die teure 980 ist?

Ich sehe schlicht überhaupt keinen Grund für nVidia den L2 Cache zu deaktivieren, wenn es dafür nicht klare Gründe durch die Chip-Ausbeute gibt.

Zu dem Thema technische Daten gibt es an anderer Stelle hier im Forum ausführliche Diskussionen. Das wärm ich jetzt nicht nochmal auf.
Der 28-nm-Prozess ist schon lange in Nutzung. Der GM204 kam direkt in der Tape-Out-Version, ohne weitere Revision. Um den Grund, warum ein L2-Block abgeschaltet ist, geht es allerdings nicht. Der Aufreger ist Nvidias offizielle 970-Spezifikation.

Meine ausführliche Erklärung zur Teildeaktivierung gibts in der 3DCenter-Kolumne: Kommentar: Nvidia interessiert sich nicht für Geforce-Käufer | 3DCenter.org

Speziell zu Huangs Argumentation mit "invented a new memory architecture in Maxwell". 32-Bit-Granularität gab es schon bei der Geforce 3. Vom Interface 1/8 zu deaktivieren wurde bei der GTX 260 und 275 gemacht. Trotz einem krummen Interface eine glatte RAM-Größe zu verbauen wurde mit der GTX 660 Ti gemacht. Was wurde bitte "invented"? Es ging bei der 970 auch nicht wie Huang schreibt um 3 vs 4 GB, sondern 3,5 vs 4 GB.

Nvidia gibt das Interface noch immer GeForce GTX 970 | Specifications | GeForce mit 224 GB/s an, obwohl das nicht stimmt. Es ist auch kein 256-Bit-Speicherinterface wie Nvidia noch immer, wider besseres Wissens, behauptet. Es fehlt 1/8 des L2-Caches und damit 1/8 der GPU-zu-L2-Bandbreite, sowie 1/8 der L2-zu-Speicher-Bandbreite. Und dann kommt Huang an und redet von "invented". Das einzige was invented wurde, sind falsche Specs. Doch du schreibst
Ihr habt wohl nur ein Problem ihn zu verstehen. Evtl. weil es eine Fremdsprache ist?
 
Zurück