Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

AW: Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

Meine Güte dann will ich auch mein Geld von Apple, Crucial und Western Digital zurück. Natürlich ist das echt blöd seitens Nvidia.

Mal schauen wo ich überall beschissen wurde:

Apple iPhone 5s 32gb= real nur 27,4gb
Apple iPad mini 2 Retina 16gb= real nur 12,0gb
Western Digital WD20EARX 2TB= real nur 1,81tb
Crucial M500 240gb= real nur 223gb

Man wird doch überall beschissen. Jetzt halt auch bei Grafikkarten. Wo ist denn da der große Aufschrei bitteschön. Sollte es eigentlich geben.

Zum Glück habe ich mich für eine GTX 980 entschieden. Der Aufpreis von 200€ war es mir Wert, kein teilkastrierten Chip zu erwerben. Und durchschnittlich habe ich gegenüber der GTX 970, 10fps mehr.
 
AW: Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

3.5GB @ 196GB/s + 512MB @ 28GB/s !
Da sind die oberen 512Mb ja 1/7 so schnell. Kann das sein ?

Wie man es nimmt, es sind 6x 512MB mit je 32Bit angebunden und dann teilen sich zwei 512MB Speicherchips eine 32 Bit Leitung. Man kann es also so sehen das 1024 MB mit 32 Bit angebunden sind, 2x512 MB mit effektiv je 16Bit oder 1x 512MB mit 0 Bit und dem einen Speicherchip auf den Sack geht wenn er was braucht. Ich denke letzeres kommt am ehesten hin, allerdings auch nur wenn die 4096MB auch wirklich voll genutzt werden.

EDIT:
Um deine Frage zu beantworten:
die oberen 512MB haben defakto garkein eigenes Speicherinterface, sie schmarotzen bei den 512MB darunter mit, siehe auch das Schaltbild von Nvidia:
Weitere Benchmarks zur Geforce GTX 970 und dem 3,5-GiByte-"Modus" - eine (zu späte) Aufklärung - Bildergalerie, [SMM_Diagramm-pcgh.jpg]
 
Zuletzt bearbeitet:
AW: Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

Ich habe mich echt gewundert warum ich in "Mordors Schatten" bei 3,5 GB heftige Ruckler hatte. Jetzt wo die "neuen" Konsolen draußen sind und sich Ubisoft und co. keine Mühe mehr beim Programmieren geben sind die 500 MB gar nicht so unwichtig... Ich hoffe ein neuer Treiben wird die Nutzung des Speichers optimieren.

Ähnlich auch bei FarCry 4. Hab mich auch immer gewundert warum das Spiel nach einer gewissen Spielzeit richtig einbricht. Hab da jetzt nochmal getestet. Das Spiel beginnt schon mit 3 Gb Vram auslastung (bei 1800x2450 Auflösung) und ist dann nach kurtzer Spielzeit über die 3,5 Gb. Genau da beginnt das Problem.
 
AW: Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

Meine Güte dann will ich auch mein Geld von Apple, Crucial und Western Digital zurück. Natürlich ist das echt blöd seitens Nvidia.

Mal schauen wo ich überall beschissen wurde:

Apple iPhone 5s 32gb= real nur 27,4gb
Apple iPad mini 2 Retina 16gb= real nur 12,0gb
Western Digital WD20EARX 2TB= real nur 1,81tb
Crucial M500 240gb= real nur 223gb

Man wird doch überall beschissen. Jetzt halt auch bei Grafikkarten. Wo ist denn da der große Aufschrei bitteschön. Sollte es eigentlich geben.

Zum Glück habe ich mich für eine GTX 980 entschieden. Der Aufpreis von 200€ war es mir Wert, kein teilkastrierten Chip zu erwerben. Und durchschnittlich habe ich gegenüber der GTX 970, 10fps mehr.
Man muss sich auch nicht alles gefallen lassen, gelle. Denn dann wirst du beim nächsten Kauf vielleicht weniger beschissen, egal um was es geht...;) @PCGH_Thilo: danke für die Info, mein Jurist liest da auch nochmal drüber:D

Gruß
 
AW: Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

Angesichts dessen das wir hier über real vermutlich unter 10% weniger reden und das auch nur wenn die 3,5Gb überschritten wurden, sind 50€ eigentlich schon reichlich. Bleibt natürlich eine Unverschämtheit von Nvidia und eine kostenloses Upgrade auf die GTX 980 wäre der Hammer.

Das die Händler mit Nvidia ein Wörtchen reden werden wie denn der gezahlte Schadensersatz wieder reinkommt dürfte selbstverständlich sein.

Die Preise für die GTX980 beginnen z.Zt. bei ~500 Euro, (geizhals Link), ich würde ohne Umschweife einen 100 Euro Gutschein für den Erwerb eines Referenzmodells (oder pauschal für eine Neuentwicklung von Nvidia im HighEnd Sektor :cool:, gültig bspw. für die nächsten 3 Jahre) akzeptieren. Im letzteren Falle käme der Gutschein einer Geldeinlage gleich. Wer weiß, falls TTIP (wikipedia) realisiert wird, sind heute 100 Euro morgen vielleicht mehr wert. Doch wollen Kunden zu Börsen-, Politik- oder nur Währungsspekulanten werden ? Ich denke nein.

Caseking :daumen: hatte eine GTX970 im Referenz-Design selbst in Auftrag gegeben bzw. produzieren lassen, für Verkaufspreis ~400 Euro, da hätte der Kunde noch einen Preisvorteil, deshalb sagen wir 75 Euro, um den Abstand wiederherzustellen, dann läge der Kundenanteil bei 425 Euro. Hm, viel Geld.

Es wird mit Sicherheit eine Frist-Sperre geben, damit nicht die Trittbrettfahrer sich schnell eine (abgestossene) GTX970 holen um preisgünstig an die GTX980 zu kommen.

Aus Händlerperspektive ist v.a. die Menge an potentiellen Rückläufern an GTX970 zu bedenken, ich sehe das buchhalterisch, einen Teil davon lässt sich aufgrund der "höheren Gewalt" etc. abschreiben, der Großteil könnte - je nachdem wie sich Nvidia entscheidet und welche Marketing-Schiene verfolgt wird - weiterhin als attraktive Mittel-/Endklasse im Markt landen, um den Konkurrenten AMD Paroli zu bieten.

Schätze, falls es zu einer Kundenvergütung kommt, wird dieser Betrag entweder symbolisch sein oder auf handfesten Berechnungen basieren, entweder aufgrund rechtsanwaltlicher Beratung (in den USA oder zielländerbezogen) im Sinne einer Anrechnung der Beschreibungs- bzw. Leistungsmängel. Die dritte Option ist, wie es bisher bei der Preisgestaltung zur Konkurrenz war, dass die Höhe der Kundenvergütung auf das Preisniveau zu AMD positioniert wird. Demnach eine strategische Entscheidung, den Imageschaden kämpferisch zu beantworten.

Meiner Meinung ist klar, dass die Kunden wie potentiellen Käufer den Markt sehr genau im Blick haben, Testergebnisse der Redaktionen liefern Indexwerte für die Preis-Leistung, es gibt eine gefühlte Wertigkeit für jede Hardware Komponente, es gibt Phasen des Hype (v.a. bei Neuerscheinungen) wie es Schwankungen bei der Währungsumrechnung, Nachfrage und Lieferverfügbarkeit gibt.

Eine "Schwemme" von Rückläufern bei den Händlern drückt v.a. den Wert im Sinne von Wiederverkaufspreisen. Auf eBay konnte ich noch kein Indiz entdecken, in der Weise, dass es zu einem "Abstoß" der GTX970 käme. Die Aussagekraft der Gebrauchtangebote dort wäre vermutlich ohnehin nur gering, weil eine kleinere Klientel diesen Weg beschreitet.
 
AW: Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

EDIT:
Um deine Frage zu beantworten:
die oberen 512MB haben defakto garkein eigenes Speicherinterface, sie schmarotzen bei den 512MB darunter mit, siehe auch das Schaltbild von Nvidia:
Weitere Benchmarks zur Geforce GTX 970 und dem 3,5-GiByte-"Modus" - eine (zu späte) Aufklärung - Bildergalerie, [SMM_Diagramm-pcgh.jpg]
Gerade das nicht. Alle 512-MiB-Blöcke haben einen eigenen 32-Bit-Kanal zum Speichercontroller, einer muss sich jedoch eine 8×-ROP und ein 256-KiB-L2-Segment mit einem zweiten 32-Bit-Kanal teilen, da in der GTX 970 sein „eigenes“ ROP/L2-Segment deaktiviert wurde; ansonsten haben alle ein eigenes solches Segment. Nvidia möchte nun ein vorzeitiges Verstopfen dieser Engstelle verhindern und nutzt die 512 MiB, die am deaktivierten ROP/L2-Segment hängen, nur im Notfall.

Aus dem Grund ist die 256-Bit-SI-Aussage (die ja breitflächiger beworben wurde als die ROP-Anzahl und die L2-Größe - letztere habe ich bisher auf keiner 970-Verpackung gesehen) ja auch nicht pauschal und tutto completto falsch. Sie ist jedoch auf jeden Fall nicht vergleichbar mit dem, was man aufgrund der 256-Bit-Interfaces der Vergangenheit eigentlich hatte erwarten können.
 
Zuletzt bearbeitet:
Spielewelt vs. Distributed Computing

ich denke mal viele holen sich eine nv karte weil sie deren vorzüge wollen, also cuda, dsr, bessere treiber (meine feststellung, bitte kein shitstorm deswegen) oder einfach nur weil viele spiele nv besser unterstützen wegen diesem öhm nvidia spiel programm (komme gerade nicht auf den namen), daneben sind sie schnell, leise und eben sparsam... ob und wie die specs im inneren nun aussehen ist mir sowas von schnurz, hauptsache die karte rennt, und das tut sie...

Mein Einblick reicht in die DC Szene, dort zählen andere Fakten als fps. Und ja, das VRAM Problem ist dort bisher nicht relevant aufgeschlagen, doch das kann sich schnell ändern, die Anschaffungen dort werden weniger für Monate als für Jahre getätigt und auf zugesagte Spezifikationen will man sich verlassen können.

AMD kann schlicht kein CUDA. In OpenCL - für DC Berechnungen, dies als Einschränkung - hatte AMD die Leistung der Nvidia Konkurrenz in preislicher Sicht überboten, mit den Maxwell Karten zog Nvidia nach und überholte erneut, Kategorie Leistung resp. Punkte pro Watt, der Zeitfaktor wie der Energieeinsatz spielt dabei eine große Rolle. Ja, hier auf einer Spiele-Plattform sind solche Überlegungen off topic.

Doch es gibt eine Welt abseits Bildwiederholraten, die Institute für Krankheitsforschung und Medikamentenentwicklung zählen stark auf die ehrenamtlichen Helfer mit ihrer Grafikleistung. Bei Nvidia war CUDA lange Zeit ein Marketing Zugpferd. Für mich erstaunlich wie Nvidia es geschafft hat, beide Welten mit der Maxwell Entwicklung konfliktfrei zu verknüpfen, mehr Leistung bei weniger Stromaufnahme. In der DC Szene gibt es zudem den Ansatz, sich in der Modellvielfalt beider Hersteller, Nvidia wie AMD, zu bedienen, um die für die Projektanforderungen jeweils mit der optimalen Hardware zu erfüllen.

Spieleanforderungen sind durchaus vergleichbar für die Käufer, man will das Spiel XY auf höchster Auflösung mit maximalen Details zocken können. Ein DCler will die Workunit X des Projekt Y in kürzester Zeit mit maximaler Punktzahl durchrechnen lassen. Der Unterschied ist eher die physische Präsenz vor dem Bildschirm. :haha:
 
AW: Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

Gerade das nicht. Alle 512-MiB-Blöcke haben einen eigenen 32-Bit-Kanal zum Speicher, einer muss sich jedoch eine 8×-ROP und ein 256-KiB-L2-Segment mit einem zweiten 32-Bit-Kanal teilen, da in der GTX 970 sein „eigenes“ ROP/L2-Segment deaktiviert wurde; ansonsten haben alle ein eigenes solches Segment. Nvidia möchte nun ein vorzeitiges Verstopfen dieser Engstelle verhindern und nutzt die 512 MiB, die am deaktivierten ROP/L2-Segment hängen, nur im Notfall.

Aus dem Grund ist die 256-Bit-SI-Aussage (die ja breitflächiger beworben wurde als die ROP-Anzahl und die L2-Größe - letztere habe ich bisher auf keiner 970-Verpackung gesehen) ja auch nicht pauschal und tutto completto falsch. Sie ist jedoch auf jeden Fall nicht vergleichbar mit dem, was man aufgrund der 256-Bit-Interfaces der Vergangenheit eigentlich hatte erwarten können.

Gut, das jeder Speichbaustein mit 32 Bit angesteuert werden muß ist klar. Das Problem ist doch das er sich die Sache irgendwie mit dem anderen teilen muß und die Sache effektiv auf 1x32 Bit rausläuft und nicht 2x32 Bit, denn sonst läge doch eigentlich kein (leistungs) Problem seitens des Speichers vor und Nvidia könnte sich bequem zurücklehen.

Irgendwoher muß doch der fehlende Speicherdurchsatz kommen, der scheinbar einem 32Bit Interface entspricht. In deinem Artikel steht auch "im standardmäßigen 3,5-GiByte-Modus nur sieben- und nicht achtfach parallel, sodass die Performance für Zugriffsblöcke, die größer als 7× der Stride-Size sind, entsprechend sinkt", so wie es aussieht können sie aber garnicht achtfach parallel arbeiten, was für ein "echtes" 256 Bit Interface notwendig wäre.

Fragen über Fragen, ich hoffe du kannst mir helfen da etwas Licht ins dunkel zu bringen.
 
AW: Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

Übrigens nimmt caseking keine Karten zurück die mit wakü umgebaut worden sind, auch nicht bei Montage des Orginalkühlers.
 
AW: Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

EDIT: (unsere sind von Caseking.de ohne irgendwelche änderungen).

Also eine meiner GTX 970 (Bruder) geht auf jeden fall zurück weil sie etwas Spulenfiepen hat. Leider ist die gleiche Karte heute 10€ teurer (angeblich hat evga, aber auch was an den Spulen gemacht).

Meine Karte betrachte ich mit gemischten gefühlen. 3,5 gb hin oder her. Sie läuft aus der Box mit 1392- 1404 Mhz und funktioniert ohne fiepen. Für ne 980 müsste ich erstmal 180€ mehr locker machen für einen de facto nicht spürbaren FPS boost.

Ich warte erstmal was da so kommt. 100€ würde ich ja noch drauflegen für ne GTX 980 einfach weil sie schneller ist. Die Situation macht mich nicht grade glücklich vor allem weil die "idiotie der menschen" jetzt aus einer top P/L Karte eine solche macht, die beim Wiederverkauf einfach einen faden beigeschmack haben wird, grade für ehr unwissende user.

=> Ich denke es tut der 970 als Single GPU keinen Abbruch. Aber weil ich Hardwaregeil und egoistisch bin werde ich natuerlich eventuelle Vorteile mit nutzen. Insofern mal danke für den "Aufstand"
 
Zuletzt bearbeitet:
AW: Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

Meine Güte dann will ich auch mein Geld von Apple, Crucial und Western Digital zurück. Natürlich ist das echt blöd seitens Nvidia.

Mal schauen wo ich überall beschissen wurde:

Apple iPhone 5s 32gb= real nur 27,4gb
Apple iPad mini 2 Retina 16gb= real nur 12,0gb
Western Digital WD20EARX 2TB= real nur 1,81tb
Crucial M500 240gb= real nur 223gb

Du solltest solche Vergleiche sein lassen.
Das bei Smartphones wegen OS und Programmen nicht die ganzen GB zur verfügung stehen, sollte jedem voll Horst klar sein.
Wenn ein HDD Hersteller 2 Terrabyte andgibt bekommst du auch 2 Terrabyte. Windows zeigt die Byte lediglich in Binärpräfixe statt in Dezimalfräfixe. And der TB Menge ansich ändert das nichts.
 
AW: Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

Gut, das jeder Speichbaustein mit 32 Bit angesteuert werden muß ist klar. Das Problem ist doch das er sich die Sache irgendwie mit dem anderen teilen muß und die Sache effektiv auf 1x32 Bit rausläuft und nicht 2x32 Bit, denn sonst läge doch eigentlich kein (leistungs) Problem seitens des Speichers vor und Nvidia könnte sich bequem zurücklehen.

Irgendwoher muß doch der fehlende Speicherdurchsatz kommen, der scheinbar einem 32Bit Interface entspricht. In deinem Artikel steht auch "im standardmäßigen 3,5-GiByte-Modus nur sieben- und nicht achtfach parallel, sodass die Performance für Zugriffsblöcke, die größer als 7× der Stride-Size sind, entsprechend sinkt", so wie es aussieht können sie aber garnicht achtfach parallel arbeiten, was für ein "echtes" 256 Bit Interface notwendig wäre.

Fragen über Fragen, ich hoffe du kannst mir helfen da etwas Licht ins dunkel zu bringen.

Stand jetzt hat die GTX 970:
• 8×4 GBit GDDR5-RAM (256 Bit addiert)
• 8×32 Bit Speichercontroller (256 Bit addiert)
• 7×8 Rasterendstufen (56 addiert)
• 7×256 kiB L2-Cache (1.792 kiB addiert)


Die beiden letzteren weichen von den kommunizierten Specs nach unten hin ab.

Doch solange nicht mehr als 3,5 GiB Videospeicher belegt werden, nutzt die Treiberansteuerung nur die sieben Speichercontroller, die über ein eigenes, volles L2/ROP-Segment verfügen, also 224 Bit. Nur bei Zugriffen mit weniger als 8×Stride Size (also weniger als 8 kiB wie im Beispiel-Diagramm von Nvidia) gibt es da keinen Unterschied zum 256-Bit-Interface (das würde 7 kiB halt auch auf die ersten sieben Controller verteilen und dann kommt ein neuer Zugriff). Wahrscheinlich sind aber nicht wenige Zugriffe größer als diese 7 kiB, denn auch um Zugriffe zu bündeln und so die theoretisch zur Verfügung stehende Transferrate optimal zu nutzen sind ja letztlich die komplizierten Cache-Strategien da.

Wird wirklich (und nicht nur als Optimierungsspielraum) mehr als 3,5 GiByte Videospeicher benötigt, schaltet der Treiber auch den verbleibenden Memory-Controller hinzu, denn trotz langsamerer Gesamtperformance ist das noch immer schneller, als wenn man weiter mit 3,5 GiByte arbeiten würde und den Rest dauernd über den PCI-Express hin- und herschaufelt. Nvidia gibt an, dass der Treiber versucht, im „4-GiB-Modus“ die Daten so zu verteilen, dass der benachteiligte Speicherbereich mit Daten gefüttert wird, auf die seltener Zugegriffen werden muss, zum Beispiel bleibt der Framebuffer innerhalb der schnelleren 3,5-GiByte-Partition.

edit:
Nvidia sagt weiterh, dass die L2-Partition mehr Transferrate besitzt als nötig wäre (nicht jedoch, wieviel mehr), um den einen Speichercontroller/-baustein zu versorgen. Ob das nun auf eine „31/32“- oder eine „1/32“-Bit-Versorgung der benachteiligten 512 MiByte hinausläuft ist unklar. Es gibt so etwas wie einen Fast-Path für Memory-Reads, diesen kann der L2 wohl nicht für beide 32-Bit-Controller bedienen.


Ist es so verständlicher?
 
AW: Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

Bei über7.000.000.000 Menschen auf dieser Erde kann man wohl davon ausgehen, das mehr als 2 Personen bei Nvidia für den Support zuständig sind.
Ein zig Millarden schweres Unternehmen sollte mehr und zuverlässige Leute einstellen können. Support ohne Wartezeiten kann man heute also erwarten.
 
AW: Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

So langsam interpretiert ihr jedes Problem direkt auf die Karte. Kann das ein? :ugly:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Oder hat die CPU nen Bug, oder die Platte, oder der RAM oder das Board oder oder oder...
Ein Fall für die Illuminaten. :D :D :D

Ich hab ausdrücklich gesagt, dass ich mir nicht bewusst bin, ob die Karte daran schuld ist.
Ich habe nichts falsches gesagt, weder ein geflame. Dein Post war wiederrum lediglich deine klassische Ausdrucksweise zu diesem Thema, denn du schon seit gefühlt 1000 Posts fabrizierst und mir schon auf den Geist geht. Ihr reagiert komplett über, weil Nvidia zugegebenermassen einen Bock geschossen hat, einige sich nun aufregen, ihr vermutlich gekränkt seid, dass Nvidia nun so fertig gemacht wird und wiederrum euch verteidigen müsst, dass ihr eure 970 behalten werdet, was ich zumindest niemandem übel nehmen werde. Weitere Diskussionen lohnen sich nicht und ich verweise einfach nur auf den schlauen Beitrag von jasper.
 
Zuletzt bearbeitet:
AW: Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

256-Bit-Interface bedeutet doch aber, dass ich eine Speicheranbindung bekomme welche mit einer 256 Bit Anbindung arbeitet
was aber nicht gegeben ist

von daher müsste es doch so angegeben werden wie es bei Geizhals nun der Fall ist : "Achtung! Nur 3.5GB performant nutzbar: 3.5GB @ 196GB/s (224bit) + 512MB @ 28GB/s (32bit)"

"256 Bit Interface" bedeutet zunächst, dass die Speicherbausteine mit 256 Datenleitungen an die GPU/den Speichercontroller angebunden sind - was der Fall ist. Es macht keine Aussage über die Verbindung zwischen den Speichercontrollern und den Recheneinheiten auf der GPU.

Derartige Situationen sind auch keine Seltenheit in der IT-Welt. AMD zum Beispiel verkauft seit langer Zeit die 790/890/990FX-Chipsatz-Baureihe mit einer Grafikkartenanbindung von "2x 16 Lanes". Das wäre, bei PCI-Express 2.0, eigentlich eine Anbindung mit insgesamt 16 GB/s Bandbreite. Aber angegeben ist eben nur die Bandbreite zum Chipsatz selbst. Die weitere Verbindung zur CPU und damit dem Speichercontroller schafft nur 10,4 GB/s und fehlt in Werbetexten in der Regel.
Auch gerne verschwiegen wird das Abstraktionslevel, für das die Angabe gilt. Für PCI-Express und SATA findet man oft die reine Bitrate der elektrischen Verbindung, seltener die Brutto-Datentransferrate, bei der zumindest die zusätzlich für Fehlerkorrekturen benötigten Bits herausgerechnet sind. Aber niemand gibt die tatsächlich für Nutzdaten verfügbare Bandbreite an, dabei kann der Verwaltungs- und Protokolloverhead gerade bei PCI-E beachtliche Ausmaße erreichen. Reinhard hat zum Beispiel an 6 GBit/s SATA-Schnittstellen bislang maximal 570 MB/s erreicht, an 10 GBit/s PCI-Express-Schnittstellen maximal 750 MB/s.

Fazit: Man sollte lieber seriöse Tests zu Rate ziehen und sich nicht auf theoretische Spezifikationen verlassen. Innerhalb einer Generation erlauben diese meist einen groben Vergleich, aber Generations- oder gar Herstellerübergreifend zieht man schnell falsche Schlüsse. Zum Beispiel sind die Einstellungen, in denen ein Spiel zwischen 3,5 und 4 GB Speicher benötigt bei Nvidia und AMD nicht zwingend identisch, da beide Hersteller unterschiedliche Kompressionsverfahren nutzen. Gut möglich, dass die GTX 970 auch mit "echten 4 GB" ins Speicherlimit laufen würden, wo eine R9 290X noch volle Leistung bietet oder das sie umgekehrt mit ihren 3,5 GB auskommt, wo einer Radeon die 4 GB ausgehen. Ohne gezielte Tests kann man das nicht sagen.
 
AW: Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

Ich hab ausdrücklich gesagt, dass ich mir nicht bewusst bin, ob die Karte daran schuld ist.
Ich habe nichts falsches gesagt, weder ein geflame. Dein Post war wiederrum lediglich deine klassische Ausdrucksweise zu diesem Thema, denn du schon seit gefühlt 1000 Posts fabrizierst und eig einem jedem schon auf den Geist geht.

Ich glaub du hast hier wesentlich mehr Postings zum Thema hinterlassen, als ich. Aber wir können ja gerne einmal nachzählen. [emoji14]

Zum Anderen scheinst du der Einzige zu sein, dem meine Postings "auf den Geist gehen.

Ich hab legentlich darauf hingewiesen, das man nicht gleich alles sofort nu auf die Karte schieben soll. So kommt es nämlich einem hier so langsam vor. :ugly:

Daher hab ich (weil man hier ja alles extra noch belegen muss, damit einem Gehör geschenkt wird), das Video mit verlinkt.
Also sei nicht sofort beleidigt, wenn man auf etwas freundlich hinweist. ;)
 
AW: Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

Wo bleibt eigentlich die offizielle Stellungnahme von Nvidia? Die sollte doch eigentlich gestern schon kommen?
 
AW: Geforce GTX 970: Rückerstattung oder nicht? Caseking prescht vor

Ich glaub du hast hier wesentlich mehr Postings zum Thema hinterlassen, als ich. Aber wir können ja gerne einmal nachzählen. [emoji14]

Zum Anderen scheinst du der Einzige zu sein, dem meine Postings "auf den Geist gehen.

Ich hab legentlich darauf hingewiesen, das man nicht gleich alles sofort nu auf die Karte schieben soll. So kommt es nämlich einem hier so langsam vor. :ugly:

Daher hab ich (weil man hier ja alles extra noch belegen muss, damit einem Gehör geschenkt wird), das Video mit verlinkt.
Also sei nicht sofort beleidigt, wenn man auf etwas freundlich hinweist. ;)

Können wir und bezweifle ich, mach ich aber nicht, da wir uns dann beide wirklich wie Kinder benehmen würden ^^

Das Video bringt mir nichts. Was soll ich damit anfangen? Bei mir ruckelts und du weist doch hoffentlich, dass Videos über Youtube nichts zeigen können. Wenn ich dir mein Spielfeeling zeige, wirst du das, was bei mir passiert, auch nicht sehen können, auser es passiert zufälligerweise dann das klassische Standbild von 4-5sec...
Meine Überlegung ist jetzt, dass ich das Spiel mal auf die Samsung SSD installiere, anstatt auf die Crucial, aber das sei mal nun OT.

Ich bin mir bewusst, dass ich mich irren könnte, aber damals, als die 970 rauskam und ich sie mir holte, hatte ich, aus unergründlichen Gründen, von Anfang an das Gefühl (ich hatte ja mehrere GTX970), dass es weniger flüssig läuft als Kepler. Weshalb meine Vermutung nun darauf liegt, dass es mit dem Streitthema Nummero Eins zu tun hat. Geschrieben habe ich darüber schon eher, bevor das Thema hier so groß wurde, ja auch im englischsprachigen Nvidia-Forum habe ich mich unterhalten und dort war es auch schon Thema Nummer Eins. Was nun Fakt und Tatsache ist, ist klar. Es dürfte nicht wegen dem Streitthema Nummer Eins sein, also keine Ahnung, was Sache ist :ka:
 
Zurück