Geforce GTX 980 Ti: Angeblich sicher mit 6 GiByte VRAM

Ich würd mich nicht darauf verlassen dass der Euro in nächster Zeit nochma steigt.
Ich gehe derzeit eher davon aus, dass der Kurs Ende des Jahres bei 1:1 steht. Hoffentlich hab ich damit Unrecht, aber ich kauf meine Karte ohne den Gedanken im Hinterkopf, dass der Euro vielleicht bald wieder springt und ich die Karte ja vielleicht in nem Monat viel günstiger bekommen könnte.

Zu AMD: auch wenn sie im Juni tatsächlich die 390x vorstellen, dann hätten sie sollen mehr Gas geben. Eigentlich wollte ich ne GTX970. Wollte die Ende Januar bestellen und hatte sie schon im Warenkorb. Entschied mich dann aber noch ne Nacht drüber schlafen und am nächsten Tag kam das mit dem VRam ans Tageslicht. An der R9 290 hatte ich kein Interesse, weil die Karte mir eigentlich zu alt ist. Die GTX980 hat mir zu wenig Speicher für den Preis. Jetzt wird's eben das, was als nächstes auf den Markt kommt.
 
Zuletzt bearbeitet:
Würde mich bei Ngreedia nicht wundern. Aber sie wissen nun dass die Leute wissen dass Nvidia sie gerne mal bescheisst. Also werden sie die 980Ti auch als 5 GB Karte vermarkten. Wenn hier manche glauben dass Ngreedia die 980Ti als vollwertigen GM200 bringen wird, ist sowieso ein Träumer. Die Bezeichnung GM200-301 sollte schon Indiz genug sein, dass es sich hier um den abgespeckten Chip handelt. Und anders als bei der GTX 780 werden hier nicht nur RAM und Cuda-Kerne beschniten. Eine ganze Rasterengine wird deaktiviert. Wodurch man die Ausbeute extrem erhöhnt. Ich würde mich nicht wundern wenn eine 699-749$ (Ohne Steuer) GTX 980Ti mit 5GB einen grösseren Gewinn pro Karte werfen würde als die Titan X. Ngreedia ist, muss man ungeniert zugeben, ein Meister darin die Kundenschaft zu Melken. Vom ALLERAllerfeinsten.

Dito. 6 GB gehören ganz klar zur Kategorie VRAM Krüppel. Genau wie die GTX 680/770 mit ihren 2 GB und die GTX 780/Ti mit ihren 3 GB Speicherkrüppel gewesen sind. Genauso wird es der GTX 980 Ti ergehen. Wenn sie überhaupt 6 GB hat. Ich vermute ganz stark dass sie 5 GB haben wird, da ein abgespeckter GM200 mit deaktivierter Rasterengine benutzt wird.
2560 Cuda Kerne, 80 ROPS, 170 TMUS, 320 Bit und 5 GB Ram

Vielleicht gibts ja 5GB+1GB :D

Ich bitte darum, solche haltlosen Aussagen in Zukunft zu unterlassen, sie gießen nur weiter Öl ins Feuer und sorgen für unnötige (OT-)Diskussionen.
Dieser Post ist als Warnung zu verstehen, sollte die Diskussion rund um einen möglichen "Vram-Krüppel" weitergehen oder es ähnliche Kommentare geben, gelten sie als Spam und werden entsprechend bepunktet.

Nun bitte B2T
 
Zuletzt bearbeitet:
Ich bin ja der Meinung, daß die Highend Karten zu teuer sind. Es bleibt einem ja nichts anderes übrig wenn man Power will zu kaufen und deshalb kaufe ich keine Karte mehr unter 8 Gb Speicher. In Hinsicht auf 4 K natürlich. Sonst müsste man ja nächstes Jahr erneut so viel Euro hinlegen.
Edit: Aber so wie es aussieht für 8 Gbyte Speicher muss ich dann ja doch zu Amd wechseln obwohl ich Nvidia immer gut fand, bzw. sie sich ganz gut übertakten ließen, lassen.

☺ wolflux
 
Zuletzt bearbeitet:
Ich bin ja der Meinung, daß die Highend Karten zu teuer sind. Es bleibt einem ja nichts anderes übrig wenn man Power will zu kaufen und deshalb kaufe ich keine Karte mehr unter 8 Gb Speicher. In Hinsicht auf 4 K natürlich. Sonst müsste man ja nächstes Jahr erneut so viel Euro hinlegen.
Edit: Aber so wie es aussieht für 8 Gbyte Speicher muss ich dann ja doch zu Amd wechseln obwohl ich Nvidia immer gut fand, bzw. sie sich ganz gut übertakten ließen, lassen.

☺ wolflux

Deine Rechnung geht aber nicht auf und zwar in keinster Weise, besonders nicht hinsichtlich 4K.
 
warum?
4K mit G-Sync - schau dir mal die TitanX Tests an

Was genau willst du denn aussagen, führe das doch mal kurz aus.
Eine Titan X reicht nicht aus für 4K und 60fps in fordernden Spielen, auch nicht wenn sie 24GB VRAM hätte.
2 Titan X schaffen das eher, aber dann mit Mikrorucklern und eingeschränkter Kompatibilität.

Sich jetzt keine gute Karte zu kaufen weil sie nicht mindestens 8GB VRAM hat macht keinen Sinn, da die GPUs zu langsam sind für eine so hohe Auflösung wie 4K.
Wenn entsprechend schnelle GPUs kommen, dann wird die Titan X stark im Preis fallen und hat einen höheren Verlust beim Verkauf. Dies ist der Fluch der early adaptor.
 
Zuletzt bearbeitet:
Was genau willst du denn aussagen, führe das doch mal kurz aus.
Eine Titan X reicht nicht aus für 4K und 60fps in fordernden Spielen, auch nicht wenn sie 24GB VRAM hätte.
2 Titan X schaffen das eher, aber dann mit Mikrorucklern und eingeschränkter Kompatibilität.

Sich jetzt keine gute Karte zu kaufen weil sie nicht mindestens 8GB VRAM hat macht keinen Sinn, da die GPUs zu langsam sind für eine so hohe Auflösung wie 4K.
Wenn entsprechend schnelle GPUs kommen, dann wird die Titan X stark im Preis fallen und hat einen höheren Verlust beim Verkauf. Dies ist der Fluch der early adaptor.

eine TitanX schafft 30 FPS in 4K
was das bei aktivem G-Sync bedeutet kannst du ja mal nachlesen
 
Zuletzt bearbeitet:
eine TitanX schafft 30 FPS in 4K

Nein diese Aussage kann niemals richtig sein, es ist nicht logisch. Dies hängt von dem jeweiligen Spiel ab und den Settings.
30fps sind aber immernoch zu wenig für schnelle Spiele und GSync ändert daran auch nichts.
Kennst du denn den Vorteil von GSync? Kannst du ihn beschreiben?
 
Zuletzt bearbeitet:
30fps bleiben 30fps, da sieht nicht flüssiger aus auch nicht bei 60fps, beides bezogen auf einen 60Hz Monitor.
Gsync verhindert tearing zwischen diesem Bereich, flüssiger ist es dadurch auch nicht.
 
30fps bleiben 30fps, da sieht nicht flüssiger aus auch nicht bei 60fps, beides bezogen auf einen 60Hz Monitor.
Gsync verhindert tearing zwischen diesem Bereich, flüssiger ist es dadurch auch nicht.

Doch die wahrgenommene Darstellung ist unter bestimmten Bedingungen flüssiger. Dies ist ein Grund weshalb es GSync überhaupt gibt. Aber eben gerade nicht unter 30fps, oder 60fps...

GeForce GTX Titan X und G-Sync bei 4K - Nvidia GeForce GTX Titan X im Test: Kommt eine einzelne GPU mit 4K klar?

G-Sync interpoliert nicht zwischen den Bildern und fügt auch nichts hinzu. Es verbessert einfach die wahrgenommene Flüssigkeit der Darstellung.

Dieser Artikel ist auf Bild Niveau. Es wird nicht erklärt mit welcher Vsync Implementierung verglichen wird (Tripple Buffer?). Auch wird nicht erklärt, wie Gsync funktioniert. Vermutlich wissen es die Autoren selbst nicht...

Bitte um Aufklärung. Gerne auch mit Verweis auf vorhandene Quelle. Merci

Wenn dich das Thema interessiert, dann such dir Quellen raus die erklären wie es funktioniert. Ich könnte dir höchsten Rückmeldung geben, ob du es richtig verstanden hast.
Es gibt keinen Grund für mich, deine Arbeit zu machen bzw. es dir "vorzukauen". :)
 
Zuletzt bearbeitet:
Doch die wahrgenommene Darstellung ist unter bestimmten Bedingungen flüssiger. Dies ist ein Grund weshalb es GSync überhaupt gibt. Aber eben gerade nicht unter 30fps, oder 60fps...

Deswegen schrieb ich ja auch bei 30 und 60fps, bezogen auf einen 60Hz Monitor.
Bei den Bildraten dazwischen verhindert Gsync tearing, trotzdem bleibt es ruckelig.
 
Deswegen schrieb ich ja auch bei 30 und 60fps, bezogen auf einen 60Hz Monitor.
Bei den Bildraten dazwischen verhindert Gsync tearing, trotzdem bleibt es ruckelig.

Ja die "zeitliche Bewegungsauflösung" bleibt natürlich immer gleich, auch mit Gsync. Aber ohne Gsync hast du bei den Bildraten dazwischen bzw. unter 30fps (logischwerweise) Mikroruckler, eben weil die refresh rate des Displays fix ist ohne Gsync. Diese werden mit Gsync deutlich gemildert.
 
Finde ich nicht, aber ich bin auch nen schnellen 144Hz Monitor gewohnt.

Das ist ein Fakt, es ist einer Hauptgründe neben dem Tearing, weshalb man variable resfresh rates nutzt mit Freesync/Gsync. Überleg mal wie man z.B. 27fps oder 33fps auf einem 60Hz,120Hz Monitor darstellt. Der Monitor refreshed mit 60Hz, kriegt aber nur 27 Bilder in der Sekunde und 27 ist kein Teiler von 60 oder 120 usw. Dann wird das Bild "ruckelig" mit normalem Vsync. Das ist etwas, dass man unbedingt verstehen muss.

Hier hast du das mal etwas visualisiert:
http://abload.de/img/nvidia-gsync-19tu92.jpg
 
Das ist klar, nur komme ich nicht in den Bereich.
Ich stelle alles so ein, dass ich auf 100fps+ komme.
Bei langsamen Spielen sind etwas weniger fps auch ok.
Aber ist glaube ich langsam genug OT.;-)
 
Zurück