• In diesem Unterforum können nur PCGH-Redakteure Umfragen erstellen. Du willst selbst eine Umfrage ins Leben rufen? Kein Problem! Erstelle deine Umfrage am besten im Vorbereitungsforum und verschiebe den Thread anschließend in das thematisch passende Unterforum.

Geforce RTX 2080 Ti, RTX 2080 & RTX 2070: Wie findet ihr die Preise?

Geforce RTX 2080 Ti, RTX 2080 & RTX 2070: Wie findet ihr die Preise?

  • Finde ich in Ordnung

    Stimmen: 17 2,2%
  • Finde ich grenzwertig

    Stimmen: 41 5,2%
  • Finde ich zu hoch

    Stimmen: 631 80,7%
  • Weiß ich nicht, ich bilde mir eine Meinung, sobald es Testberichte gibt

    Stimmen: 85 10,9%
  • Interessiert mich nicht/keine Meinung

    Stimmen: 2 0,3%
  • Sonstiges (s. Kommentar)

    Stimmen: 6 0,8%

  • Anzahl der Umfrageteilnehmer
    782
  • Umfrage geschlossen .
Habe mal Meinungsbildung nach Testergebnisse angekreuzt.

Derzeit haben wir doch alle nur Spekulationen und Vermutungen auf dem Tisch.
Die wenigen dezidierten Infos lassen den vorläufigen Schluss zu, dass die RTX zu teuer für den gegebenen Mehrwert gegenüber den Vorgängermodellen sind.

Sollte es sich auf Basis der Tests ergeben, dass die Karten mir einen persönlichen Mehrwert liefern würden, wäre ich durchaus zumindest an der RTX 2080 interessiert.
Ich werde aber sicherlich nicht + neverever > 1.000 € nur für eine GPU ausgeben.
Persönlich vertretbare Schmerzgrenze für eine GPU ist für mich ca. 500-600 €, das Geld darüber verprasse ich lieber mit der Familie im Urlaub oder sonstwie ohne PC-Bezug.

Insofern abwarten, wie sich die Marktpreise in 2018/2019 entwickeln, weil derzeit meine beiden GTX 1080 noch mehr als ausreichend für meine Belange sind.
Eine Aufrüstung wird eh frühestens Ende 2019 erfolgen und wer weiß, vielleicht kontert AMD bis dann ja mit einer (preislich) interessanten Alternative...
 
Mondpreise ... wer das kauft ist selber schuld , da kann man sich 1 x 1080 Ti + 8700k + Ram + Board kaufen , ich hoffe AMD zieht mal endlich nach und verkauft zum halben Preis.
 
Jetzt wartet doch mal ab... Bisher gibts noch nur ne Handvoll tatsächlich verfügbarer oder auch nur angekündigter Games, die die Features auch nur ansatzweise ausreizen. Wer halt nur schaut, ob das eigene Lieblingsgame auf dem eigenen Setting und dem eigenen Display nur 30% schneller läuft für 60% mehr Preis, muss ja nicht zuschlagen.

Wer es immer noch nicht mitbekommen hat: nVidia fährt zweigleisig. Auf der einen Seite halt im Consumer-Markt, und der schaut halt nur, wie viel RAM die neue Generation hat, und wie viele Shader verbaut sind, vielleicht noch nach dem RAM-Takt und der -Anbindung. Auf der anderen Seite bläst nVidia massiv Geld in die Entwicklung in Sachen KI, Robotik und Automotive. Es sind noch keine Marktpreise bekannt, aber es ist schon rum, dass die ersten Großabnehmer (und zwar sicher nicht nur mal 2 Stück zur Ansicht) der Tesla T4 tadaaa... Microsoft und Google sind.

Und nVidia ist nicht doof. Wenn sie dem Consumer-Markt jetzt Tensor Cores spendieren, machen sie das sicher nicht nur als Versuchsballon. Die werden sich mit den Games- und Engine-Schmieden vorher abgestimmt haben, damit bald Titel rauskommen, die das Zeug auch effektiv nutzen.

Ich wiederhole mich zur allgemeinen Belehr-/-lustigung gerne: Tensor Cores berechnen 4-dimensionale Matrizen, A = B x C + D. In einem Taktzyklus. Wumms. 4-dimensionale Matrizen entsprechen ganz zufällig "homogenen Koordinaten", und genau damit rechnen sowohl DirectX als auch OpenGL (und vermutlich auch Vulcan, davon habe ich aber keine Ahnung) beim Grafik-Gedöns. Mit sagen wir mal 288 Tensor Cores einer 2070 kann man damit theoretisch und optimal ein Objekt mit 288 "Ecken" vergrößern, verkleinern, verschieben, rotieren in, Achtung: einem! Takt. Bisher machen die meisten Game-Engines das auf den ALUs, die dafür aber weit nicht so optimiert sind wie eben die TCs.

Dass die TCs nebenher noch ein bisschen KI in Games machen könnten, ist ne ganz andere Sache, und zwar deshalb ne ganz andere Sache, weil die allermeisten Coder aus der Spiele-Szene wohl noch nicht viel damit zu tun gehabt haben dürften. Man darf aber, angesichts der o.g. Meldung, dass Google wohl pallettenweise T4s kauft, getrost davon ausgehen, dass Googles Tensorflow Bibliotheken und nVidias TCs in dieselbe Richtung marschieren. Gerüchten (!) zufolge soll Microsofts "Machine Learning" Bibliothek in der endgültigen Version DX12 unterstützen; in der aktuellen Vorab-Version unterstützt sie schon Tensorflow. nVidia wäre nicht nVidia, wenn da nicht noch sehr viel kommen würde, von denen KI, Automotive, Robotik, und ja, auch Gamer massiv profitieren würden. Denn nVidia will Geld verdienen. Die verbauen ihren heiligen Gral, die TCs nicht nur mal so für Spaß auf Consumer-Boards...

Wie gesagt, man kann jetzt gerne dagegen brüllen "Ich will Unreal Tournament spieleeeeeeeeeeeen!!!!" Dann kauft man eben keine RTX. Mei. O'zapft is!
 
Jetzt wartet doch mal ab... Bisher gibts noch nur ne Handvoll tatsächlich verfügbarer oder auch nur angekündigter Games, die die Features auch nur ansatzweise ausreizen. Wer halt nur schaut, ob das eigene Lieblingsgame auf dem eigenen Setting und dem eigenen Display nur 30% schneller läuft für 60% mehr Preis, muss ja nicht zuschlagen.

Wer es immer noch nicht mitbekommen hat: nVidia fährt zweigleisig. Auf der einen Seite halt im Consumer-Markt, und der schaut halt nur, wie viel RAM die neue Generation hat, und wie viele Shader verbaut sind, vielleicht noch nach dem RAM-Takt und der -Anbindung. Auf der anderen Seite bläst nVidia massiv Geld in die Entwicklung in Sachen KI, Robotik und Automotive. Es sind noch keine Marktpreise bekannt, aber es ist schon rum, dass die ersten Großabnehmer (und zwar sicher nicht nur mal 2 Stück zur Ansicht) der Tesla T4 tadaaa... Microsoft und Google sind.

Und nVidia ist nicht doof. Wenn sie dem Consumer-Markt jetzt Tensor Cores spendieren, machen sie das sicher nicht nur als Versuchsballon. Die werden sich mit den Games- und Engine-Schmieden vorher abgestimmt haben, damit bald Titel rauskommen, die das Zeug auch effektiv nutzen.

Ich wiederhole mich zur allgemeinen Belehr-/-lustigung gerne: Tensor Cores berechnen 4-dimensionale Matrizen, A = B x C + D. In einem Taktzyklus. Wumms. 4-dimensionale Matrizen entsprechen ganz zufällig "homogenen Koordinaten", und genau damit rechnen sowohl DirectX als auch OpenGL (und vermutlich auch Vulcan, davon habe ich aber keine Ahnung) beim Grafik-Gedöns. Mit sagen wir mal 288 Tensor Cores einer 2070 kann man damit theoretisch und optimal ein Objekt mit 288 "Ecken" vergrößern, verkleinern, verschieben, rotieren in, Achtung: einem! Takt. Bisher machen die meisten Game-Engines das auf den ALUs, die dafür aber weit nicht so optimiert sind wie eben die TCs.

Dass die TCs nebenher noch ein bisschen KI in Games machen könnten, ist ne ganz andere Sache, und zwar deshalb ne ganz andere Sache, weil die allermeisten Coder aus der Spiele-Szene wohl noch nicht viel damit zu tun gehabt haben dürften. Man darf aber, angesichts der o.g. Meldung, dass Google wohl pallettenweise T4s kauft, getrost davon ausgehen, dass Googles Tensorflow Bibliotheken und nVidias TCs in dieselbe Richtung marschieren. Gerüchten (!) zufolge soll Microsofts "Machine Learning" Bibliothek in der endgültigen Version DX12 unterstützen; in der aktuellen Vorab-Version unterstützt sie schon Tensorflow. nVidia wäre nicht nVidia, wenn da nicht noch sehr viel kommen würde, von denen KI, Automotive, Robotik, und ja, auch Gamer massiv profitieren würden. Denn nVidia will Geld verdienen. Die verbauen ihren heiligen Gral, die TCs nicht nur mal so für Spaß auf Consumer-Boards...

Wie gesagt, man kann jetzt gerne dagegen brüllen "Ich will Unreal Tournament spieleeeeeeeeeeeen!!!!" Dann kauft man eben keine RTX. Mei. O'zapft is!

Der Speicher ist halt echt nen heftiger Knackpunkt.
Bei den Preisen hätten die den Karten ruhig mehr RAM spendieren können, ob die das jetzt 50-100€ teurer gemacht hätte spielt da doch auch keine Rolle mehr.

Dann würde sich wenigstens die Frage, ob man eine RTX 2080 oder eine GTX 1080TI käuft relativieren doch so schlau war Nvidia nicht.

Der ganze neue Schnickschnack, ja schön das er drauf ist find ich klasse aber es hat einfach aktuell noch keinen mehr Wert...
 
Nachtrag noch: Ich gehe schwer davon aus, dass die Chef-Strategen bei nVidia ihren Entwicklern eingetrichtert haben, dass die neuen Modelle signifikant schneller sein müssen als die Vorgänger, um eine kritische Masse zu erzeugen, die eben nur wegen dem Mehr ans FPS kauft, und zwar schnell. Und unter uns halte ich das "Raytracing"-Zeug eher für Prio 2 auf nVidias Agenda.

Ich wiederhole mich auch nochmal, auf einer 2180 GPU in 2, 3 Jahren erwarte ich ein bisschen mehr Shader-Einheiten als auf einer 2080, aber viel mehr TCs. Und wenn wir alle Pech haben, kauft Google genau wegen dieser Technologie nVidia in Zukunft auf. Mind the word ;)
 
Der Speicher ist halt echt nen heftiger Knackpunkt.
Bei den Preisen hätten die den Karten ruhig mehr RAM spendieren können

Sag mir mal ein Game, das mehr RAM brauchen könnte? Schneller ja, aber mehr?

Der ganze neue Schnickschnack, ja schön das er drauf ist find ich klasse aber es hat einfach aktuell noch keinen mehr Wert...

Das habe ich auch nie behauptet, bis auf ein bisschen was in "The Old Republic" und "Tomb Raider" (werde ich mir mal als Non-Gamer nur für Spaß holen, wenn die GraKa verfügbar ist). Aber du kannst ja mal in den Archiven der Computertechnik wühlen, da sagte einmal der damalige Boss von IBM (kennt wer noch dieses Unternehmen?^^), dass der Bedarf an Personal Computern ungefähr bei 3 liegen würde. Nein, nicht 3 pro Person ^^

Ich gehe aber mal schwer davon aus, dass nVidia vorübergehend die Treiber in der Hinsicht optimieren wird, dass gewisse DX11- und OpenGL-Operationen vom Treiber intern optimiert werden. Wird noch ein Weilchen dauern, und bis dahin geistern bestimmt schon AMDs Prewievs herum. Schauen wir doch mal, was die "andere Seite der Macht" 2019 so auf der Pfanne hat. Aber...

nVidia hat die Füße schon so tief im Supercomputing und KI-Zeugs, dass sich da AMD echt lang machen muss, um die Marktmacht von nVidia nochmals zu knacken. Darum eben halte ich nVidia für einen formidablen Übernahme-Kandidaten seitens Google, Facebook, oder Microsoft.
 
Zuletzt bearbeitet:
Sag mir mal ein Game, das mehr RAM brauchen könnte? Schneller ja, aber mehr?



Das habe ich auch nie behauptet, bis auf ein bisschen was in "The Old Republic" und "Tomb Raider" (werde ich mir mal als Non-Gamer nur für Spaß holen, wenn die GraKa verfügbar ist). Aber du kannst ja mal in den Archiven der Computertechnik wühlen, da sagte einmal der damalige Boss von IBM (kennt wer noch dieses Unternehmen?^^), dass der Bedarf an Personal Computern ungefähr bei 3 liegen würde. Nein, nicht 3 pro Person ^^

Geht ja nicht darum ob sie aktuell mehr brauchen, aber es gibt genügend die jetzt schon auf Anschlag laufen.
Bei 8GB definitiv und 11GB auch.

An dieser Bestückung ist nichts Zukunftssicheres mehr, bei Final Fantasy 16GB VRAM Last siehst du wo die Reise in nächsten Jahren hingeht und man kauft sich eine teure Karte doch nicht weil der VRAM in 2019 nicht mehr reicht...

Das man eine Grafikkarte für den aktuellen VRAM bedarf käuft kann man vl bei 200-300€ erwarten aber nicht bei 800€+... :D
 
Wartet mal , die nächste Generation wird wohl die Top karte 1500 aufwärts kosten ... diese preise sind unrealistisch hoch und ich hoffe das nicht so viele diese bezahlen :-(
 
Ich habe schon in einem anderen Thread gepostet, aber nochmals:

Es ist Folgendes passiert:
Nach dem deutlichen Abschwächen des Miningbooms sitzen sowohl AMD als auch Nvidia auf einem Haufen Chips. Da solche Unternehmen kurzfristig denken müssen, muss JETZT so viel wie möglich verkauft werden. AMD kann zur Zeit nichts außer zu reagieren, Nvidia verlangt Mondpreise für die neue Generation => Nvidia- Junger und 4k - Normalos greifen zu 1080TI, weil sie plötzlich großartiges PL- Verhältnis bietet. Die Lagerbestände werden leergekauft, bis dahin kann Nvidia ausreichende Menge an RTX 2080 und RTX 2080 TI produzieren (die sind sehr groß, teuer und haben zur Zeit schlechte Ausbeute). Das Problem der Sättigung wäre in das nächste Quartal verschoben, denn da wird es ausreichend 2080 TIs geben, aber die meisten Nicht- Enthusiasten werden schon eine 1080 Ti besitzen und mindestens ein Jahr lang abwarten mit dem nächsten Kauf => geringere Nachfrage => Der Preis wird gesenkt.

Man muss nichts tun, die Nachfrage wird den Preis regeln.
 
Ich habe schon in einem anderen Thread gepostet, aber nochmals:

Es ist Folgendes passiert:
Nach dem deutlichen Abschwächen des Miningbooms sitzen sowohl AMD als auch Nvidia auf einem Haufen Chips. Da solche Unternehmen kurzfristig denken müssen, muss JETZT so viel wie möglich verkauft werden. AMD kann zur Zeit nichts außer zu reagieren, Nvidia verlangt Mondpreise für die neue Generation => Nvidia- Junger und 4k - Normalos greifen zu 1080TI, weil sie plötzlich großartiges PL- Verhältnis bietet. Die Lagerbestände werden leergekauft, bis dahin kann Nvidia ausreichende Menge an RTX 2080 und RTX 2080 TI produzieren (die sind sehr groß, teuer und haben zur Zeit schlechte Ausbeute). Das Problem der Sättigung wäre in das nächste Quartal verschoben, denn da wird es ausreichend 2080 TIs geben, aber die meisten Nicht- Enthusiasten werden schon eine 1080 Ti besitzen und mindestens ein Jahr lang abwarten mit dem nächsten Kauf => geringere Nachfrage => Der Preis wird gesenkt.

Man muss nichts tun, die Nachfrage wird den Preis regeln.

Hoffen wir mal das es dann auch wirklich BALD so kommt.
Eine 2080 Ti für maximal 999€ - da würde ich dann schon eher drüber nachdenken.
 
Ich finde die Preise haben sich fast verdoppelt! Ich habe noch eine 780GTX Ti die hat mal 800 € gekostet als sie damals rauskam. Jetzt kostet die Ti zwischen 1250-1400 €.

Was gerechtfertigt diesen Preis? Ich finde die definitiv zu teuer!
 
Der Preis ist schon hoch aber wo soll ich sonst mit dem Taschengeld hin?
Ich habe mir die 2080 von Palit geholt und nun ist mein Kaufdrang befriedigt.
Meine 1080 war schließlich schon 2 Jahre drin, also wurde es Zeit.
Sparen lohnt ja eh nicht, da keine Zinsen.
 
Der Preis ist schon hoch aber wo soll ich sonst mit dem Taschengeld hin?
Ich habe mir die 2080 von Palit geholt und nun ist mein Kaufdrang befriedigt.
Meine 1080 war schließlich schon 2 Jahre drin, also wurde es Zeit.
Sparen lohnt ja eh nicht, da keine Zinsen.

Das ist es ja.
Würd ich mir ne 2080 kaufen wäre mein Kaufdrang nicht weg.
A) die 1080Ti ist der bessere Deal
B) ich wüsste dann das die Karte ne bescheidene RTX Performance abliefern wird
C) ich hätte Nvidia bei dieser perfiden Preispolitik unterstützt
D) wüsste ich das dir Karte eh spätestens nächstes Jahr deutlich im Preis fallen wird
E) Es gibt ne bessere Karte...

Neee ich mache das effektivere und verbrenn mein Geld auf klassischer Weise macht mir mehr Spaß! :D
 
Das ist es ja.
Würd ich mir ne 2080 kaufen wäre mein Kaufdrang nicht weg.
A) die 1080Ti ist der bessere Deal
B) ich wüsste dann das die Karte ne bescheidene RTX Performance abliefern wird
C) ich hätte Nvidia bei dieser perfiden Preispolitik unterstützt
D) wüsste ich das dir Karte eh spätestens nächstes Jahr deutlich im Preis fallen wird
E) Es gibt ne bessere Karte...

Neee ich mache das effektivere und verbrenn mein Geld auf klassischer Weise macht mir mehr Spaß! :D

Du sprichst fast zu 100% aus, was ich derzeit denke. Ich wollte eigentlich diesen Herbst aufrüsten und hatte auf GTX1080-Performance unter 400€ spekuliert. Wenn die RTX 2070 jetzt auf GTX 1080 Ti-Niveau läge, wäre ich auch dazu bereit.
Jetzt sieht es eher danach aus, dass ich nächstes Jahr "irgendwann" einen Plattformwechsel durchführen werde. Die Grafikkarte wird dann gewechselt, wenn ich die doppelte Leistung meiner GTX 1060 unter 500€ bekomme. Und auch das ist schon deutlich mehr, als ich in der Vergangenheit für solche Upgrades zu bezahlen bereit war.
 
Wenn man bedenkt, dass man die GTX 970 für 299 Euro bezahlt (12.2014) und wieviel Leistung man dafür bekommen hat, trotz des VRAM Skandals. Traumhaftes P/L... schauen wir wie sich das weiter entwickelt...
 
Wenn man bedenkt, dass man die GTX 970 für 299 Euro bezahlt (12.2014) und wieviel Leistung man dafür bekommen hat, trotz des VRAM Skandals. Traumhaftes P/L... schauen wir wie sich das weiter entwickelt...

Hoffe daher auf eine Karte mit 1080 Ti Leistung für 399 US Dollar von AMD. Sodass Nvidia mal RICHTIG am Preis drehen muss und nicht ihren RTX Ramsch für 700€ andreht welchen man schon vor 1,5 Jahren zum gleichen Preis bekommen hat. Ist gar nicht mal so unwahrscheinlich, die Vega 56 ist ja schon auf 1070-1080 Niveau ;)
 
Zurück