Palit Geforce RTX 2080 Gamerock oder GTX 1080 Ti? Neue Features oder 11 GiByte Speicher?

Teuerer ist die 1080Ti jetzt auch nicht habe gerade eine Gainward Phonix für 724€ gefunden (vom großen bekannten DE Händler.) da muss man einfach mal gucken.
Gestern war dort ne Gigabyte Gaming für 686€ o.ä zu haben. günstig ist das alles nicht ... aber vom preis nehmen die beiden sich gar nix
Es ist wahrscheinlich das die 2080 günstiger wird. Aber selbst für 150€ weniger als jetzt wäre der Preis durch die Aktualität zu Rechtfertigen. Vielleicht noch weil der Chip viel größer ist, das wars.
 
GTX 1080 Release UVP: 613 Euro
RTX 2080 Release UVP: 849 Euro

Das da ein krasser Unterschied zur Vorgänger Generation besteht kann man wohl nicht bestreiten? Und das man sich das schön reden will versteh ich auch nicht.
Das sich die Preise danach weiter entwickeln ist auch absolut normal.. aber hier von kaum einem Unterschied zu reden... jap, das lass ich einfach mal so stehen.

ich spreche von echte marktpreisen:

Palit 1080 Super Jetstream 740 Euro laut geizhals nach kurz nach Einführung
Palit 2080 Super Jetsream 789 Euro Stand heute Mindfactory zb

ein Freund hat damals 719 Euro für die Zodac bezahlt (nicht das nonplusultra modell)


Ja die 2080 ist teurer aber wir sehen hier die Preise kurz nach dem fast paperlauch. die preise fallen aber schon täglich um ein paar euro. aber natürlich - nvidia ist böse daher wollen manche nicht so genau vergleichen... sonst könnte man sich ja nicht aufregen.

die 2080 zu teuer? wo iat das problem?? einfach ne 2070 oder 1060 oder 580 kaufen. ich fahre auch keinen audi. warum? mir zu teuer. muss man immer das beste haben? nein. aber die neue generaltion wird ja schon mit werbespots wie Smava Kredit und der gleichen aufgezogen. Jeder muss alles haben...
 
Zuletzt bearbeitet:
Würde die 2080 nehmen, sobald spiele mehr als 8gb nutzen ist es mit einer 1080ti auch unspielbar. ( siehe tomb raider im video ) ob nun 20 oder 21 FPS macht halt kein unterschied, auf beiden Karten hat es mies rein geruckelt.
Also ich persönlich finde, dass die Frage nicht so leicht beantwortet werden kann. Wie viele Spiele wurden denn im Video getestet? Und wie hat man den RAM gefüllt? Es macht ja einen Unterschied, ob mit Daten durch/für rechenintensive Aufgaben (zb. AA/DSR), oder nicht (zb. Texturen).

Tatsache ist, wenn der VRAM ausgeht geht die Performance in der Regel deutlich runter, bzw. es kommt zu Rucklern. Und fehlende Features bedeuten sehr oft sogar eine bessere Performance - siehe zb. GTX vs RTX, wo die Raytracing-Leistung (da festes Energiebudget) eine Reduzierung der klassischen Renderleistung bedeutet. Ausnahmen wie eine bessere Kompression natürlich außen vor.

Daher bin ich der Meinung, hier muß man wirklich individuell entscheiden. Ich zb. spiele mittlerweile weniger die brandaktuellen AAA-Titel, und wenn dann brauche ich nicht alle verfügbaren Features. Auf der anderen Seite spiele ich häufiger ältere Games, und hübsche diese mit allerlei optischen Modifikationen auf, und greife dann auch noch auf DSR zurück (da ich nur einen 1080p-Bildschirm habe, aber in 4K aufnehmen möchte), was gerade bei älteren Spielen zu einer super Optik führt (siehe zb. HL² mit dem letzten CM und mit DSR in 4K^^).

Ich würde daher eher auf die 11GB und damit die 1080Ti setzen. Problem hierbei, die Preise für die letzten Modelle sind total geisteskrank. Die 599€ die die Custom Gigabyte 1080Ti kürzlich bei Alternate kostete hätte ich mit hängen und würgen noch durchgewunken, die aktuell mindestens fälligen 800€ auf keinen Fall. Die 2080 wäre, eben wegen des zu geringen Speichers für das Geld, allerdings auch keine Option für mich.

Daher würde ich im Moment - wegen des mMn besseren P/L-Verhältnis - auf eine 1070Ti für ~420€ setzen, deren theoretische Rechenleistung leicht über einer 2070 liegt, oder wenn der "minimale" Aufpreis noch ins Budget passt, zur 2070 greifen. Die 2080 hat dagegen ein noch schlechteres P/L-Verhältnis, und würde schon wegen dem zu geringen Speicher fürs Geld für mich wegfallen. Für >700€ müssen es mMn einfach mehr als 8GB sein.

Und zu den aktuell ~1200€ für eine 2080Ti sag zumindest ich besser gar nichts mehr... :rollen:
 
Keine ahnung wo ihr immer rumschaut. Hab mir vor 1 Monat ne Palit Jetstream 1080ti für 550€ gekauft.
Für solche Preise gehen die auch jetzt noch weg.
Na das würde mich aber auch sehr interessieren. Die 1080Ti (z.B. genannte Palit Jetstream) ist doch fast nirgendwo mehr im Sortiment zu finden. Und erst recht nicht für 550€. Vor einem Monat sah das eventuell noch anders aus. Aber jetzt?
 
Also ich persönlich finde, dass die Frage nicht so leicht beantwortet werden kann. Wie viele Spiele wurden denn im Video getestet? Und wie hat man den RAM gefüllt? Es macht ja einen Unterschied, ob mit Daten durch/für rechenintensive Aufgaben (zb. AA/DSR), oder nicht (zb. Texturen).

Tatsache ist, wenn der VRAM ausgeht geht die Performance in der Regel deutlich runter, bzw. es kommt zu Rucklern. Und fehlende Features bedeuten sehr oft sogar eine bessere Performance - siehe zb. GTX vs RTX, wo die Raytracing-Leistung (da festes Energiebudget) eine Reduzierung der klassischen Renderleistung bedeutet. Ausnahmen wie eine bessere Kompression natürlich außen vor.

Daher bin ich der Meinung, hier muß man wirklich individuell entscheiden. Ich zb. spiele mittlerweile weniger die brandaktuellen AAA-Titel, und wenn dann brauche ich nicht alle verfügbaren Features. Auf der anderen Seite spiele ich häufiger ältere Games, und hübsche diese mit allerlei optischen Modifikationen auf, und greife dann auch noch auf DSR zurück (da ich nur einen 1080p-Bildschirm habe, aber in 4K aufnehmen möchte), was gerade bei älteren Spielen zu einer super Optik führt (siehe zb. HL² mit dem letzten CM und mit DSR in 4K^^).

Ich würde daher eher auf die 11GB und damit die 1080Ti setzen. Problem hierbei, die Preise für die letzten Modelle sind total geisteskrank. Die 599€ die die Custom Gigabyte 1080Ti kürzlich bei Alternate kostete hätte ich mit hängen und würgen noch durchgewunken, die aktuell mindestens fälligen 800€ auf keinen Fall. Die 2080 wäre, eben wegen des zu geringen Speichers für das Geld, allerdings auch keine Option für mich.

Daher würde ich im Moment - wegen des mMn besseren P/L-Verhältnis - auf eine 1070Ti für ~420€ setzen, deren theoretische Rechenleistung leicht über einer 2070 liegt, oder wenn der "minimale" Aufpreis noch ins Budget passt, zur 2070 greifen. Die 2080 hat dagegen ein noch schlechteres P/L-Verhältnis, und würde schon wegen dem zu geringen Speicher fürs Geld für mich wegfallen. Für >700€ müssen es mMn einfach mehr als 8GB sein.

Und zu den aktuell ~1200€ für eine 2080Ti sag zumindest ich besser gar nichts mehr... :rollen:

Was man nicht unterschätzen darf ist der Umstand das mehr Speicher oft erst dann genutzt wird wenn er auch da ist! Man erspart sich dann oft LOD reduzierungen sowie Streaming im Spiel. Außerdem laden Abschnitte deutlich flotter in einer Open World wenn mehr Speicher da ist. 4k Texturen sind mit 8GB auch flott weg und können nicht genutzt werden, siehe z.B. FFXV oder Shadow of War.
 
Ich werde vermutlich als Übergangslösung auf die 7nm Generation von Nvidia auf die 2080 FTW3 von EVGA (wegen 5 Jahre Garantieverlängerung und Wiederverkauf) setzen. Warte aber noch auf Verfügbarkeit. Als Monitor nutze ich nen 27 Zoll WQHD Gsync Monitor. Den werd ich dann erst mit der 7nm Generation austauschen.
 
Was war jetzt eigentlich mit so Sachen, wie Raytracing, oder DLLSSLSD oder so ähnlich ? ;)
Gerät schon langsam in Vergessenheit.
Spricht man einfach nicht mehr drüber.
Ist jetzt Tabu.

Naja. Ich lass die andern erst mal die Beta machen. Wenn dann mit 7, oder 8nm die Early Access Phase(Turing) beendet ist, schau ich mal, was es so Neues gibt und was mit dieser Technik bis dahin überhaupt ist, wenn überhaupt etwas damit sein sollte.
Nach den Bombastischen Ankündigungen bei der Vorstellung von Nvidia, wer alles mitmacht, beim Release von Turing, mit den ganzen neuen Techniken, ist es dahingehend erstaunlich still geworden.

Haben alle mittlerweile Tombraider durch, ohne Raytracing ? ;)
 
Mittlerweile finde ich sind selbst 11 GB zu wenig, es wird wirklich mal Zeit für 20 GB + VRAM.

Hol dir ne Sapphire Vega 64 Nito+ mit HBCC haste genug Speicher. :)

Ja, er hat lahmen RAM, HBCC kann keinen VRAM ersetzen, nur VRAM kann VRAM ersetzen, mag ja besser sein als es auf normale Weise in den RAM zu laden, von gut ist es aber weit entfernt.
 
Selbstverständlich hat man auf dem speziellen DICE-Event mit ner GTX2080Ti nur auf Low Details in 720p ohne AA und AF gespielt.



Mein Tip an dich... pack am besten immer nen Link dazu was du irgendwie oder irgendwo "zitierst". Da hätte man sich den Test selbt durchlesen können. So bin ich rein auf die Info angewiesen die du in diesem netten kleinen Text verpackt hast. Und ja.. da geht genau rein gar keine Information daraus hervor.
 
Man sollte nicht "Fake News" brüllen, wenn man offensichtlich nicht mal breitgefächert liest.

Aus dem Golem Battlefield V Test:


Der Zug RTX fährt gerade los :daumen:

Man kann daran glauben aber geändert hat sich bisher überhaupt nichts, ausser den Treiber zu verbessern.
Der Zug hat aber gewaltig Verspätung. :wall:
Na ja, fairerweise ist das wohl dem Umstand der neuen Technik geschuldet.
Mittlerweile finde ich sind selbst 11 GB zu wenig, es wird wirklich mal Zeit für 20 GB + VRAM.



Ja, er hat lahmen RAM, HBCC kann keinen VRAM ersetzen, nur VRAM kann VRAM ersetzen, mag ja besser sein als es auf normale Weise in den RAM zu laden, von gut ist es aber weit entfernt.

Finde ich auch, 12 GiB. sollten der neue Standard werden. :D
 
Zuletzt bearbeitet:
Der Zug RTX fährt gerade los :daumen:

Und was haben die Schatten und Lichter, die Texturen und Effekte im Spiel, mit Raytracing(RTX) zu tun ?
In diesem Fall(Battlefield V) sollten doch angeblich lediglich Reflektionen eingesetzt werden, aus den "RTX" Funktionen, wenn es denn schon eingebaut ist !?

Oder haben die etwa global illumination, Schatten, Lichteffekte und Reflektionen reingepackt, über Raytracing, das Ganze noch in 1440p und auch noch gut aussehend und sehr flüssig(Shooter) ?
Wenn das stimmen sollte, Hut ab !

Wenn nicht, hat das jeder genauso, mit einer GTX(Pascal).
+AMD natürlich ebenfalls.


edit: Hab den Golem Bericht gerade überflogen.

Null komma null Information, dass es sich bei den benannten Effekten um Raytracing Effekte handelt.

Tolle Licht-, Schatten- und Wettereffekte + Tesselation usw. habe ich übrigens auch in Miscreated, was ich aktuell teste. Natürlich völlig ohne RTX/Raytracing(braucht man da auch nicht für).


Finde ich auch, 12 GiB. sollten der neue Standard werden.
biggrin1.gif

Plädiere für 16. :D



edit2:

Hab noch mal nachgeforscht:
Raytracing-Effekte gibt es bisher nicht, sie sollen aber um den 15.11. herum nachgeliefert werden.
So viel zu den tollen Lichteffekten. ;) War wohl nix, mit RTX ! :D

Und die Quelle auch noch dazu:
http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/News/Raytracing-fehlt-1268919/
 
Zuletzt bearbeitet:
Liest sich schon anders, was du jetzt schreibst. ;)

Zuerst hattest du das Golem Zitat, wie toll das Spiel aussieht(von wegen Lichteffekte), mit RTX in Verbindung gebracht, indem du schreibst:"Der Zug RTX fährt gerade los.".
edit: Zitat, was ich meinte:
Aus dem Golem Battlefield V Test:
Die meiste Zeit haben wir auf einem Rechner gespielt, bei dem wir in der Auflösung 1440p mit einer Geforce RTX 2080 Ti spielen konnten. Das Spiel sieht erstklassig aus: Schatten und Lichter wirken extrem glaubwürdig, Exturen sind sehr fein aufgelöst, Effekte sind stimmig - sehr viel besser geht es im Grunde derzeit nicht.

( RTX = off ! )

Natürlich hatte das tolle Aussehen absolut rein gar nichts mit RTX zu tun, sondern sieht bei allen anderen genau so toll aus, auch bei AMD(und älteren Nvidia GPUs). :daumen:


edit2:
Die raytracing Effekte werden ja erst noch nachgeliefert und sind aktuell noch nicht mit drin.
Quelle:

http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/News/Raytracing-fehlt-1268919/

Ein Reddit-Nutzer hat das Spiel bereits gespielt und berichtet, dass in Battlefield 5 momentan noch keine Raytracing-Effekte enthalten sind. Nvidia bestätigt diese Angaben in einem Blogeintrag. RTX in Battlefield 5 soll "um den Release-Termin für die Deluxe-Ausgabe" herum erscheinen, das wäre dann der 15.11.
 
Zuletzt bearbeitet:
Du hast es selbst zitiert "Lichter".

Wenn du nicht weißt, was RTX genau tut und dass es bei der Darstellung von Lichtern extrem realistische Effekte liefert, warum diskutierst du dann hier?


omg. :wall:


Troll, or not Troll ? That's the question.

edit:

Ok, noch ein ernst gemeinter Versuch:

Lies mal, was Nvidia bestätigt hat(derzeit keine RTX Funktion in BF V = Kein raytracing). Vielleicht glaubst du ja den Verkäufern von RTX Karten wenigstens. ;)
 
Die haben doch bereits zurückgerudert.

Jedenfalls habe ich das anderswo hier im Forum schon gelesen, wo ich gefragt habe, wo das steht, dass RTX on war. Hatte nichts dazu gefunden.
Ich hatte nach links gefragt, zu der Information und dort kam raus, dass der Artikel wohl geändert wurde.


Hatte Stash schon dazu gefragt, woher er denn weiß, dass eine Raytracing version getestet wurde.
Anscheinend hatten die zuerst falsche Informationen geschrieben und das geändert.

So weit jedenfalls mein Wissensstand.

Aus dem anderen Forum:

Offensichtlich stand heute morgen noch im Artikel, dass im RT Modus gespielt wurde. Das hat die Redaktion wohl rausgenommen. Wusste ich doch das ich das gelesen hatte.^^ Hätten die ja mal ruhig ein Vermerk machen können.

MfG


Mag sein, dass die Infos zu einer "RTX On Version" daraus geschlussfolgert wurden(auch im Forum).


btw: Nicht jeder "Lichteffekt" den es in Spielen gibt, ist automatisch RTX-raytracing. ;)



Und nochmal dazu:

Dann solltest du vielleicht erstmal anfangen zu lesen, bevor du hier sinnlos Leute beleidigst und dich selbst als Idioten blamierst

Ich habe bereits versucht, konkrete Information direkt aus einem Artikel dazu zu finden.
War aber nicht möglich.

Es schwirrten nur Foruminformationen herum, die wohl nach einem Artikel entstanden sind, der nachträglich geändert wurde.


und btw: Ich wollte niemanden beleidigen. Ich fühlte mich tatsächlich "getrollt" (nenn es meinetwegen auch provoziert, wenn du möchtest), denn ich konnte mir nicht vorstellen, wie jemand tatsächlich einfach "Lichter", automatisch als "RTX on", bzw. raytracing ansieht.

Falls du da ebenfalls Falschinformationen von Golem aufgesessen bist, kannst du natürlich nichts dazu.

Es liegt mir fern, dich beleidigen zu wollen.
 
Zuletzt bearbeitet:
Zurück