Geforce Ampere offiziell: RTX 3090 und RTX 3080 starten im September, RTX 3070 im Oktober - alle Infos

schon mal dran nachgedacht das die 4070 die letzte karte sein wird die ihr euch kaufen werdet (bedarf)?
die meisten wollen ja von 27" nicht weg, 27" in 8k machen aber keinen sinn.. und überhaupt 8k
4k ist also das höchste der gefühle und 3090 (also 4070 inkl RT) kommt da auf ca 144+FPS
Schonmal daran gedacht, dass es viele Leute gibt, die Dinge kaufen, die sie nicht brauchen? ;)
 
schon mal dran nachgedacht das die 4070 die letzte karte sein wird die ihr euch kaufen werdet (bedarf)?
die meisten wollen ja von 27" nicht weg, 27" in 8k machen aber keinen sinn.. und überhaupt 8k
4k ist also das höchste der gefühle und 3090 (also 4070 inkl RT) kommt da auf ca 144+FPS

In Fifa kommt die 3090 sicher auf 4k/144 FPS bei Cyperpunk/Ultra mit RT ON wette ich ne 3090 dagegen.
Aber im Ernst in der Tendenz hast du nicht unrecht. Das Problem ist, dass sie Spielehersteller ihre Engines an Elektroschrott (Playstation 4, XBox) optimieren und somit eine wirkliche grafische Weiterentwicklung von vielen Games nicht mehr stattfindet.
Für Fifa z.b. ist die empfohlene Karte ne 670.

Mit den NextGen-Konsolen kommt da hoffentlich wieder Bewegung rein.
Viel besser wäre es natürlich, wenn die Leute endlich aufhören würden Konsolen zu kaufen.

Versuch mal ein aktuelles AAA Spiel in Ultra FHD auf ner 10 Jahre alten Karte zu spielen.
Da kommen nicht viele fps bei rum.

Von wegen Fifa und co. und der ganze konvertierte Konsolenschrott laufen locker auf Uraltkarten.
 
Zuletzt bearbeitet von einem Moderator:
Das mit dem Schärfefilter stimmt. Aber es sieht sehr gut aus.
Es ist jedenfalls beeindruckend, dass da eine 8K-Bildausgabe stattfindet und die Karte 60FPS halten kann.
Ist ja auch egal. Die Leistung der RTX3090 ist insane, wenn nur ein Bruchteil vom Behaupteten stimmt.

DLSS 2.0 ist eine tolle Technologie und ich würde es auch nutzen wenn nötig. Es hat aber Vor- und Nachteile und wenn möglich, dann würde ich bei der nativen Darstellung bleiben um die Nachteile nicht zu haben.
Ist aber natürlich eine Frage der Leistung und Anforderung.
 
hab doch eine 3080 xD
....2080Ti wäre mit schnellen 1600p LG 38GL950G 37,5'' Curved UltraWide™ Monitor | LG Deutschland überfordert, daher langsame 75Hz LG 38WK95C-W 21:9 Curved UltraWide™ Monitor | LG OEsterreich @ 2070S
Ach ne 3080 haste schon, nicht schlecht.
Und die Tatsache, dass der 38GL950G auch noch G-Sync hat und die Möglichkeit besteht, dass man den Monitor einfach mit weniger Hz betreiben könnte, lässt du außen vor?
Wenn du dann irgendwann deine Grafikkarte hast die deine gewünschten FPS auf den Bildschirm zaubert, hast du dich selbst limitiert mit dem Kauf eines schlechteren Monitors. :daumen:
 
....und GPUs und CPUs werden immer stromhungriger.

Naja also das würde ich jetzt nicht so sehen. Gerade bei den CPUs ist es genau anders herum, die wurden im Laufe der Jahre immer effizienter - siehe 3700X.
Auch die GPUs würden sparsamer gehen, nur ist dies eine Designentscheidung der Hersteller. Gerade bei Ampere wurde ja nun wirklich durch Strom jedes bisschen Leistung aus dem 8LPP gequetscht.
Das kann dann aber bei der 5nm-Hopper-Generation nach Ampere schon wieder ganz anders aussehen (wovon ich auch ausgehe).
 
Aber ehrlich, das ist auch das was mir beim Gedanken an ein Upgrade immer durch den Kopf geht... Wofür eigentlich?
Außer Cyberpunk gibts derzeit nichts worauf ich mich freue bzw was ich spielen will wofür mir Leistung fehlen wird.
Immerhin wirds so relativ einfach auf eine 3080 mit 20 GB zu warten, solange kann die 1080 Ti noch ihren Dienst verrichten :P

Genau das frag ich mich auch. Nicht falsch verstehen, ich bin wirklich froh das die Karten ordentlich an Leistung dazu gewonnen haben, aber es muss auch entsprechende Titel geben die das Potential der Karten ordentlich nutzen.
Klar, 4K bzw. 8K, wenn es nach Nvidia geht, fordern einiges an Leistung, aber dennoch müssen die Spiele auch optisch zulegen. Auflösung alleine ist meiner Meinung nach nicht alles. Deshalb bin ich wirklich froh, das die Konsolen jetzt mit Raytracing und Octa-Cores daher kommen. Davon erwarte ich mir einen ordentlichen Sprung bei den Games. Das gezeigte Material von CoD Black Ops Cold War lockt mich auf jeden Fall nicht hinter dem Ofen vor. Ich seh hier schon wieder eine Installationsgröße von über 150GB. Aber die passenden Texturen dazu muss ich mit der Lupe suchen. :ugly: RTX IO, DLSS 2.0 find ich auch sehr spannend. Ersteres klingt sehr interessant. Mal sehen wie es sich in der Praxis schlagen wird.

Königlich zur RTX3000 Serie sind auf jeden Fall die Memes dazu :lol::
RTX300.png
 

Ja so sehe ich das auch.
Mich hat das CoD Gameplay auch nicht abgeholt, sah halt aus wie Modern Warfare mit seinen RTX Features.
Ganz nett, aber mehr auch nicht.
Cyberpunk hingegen sieht nach dem non-plus ultra aus, weil da alles mit dabei ist und das Spiel sehr stimmig wirkt, hoffe sehr dass da noch mehr Spiele auf einem ähnlichen Niveau erscheinen.
Watch Dogs 3 sieht vielleicht auch noch ganz interessant aus, das könnte ich mich auch noch reizen, wirklich schöne Reflektionen gabs da zu sehen und das Spielprinzip an sich hat mir in WD1 und WD2 auch ganz gut gefallen.
Mal sehen was uns noch erwartet, hoffentlich noch nicht soviel bis die 3080 Ti mit 20 GB am Start ist :P Oder anders, hoffen wir dass die Karte noch nicht solange auf sich warten lässt

Und die Memes sind echt klasse, den hab ich gestern gesehen :ugly::lol::
a3w8BW7_460s.jpg
 
DLSS 2.0 ist eine tolle Technologie und ich würde es auch nutzen wenn nötig. Es hat aber Vor- und Nachteile und wenn möglich, dann würde ich bei der nativen Darstellung bleiben um die Nachteile nicht zu haben.
Ist aber natürlich eine Frage der Leistung und Anforderung.

Naja DLSS 2.0 sieht nicht nur auf Screenshots besser aus, sondern auch auf Vergleichsvideos.

Selbst in 4K kann ich keine übermäßige Schärfe feststellen.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Ist dem so?
Laut PCGH hält ne 8GB ganz gut mit ner 11GB Karte mit.
Anhang anzeigen 1099662
Kirschen und so.
Schlechte Frametimes kannst du anhand dieser Werte nicht ausschließen oder erkennen.

Edit:
144FPS in RT sollten 2020 drin sein... sonst brauchen die damit auch nicht zu werben. aus diesem grund ist es eine übergangskarte...
Es ist nichts neues, dass die ersten Karten, die ein neues Feature mitbringen, dieses nicht sonderlich schnell berechnen. Andererseits muss man auch anerkennen, dass Raytracing sehr lange in Echtzeit gar nicht möglich war. Ein zeitgenössisches System hätte für einen Frame in Quake 2 mit Raytracing vermutlich mehrere Tage benötigt.
 
Zuletzt bearbeitet:
DOOM Eternal | Official GeForce RTX 3080 4K Gameplay - World Premiere - YouTube

Grade online gekommen.

Da sieht man ohne Rtx on das bei 4k schon 10gb vram voll sind bei rtx3080.

Wie ich schon sagte ich warte erst mal ab denn 10gb vram ist zu wenig.

Gesendet von meinem D6603 mit Tapatalk

Pssst lass das doch nicht die Leute hören, die auf Krampf ihre 2080 Ti für 'n Appel und n Ei hergeben um auf eine Karte mit 1 GB weniger VRAM zu wechseln und behaupten, dass die 10 GB völlig ausreichend sind und kein Game die voll macht ;)
 
Geil ! Ich seh meine 100 festgetackerten FPS schon näher kommen. :)
Das is ja auch "nur" die 8GB 3080 hier im Beispiel.

Boah ... freu mir schon n Loch in's Knie. :D
Doom ist aber eher nicht so hardwarelastig.

Andere Spiele schon. Richtige Tests abwarten ist sinnvoll.

Wer Rtx on braucht sollte erstrecht warten auf mehr Vram.

Gesendet von meinem D6603 mit Tapatalk
 
Naja ... ich tendiere nicht zu warten, vielleicht noch schnell Raff's Test, Willi's Video und dann wird bestellt.
Schätze über der 3090 wird so schnell nix kommen. ;)

PS: Danke für den Link ! Kann man sich schon mal auf Ampere einstimmen. :daumen:


edit: Allgemein is Warten natürlich ne super Option, falls man auf die Versionen mit mehr Speicher schielt(70er/80er), oder AMD abwarten möchte.
 
Naja DLSS 2.0 sieht nicht nur auf Screenshots besser aus, sondern auch auf Vergleichsvideos.

Selbst in 4K kann ich keine übermäßige Schärfe feststellen.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Du postest im ernst ein Nvidia Marketing Video und willst aus dem Video ableiten, dass das Bild nicht überschärft ist. Auch die Tatsache, dass die Überschärfung in vielen Reviews festgestellt wurde, lassen wir auch mal weg?
Soll ich jetzt unabhängige Tests als Antwort auf dein Hersteller Marketing Video posten? Im Ernst?

PS: Hast du eventuell einen Link zu einer Page von der Regierung von Weißrussland zu der Legitimität der kürzlichen Wahlen die dort stattfanden? Danke!
 
Zurück