Geforce Ampere offiziell: RTX 3090 und RTX 3080 starten im September, RTX 3070 im Oktober - alle Infos

Du postest im ernst ein Nvidia Marketing Video und willst aus dem Video ableiten, dass das Bild nicht überschärft ist. Auch die Tatsache, dass die Überschärfung in vielen Reviews festgestellt wurde, lassen wir auch mal weg?
Soll ich jetzt unabhängige Tests als Antwort auf dein Hersteller Marketing Video posten? Im Ernst?

PS: Hast du eventuell einen Link zu einer Page von der Regierung von Weißrussland zu der Legitimität der kürzlichen Wahlen die dort stattfanden? Danke!


Huiuiui, heut mit dem falschen Fuß aufgestanden?:D
Mal locker durch die Hose atmen und das ganze etwas entspannter sehen. Das hilft manchmal.
Hier geht's schließlich nur um ein teures Hobby, das sollte doch vorrangig Spaß machen oder nicht?

Aber du kannst gerne mehr Material rein stellen, ich schau es mir an!:daumen:
 
Huiuiui, heut mit dem falschen Fuß aufgestanden?:D
Mal locker durch die Hose atmen und das ganze etwas entspannter sehen. Das hilft manchmal.
Hier geht's schließlich nur um ein teures Hobby, das sollte doch vorrangig Spaß machen oder nicht?

Du das war spaßig von mir gemeint ;)
Schau dir das Thema nochmal an, besonders den Punkt mit dem Schärfefilter. Nvidia plant deshlab angeblich eine neue Treiberdfunktion um die Schärfe nach unten zu regeln.

Vor vielen Jahren gab es z.B. viele Video Scaler in AV Receivern, die DVDs auf 1080p hochskalliert haben (inkl. einem aggressiven Schärfefilter). Reaktion von Laien in Foren: Wir brauchen keine Blu Ray mehr, DVD mit Video Scaler reicht aus und ist sogar noch besser!

Wie gesagt DLSS 2.0 ist super, aber weder identisch noch besser als nativ. Es ist eine weitere interessante Alternative zu nativ die eine andere visuelle Darstellung bietet.
 
Naja ... ich tendiere nicht zu warten, vielleicht noch schnell Raff's Test, Willi's Video und dann wird bestellt.
Schätze über der 3090 wird so schnell nix kommen. ;)

PS: Danke für den Link ! Kann man sich schon mal auf Ampere einstimmen. :daumen:


edit: Allgemein is Warten natürlich ne super Option, falls man auf die Versionen mit mehr Speicher schielt(70er/80er), oder AMD abwarten möchte.
Die frage ist wurde es mit pci-e 4.0 gemacht oder nicht.

Das könnte Leistungsentscheident sein.

Deshalb erst reale Tests von igor und pcgh abwarten.

Leistung hat die 3080 gegenüber der 2080ti um 30 fps in 4k das steht außer Frage.

Das andere ist wurde es mit dlss 2.0 oder 3.0 gemacht.

Das weiß man auch nicht.

Gesendet von meinem SM-A520F mit Tapatalk
 
DOOM Eternal | Official GeForce RTX 3080 4K Gameplay - World Premiere - YouTube

Grade online gekommen.

Da sieht man ohne Rtx on das bei 4k schon 10gb vram voll sind bei rtx3080.

Wie ich schon sagte ich warte erst mal ab denn 10gb vram ist zu wenig.

Gesendet von meinem D6603 mit Tapatalk

Na wenigstens haben die mal jemanden genommen der auch zocken kann. xD
Und kein langweiliges über die Map laufen, sondern Ääääktschn!

Die Performance sieht jedenfalls wirklich gut aus. Ich spiele in UWQHD als Kompromiss zwischen FPS und Bildqualität.
So langsam darf man dann aber wohl doch auf 4k schielen als "high FPS Bevorzuger"!?

---

Tcha, die VRAM Geschichte... Gibt es da auch Meinungen von der pcgh? Würde mich mal interessieren wie die Redakteure/Experten darüber denken. 3080, gut so? oder zu wenig VRAM?
 
Du das war spaßig von mir gemeint ;)
Schau dir das Thema nochmal an, besonders den Punkt mit dem Schärfefilter. Nvidia plant deshlab angeblich eine neue Treiberdfunktion um die Schärfe nach unten zu regeln.

Vor vielen Jahren gab es z.B. viele Video Scaler in AV Receivern, die DVDs auf 1080p hochskalliert haben (inkl. einem aggressiven Schärfefilter). Reaktion von Laien in Foren: Wir brauchen keine Blu Ray mehr, DVD mit Video Scaler reicht aus und ist sogar noch besser!

Wie gesagt DLSS 2.0 ist super, aber weder identisch noch besser als nativ. Es ist eine weitere interessante Alternative zu nativ die eine andere visuelle Darstellung bietet.

Sobald ich die Möglichkeit habe, werd ich es testen. Ging es gestern beim Event nicht um DLSS 2.0?
Nur ist für mich klar, wenn ich eine Option für gleiche oder bessere visuelle Darstellung bekomme, ich im Spiel keinen Unterschied zur nativen Darstellung bemerke und diese auch noch weniger Leistung benötigt, sage ich ganz klar "her damit".
Das verhält sich bei mir ähnlich wie mit den Shader-Spielereien um Sweet-FX, Reshade und Co, und diese haben im Gegensatz zu DLSS in der Regel noch Leistung gekostet.
 
Zuletzt bearbeitet:
In Love. :-X
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Du weist aber schon, das man für diese Grafikkarte den Waffenschein braucht? :lol::lol::lol:

Und ich will hier auch noch nicht die Umbauten am PCIe-Slot erwähnen, die Umbauarbeiten sollen so schwierig und kostenintensiv sein, wie das Stuttgart 21 Projekt.
Also genieße die Zeit bis zum Release, Spare und vereinbare einen Termin beim Bankberater für den Finazierungsplan! :lol::lol::lol:
 
schon mal dran nachgedacht das die 4070 die letzte karte sein wird die ihr euch kaufen werdet (bedarf)?
die meisten wollen ja von 27" nicht weg, 27" in 8k machen aber keinen sinn.. und überhaupt 8k
4k ist also das höchste der gefühle und 3090 (also 4070 inkl RT) kommt da auf ca 144+FPS

Wenn Deine restlichen 1366 Beiträge von gleicher Qualität sind wie Deine letzten 10... dann Respekt.
 
Du postest im ernst ein Nvidia Marketing Video und willst aus dem Video ableiten, dass das Bild nicht überschärft ist.

DLSS dreht überhaupt nicht an der Schärfe, ich weiß nicht, wie Du auf den Trichter kommst. Das unterscheidet es ja gerade von den anderen Post-Process Schärfefiltern von AMD und NVidia.

DF hat wunderbare Videos, die sehr gut zeigen, was DLSS in der Realität bringt. Schau sie Dir an und mach Dir selbst ein Bild, bevor Du hier mit Halb-Wissen glänzt.
 
Da es ja viel Diskussion um das benötigte Netzteil für Ampere gibt, vielleicht für den ein oder anderen hilfreich: Ich besitze ein Be Quiet! Dark Power 11 650 Watt und würde mir gerne die 3080 zulegen.
Daher habe ich bei BeQuiet mal nachgefragt ob die 650 Watt dafür ausreichen oder ob ich aufstocken muss.

Hier die Antwort: Herzlichen Dank, dass Sie mit dem be quiet! Service Kontakt aufgenommen haben. Grundsätzlich sollte Ihr Netzteil noch völlig ausreichend sein. Achten Sie aber bitte darauf, die Rails aufzusplitten, quasi zwei Kabel, von zwei unterschiedlichen Ausgängen am Netzteil zu nutzen.
Hiermit teilen Sie die Last besser auf.
Da wir noch keine genauen Angaben haben, wieviel die Karte tatsächlich unter Volllast verbrauchen soll, können wir nur mit den angegeben Zahlen rechnen, die vermutet werden.

Also, alles unter Vorbehalt (war ja klar), aber 650 Watt sollten für die 3080 vermutlich reichen, zumindest bei einem vernünftigen Netzteil.
 
DLSS dreht überhaupt nicht an der Schärfe, ich weiß nicht, wie Du auf den Trichter kommst. Das unterscheidet es ja gerade von den anderen Post-Process Schärfefiltern von AMD und NVidia.

DF hat wunderbare Videos, die sehr gut zeigen, was DLSS in der Realität bringt. Schau sie Dir an und mach Dir selbst ein Bild, bevor Du hier mit Halb-Wissen glänzt.

Jetzt hast du richtig ins Klo gegriffen :D. Der mit dem Halbwissen bist du.

@ DLSS 2.0
Natürlich dreht man die Schärfe bei DLSS auf und das führt zu Artefakten in der Darstellung. Einfach den Post von Grestorn ignorieren, besonders seinen Verweis auf DF, der absolut lächerlich ist!
 
Da es ja viel Diskussion um das benötigte Netzteil für Ampere gibt, vielleicht für den ein oder anderen hilfreich: Ich besitze ein Be Quiet! Dark Power 11 650 Watt und würde mir gerne die 3080 zulegen.
Daher habe ich bei BeQuiet mal nachgefragt ob die 650 Watt dafür ausreichen oder ob ich aufstocken muss.

Hier die Antwort: Herzlichen Dank, dass Sie mit dem be quiet! Service Kontakt aufgenommen haben. Grundsätzlich sollte Ihr Netzteil noch völlig ausreichend sein. Achten Sie aber bitte darauf, die Rails aufzusplitten, quasi zwei Kabel, von zwei unterschiedlichen Ausgängen am Netzteil zu nutzen.
Hiermit teilen Sie die Last besser auf.
Da wir noch keine genauen Angaben haben, wieviel die Karte tatsächlich unter Volllast verbrauchen soll, können wir nur mit den angegeben Zahlen rechnen, die vermutet werden.

Also, alles unter Vorbehalt (war ja klar), aber 650 Watt sollten für die 3080 vermutlich reichen, zumindest bei einem vernünftigen Netzteil.
Nur mit dem Problem, dass wir dein Restsystem nicht kennen.
Wenn da noch ein paar hundert Watt dazu kommen, wirds eng.
 
Jetzt ist Ihre Meinung gefragt zu Geforce Ampere offiziell: RTX 3090 und RTX 3080 starten im September, RTX 3070 im Oktober - alle Infos
Jetzt ist der kleine Knauserkopf wieder am Grübeln. Eigentlich ist die RTX 3090 ein faires Angebot, da hat man dann mit 24GB lange was von. Andereiseits spiele ioch nur in WQHD und aktuell "reichen" mir auch 6GB. Der Sprung auf derer 10 ist mir zwar eigentlich zu gering, aber das reicht das trotzdem wieder für 2 Jahre und dann wird wieder neu gemischt.

Es bleibt alles Kaffeesatz, bis P'CGH getestet hat. Hast Du überhaupt schon Karten bekommen, Raff?
 
Du weist aber schon, das man für diese Grafikkarte den Waffenschein braucht? :lol::lol::lol:
Und ich will hier auch noch nicht die Umbauten am PCIe-Slot erwähnen, die Umbauarbeiten sollen so schwierig und kostenintensiv sein, wie das Stuttgart 21 Projekt.
Also genieße die Zeit bis zum Release, Spare und vereinbare einen Termin beim Bankberater für den Finazierungsplan! :lol::lol::lol:
Verstehe nicht wo das Problem liegt.
Mit einem Wasserkühler wird die Karte genau so dick und annähernd so schwer, wie ne RTX2080Ti, eine GTX1080Ti oder eine GTX980Ti.
Dünn und im 2-Slot-Design. Du glaubst doch nicht ernsthaft, dass ich mir das 3kg Alu-Brett da besorge oder? :ugly:
 
Nur mit dem Problem, dass wir dein Restsystem nicht kennen.
Wenn da noch ein paar hundert Watt dazu kommen, wirds eng.

Ja sorry, das hab ich natürlich bei meiner Frage mit angegeben: Ryzen 3700x, MB: Gigabyte Aorus Pro, 16 GB Ram, 4 SSDs, 4 Gehäuselüfter, 2 CPU-Kühlerlüfter.
"Ein paar hundert Watt" kommen also eher nicht dazu...
 
Ich hab seit längerem ein Messgerät zwischen Netzteil und Steckerleiste hängen.
Mit der 1080ti auf 2,0GHz geprügelt und den 8700k auf 4,8GHz komme ich auf max. 408 Watt:
IMG20200903174940.jpg

Für die 3080 wird das dann wohl nichts mehr. Ich schätze dann mal mindestens ein 550W wirds brauchen.
 
Für die 3080 wird das dann wohl nichts mehr. Ich schätze dann mal mindestens ein 550W wirds brauchen.
Asus und Nvidia empfehlen 750W. Abgesehen davon sollte man beim Neukauf einer GPU sowieso mal abchecken, ob man sich nicht mal ein neues NT besorgt.
Die GPU ist nämlich oft das erste was abraucht, wenn das NT altersschwach wird. Und ob 550W oder 750W ist beim Neukauf, relativ zum Preis der GPU, kein großer Unterschied.

be quiet! Straight Power 11 750W 122,71€ (2020) | Preisvergleich Geizhals Deutschland

be quiet! Straight Power 11 550W 90,84€ (2020) | Preisvergleich Geizhals Deutschland

Ca 30€ Unterschied.
 
Naja, ich hab ein Straight Power 11 450W, am Alter wird es nicht liegen..;)

Das 550W hab ich schon länger aufm Schirm. Da ich mich aber noch nicht zwischen 3080 und 3090 entschieden hab (vor allem nicht, bevor die 3080ti dann offiziell ist), warte ich da noch.
 
Jetzt hast du richtig ins Klo gegriffen :D. Der mit dem Halbwissen bist du.

@ DLSS 2.0
Natürlich dreht man die Schärfe bei DLSS auf und das führt zu Artefakten in der Darstellung. Einfach den Post von Grestorn ignorieren, besonders seinen Verweis auf DF, der absolut lächerlich ist!

Dann hast Du sicher auch eine Quelle die diese Behauptung belegt. Ansonsten muss ich dieses Posting als simples Beleidigungsposting einordnen.

DLSS rekunstruiert Details und ändert eben NICHT den Schärfeeindruck. Letzteres wird durch Schärfefliter durch Hervorheben von Kanten und Details erzeugt, es werden dabei aber keine Details rekonstruiert oder ergänzt. Bei DLSS eben schon, dafür ändert DLSS den Kontrast nicht und verfälscht auch nicht das Bild wie Schärfefilter.

Artefakte entstehen praktisch bei jeder Bearbeitung, bei DLSS sind das die sichtbaren Nebeneffekte von der Temporalen Verarbeitung, also ein Nachziehen an bestimmten Stellen - die aber angeblich auch nicht notwendig wären.

Meine Quelle: Death Stranding PC DLSS 2.0 vs PS4 Pro Checkerboarding: Image Reconstruction Analysis - YouTube
 
DLSS dreht überhaupt nicht an der Schärfe, ich weiß nicht, wie Du auf den Trichter kommst. Das unterscheidet es ja gerade von den anderen Post-Process Schärfefiltern von AMD und NVidia.
DF hat wunderbare Videos, die sehr gut zeigen, was DLSS in der Realität bringt. Schau sie Dir an und mach Dir selbst ein Bild, bevor Du hier mit Halb-Wissen glänzt.

Dann hast Du sicher auch eine Quelle die diese Behauptung belegt. Ansonsten muss ich dieses Posting als simples Beleidigungsposting einordnen.

Ich gebe mich geschlagen, du hattest recht. Mit dem Verweis auf DF hast du natürlich den Vorschlaghammer gezogen, nicht umsonst schaue mir jedes Video von denen an und werbe schon fast für sie hier im Forum. Wie konnte ich das nur übersehen?

Oder: Könnte es etwa sein, dass DF diejenigen waren, die die Überschärfung von DLSS 2.0 erst richtig publik gemacht haben in ihrem DLSS 2.0 Review? Nein das kann nicht sein! Wollen wir mal schauen?
Z.B. Hier ab 6.26: Control vs DLSS 2.0: Can 540p Match 1080p Image Quality? Full Ray Tracing On RTX 2060? - YouTube

Hier einer von vielen Posts zu dem Thema: Please don'''t force sharpness and contrast filters with DLSS 2.0 : controlgame
Das heisst nicht das DLSS 2.0 nicht trotzdem super aussieht, mache sehen die Überschärfung und andere nicht. Fakt ist, dass Grestorn hier mit Halbwissen glänzt.
 
Zuletzt bearbeitet:
Zurück