Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Mir würde es Nutzen bringen :devil: Dass du Turing generell negativ siehst, merkt man ja.

Dann gehörst du halb zu der Zielgruppe der Karte. Ist ja kein Problem, ich wollte lediglich andeuten dass es allen 1440p und 1080p Nutzern schlicht nicht zu Verfügung steht das Feature.
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

WTF. Kann das wer bestätigen, dass nvidia diesmal nicht vorsieht, dass die Lüfter im idle abschalten? Hardwareluxx schreibt im Test zu Zotac 2080Ti AMP, dass dies beim Referenz PCB nicht der Fall ist. Ist das so schwer bei einer Custom das zu machen oder müssen die RTX aktiv gekühlt werden? Und ist gilt das für alle RTX?
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

WTF. Kann das wer bestätigen, dass nvidia diesmal nicht vorsieht, dass die Lüfter im idle abschalten? Hardwareluxx schreibt im Test zu Zotac 2080Ti AMP, dass dies beim Referenz PCB nicht der Fall ist. Ist das so schwer bei einer Custom das zu machen oder müssen die RTX aktiv gekühlt werden? Und ist gilt das für alle RTX?

Nein es gibt auch Karten die passiv laufen im Idle.Die MSI Trio kann das glaube ich.
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

WTF. Kann das wer bestätigen, dass nvidia diesmal nicht vorsieht, dass die Lüfter im idle abschalten? Hardwareluxx schreibt im Test zu Zotac 2080Ti AMP, dass dies beim Referenz PCB nicht der Fall ist. Ist das so schwer bei einer Custom das zu machen oder müssen die RTX aktiv gekühlt werden? Und ist gilt das für alle RTX?

Ist doch egal, die Standart Lüfterkurve ist einfach immer Müll, man kann die Lüfter dann anlaufen lassen, wenn man es will, wobei solange die Lüfter nicht schneller drehen als die Gehäuselüfter macht es sowieso nichts aus, da man sie dann nicht raushört.
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Wie willst du die Lüfter denn ab einer bestimmten Temperatur anlaufen lassen, wenn sie sich nicht abschalten lassen?
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Wie willst du die Lüfter denn ab einer bestimmten Temperatur anlaufen lassen, wenn sie sich nicht abschalten lassen?

Ganz einfach, bis zB 60°C paar Stöcke in die "Speichen" stecken und ab 60°C wieder rausziehen. Seid doch mal ein wenig kreativ Mensch :D
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Ist doch egal, die Standart Lüfterkurve ist einfach immer Müll, man kann die Lüfter dann anlaufen lassen, wenn man es will, wobei solange die Lüfter nicht schneller drehen als die Gehäuselüfter macht es sowieso nichts aus, da man sie dann nicht raushört.

Die meisten Lüfter erlauben keine Abschaltung bei Turing.
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Vielleicht ist die 2080TI mit 12nm nur eine Notgeburt, da 7nm nicht schnell genug da war / entwickelt wurde und die Zeit dann von Pascal zu jetzt dann zu lange wurde?
Gerüchte gab es dazu auch.
Würde mich nicht wundern wenn Ende 2019 oder Anfang 2020 schon die neuen richtigen fertigen 7nm Karten da sind. Die dann wirklich besser sind als die 12nm Karten.

Würde mich dann als Käufer der 2080Ti richtig ärgern

Ende 2019 wäre ja i.O.
Die lezten ~25Jahre gab es teilweise mehr als eine Generation in einem Jahr von daher egal aber mich würde eher die mässige "Mehr"performance der 2080Ti
zur alten Gerneration inc. den total überzogenen Preis dann nerven.
Aber das wuste man ja dann auch vor dem kauf :ugly:
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

DLSS oder TAA, beider Verfahren haben ihre Vorzüge und Nachteile.

Die aus dem Digital Foundry-Video finden DLSS besser, auch von der Bildqualität her:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Danke für den Vergleich. Mir gefällt bei FF auf jeden Fall TAA. Man sieht zwar die Pixeltreppen jedoch finde ich die Alternative mit DLSS schlehcter, da sie zu weich zeichnen und dadurch Details verloren gehen und das Bild insgesamt weicher wirkt. Besser ist sowieso die Pixeldichte zu erhöhen also zocken in 8 k auf 24" und wir haben das Problem nicht mehr. :devil:
Dann gehörst du halb zu der Zielgruppe der Karte. Ist ja kein Problem, ich wollte lediglich andeuten dass es allen 1440p und 1080p Nutzern schlicht nicht zu Verfügung steht das Feature.
Wie geht das nur mit 4K?

MfG
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Wie geht das nur mit 4K?

MfG

DLSS geht derzeit nur in UHD, weil der Supercomputer von Nvidia für jede einzelne Auflösung neu trainieren muss. Ausgangsmaterial für UHD-DLSS ist natives WQHD. Für WQHD-Bildausgang benötigt der HPC dann Ausgangsmaterial von HD um Performancegewinne erzielen zu können. Die wären dann Prozentual auch geringer als 4k-DLSS(aka WQHD-AI-Upscaling), weil HD eher CPU-Limitiert ist. Auch die Gamer mit 21:9/Widescreen schauen die Röhre schauen, s.o. DLSS ist also sehr beschränkt in der Praxis. Das was mit Checkerboard-Rendering in Konsolen gemacht wird, versucht Nvidia nun in PC`s zu implementieren.
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Ah ok, mhh, dass schmälert ja den Kundenkreis noch einmal. Wird DLSS nicht in der Anwendung weiter trainiert oder ist die Auswirkung nun gesetzt?

MfG
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Ah ok, mhh, dass schmälert ja den Kundenkreis noch einmal. Wird DLSS nicht in der Anwendung weiter trainiert oder ist die Auswirkung nun gesetzt?

Theoretisch müsste das gehen, aber praktisch, wäre es dann nicht mehr spielbar. Beim Trainieren wird ja auch nicht bloß eine Karte verwendet, da steckt Rechenleistung der Vergeltung dahinter. Hätte ich gerne für zu Hause... :D
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Theoretisch müsste das gehen, aber praktisch, wäre es dann nicht mehr spielbar. Beim Trainieren wird ja auch nicht bloß eine Karte verwendet, da steckt Rechenleistung der Vergeltung dahinter. Hätte ich gerne für zu Hause... :D
Na wofür gibt es denn die Cloud. ;) :D
Und anstatt so viel Geld zu verlangen müsste man dann Nvidia Nutzer dafür bezahlen für Nvidia die features zu entwickeln bzw. weiter zu entwickeln. :ugly:

MfG
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Na wofür gibt es denn die Cloud. ;) :D

Es gibt keine "Cloud", es gibt die Rechner von anderen Leuten. ;) Klar, so ein Cloud-Ansatz ist gut*, wenn man zu wenig Daten zum Trainieren hat. Aber das ist nicht das Problem von Nvidia. Das Problem ist, dass bei jedem Spiel und bei der jeder Auflösung ein unterschiedliches Netz trainiert werden muss. Das ist erstmal kombinatorisch ungünstig. Die K.I. ist längst nicht so weit und so flexibel, wie einige vielleicht denken.

* Aus der Sicht von Nvidia. Aus der Sicht eines Anwenders ist es natürlich gut wegen der Rechenpower. Aber dann hat man wieder das Problem mit den Daten. Ein guter K.I. Ansatz braucht immer beides, Daten ohne Ende und Rechenpower.

Und anstatt so viel Geld zu verlangen müsste man dann Nvidia Nutzer dafür bezahlen für Nvidia die features zu entwickeln bzw. weiter zu entwickeln.
s000.gif

Trau' ich Nvidia voll zu, dass das irgendwann mal ein Bezahlservice wird. Einfach ein E-Pay Modul in GeForce Experience integrieren und fertig: "Wenn Sie diesen Titel in 4k und 100FPS genießen wollen, geben sie bitte jetzt ihre Kreditkarte an. Schließen Sie auch jetzt günstig ein K.I.-Abo ab. Die ersten 3 Monate sind kostenlos."
 
Zuletzt bearbeitet von einem Moderator:
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

DLSS geht derzeit nur in UHD, weil der Supercomputer von Nvidia für jede einzelne Auflösung neu trainieren muss. Ausgangsmaterial für UHD-DLSS ist natives WQHD. Für WQHD-Bildausgang benötigt der HPC dann Ausgangsmaterial von HD um Performancegewinne erzielen zu können. Die wären dann Prozentual auch geringer als 4k-DLSS(aka WQHD-AI-Upscaling), weil HD eher CPU-Limitiert ist. Auch die Gamer mit 21:9/Widescreen schauen die Röhre schauen, s.o. DLSS ist also sehr beschränkt in der Praxis. Das was mit Checkerboard-Rendering in Konsolen gemacht wird, versucht Nvidia nun in PC`s zu implementieren.

Bist du dir da sicher? Verschiedene Verhältnisse von Geometrie und Pixelraster kommen doch auch durch verschiedene Kamerapositionen (Blickwinkel, Entfernung) zustande. Wobei es natürlich typischere und weniger typische Szenarien gibt. Aber grundsätzlich sollte das schon funktionieren.

Und was hat das mit Checkerboarding zu tun?
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Ist ja kein Problem, ich wollte lediglich andeuten dass es allen 1440p und 1080p Nutzern schlicht nicht zu Verfügung steht das Feature.

Was würdest du dir für FullHD und WQHD von DLSS versprechen? Für UWQHD könnte das allerdings noch hilfreich sein.
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Mir gefällt bei FF auf jeden Fall TAA.

Mir auch, wobei mir das egal ist, weil ich das Spiel nicht zocke :D Es ist jetzt die Frage, ob das generell bei DLSS so ist oder ob das nur bei FF15 so rüberkommt und ob sich das mit mehr Training noch verbessern lässt, ich denke, beim Training gibt es auch einen Sweetspot, nach dem weiteres Training nicht mehr viel bringt.

Und ja, bisher war DLSS nur für UHD angedacht, UWQHD sollte davon aber auch noch profitieren, mal sehen, ob Nvidia die Auflösung noch mit aufnimmt.
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Ich finde ehrlich gesagt das es oft ein Problem von AA ist, dass die Schärfe darunter leidet und Kleinstdetails weggebügelt werden. Deshalb bin ich ja bei gleicher Bildschirmgröße für höhere Auflösungen, dann hat man keine Treppchen mehr und ein nativ scharfes Bild. ;)

MfG
 
AW: Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega

Mir auch, wobei mir das egal ist, weil ich das Spiel nicht zocke :D Es ist jetzt die Frage, ob das generell bei DLSS so ist oder ob das nur bei FF15 so rüberkommt und ob sich das mit mehr Training noch verbessern lässt, ich denke, beim Training gibt es auch einen Sweetspot, nach dem weiteres Training nicht mehr viel bringt.

Und ja, bisher war DLSS nur für UHD angedacht, UWQHD sollte davon aber auch noch profitieren, mal sehen, ob Nvidia die Auflösung noch mit aufnimmt.

Ich denke nicht das UWQHD aufgenommen wird. Zu geringe Verbreitung, zu abnormale Verhältnisse in der Darstellung. Das wird vorerst auf UHD beschränkt sein.
Nvidia hat sich dazu auch schon geäußert, vorerst wird nichts zusätzlich aufgenommen, man behält sich natürlich die Option für die "Zukunft" vor.

Bist du dir da sicher? Verschiedene Verhältnisse von Geometrie und Pixelraster kommen doch auch durch verschiedene Kamerapositionen (Blickwinkel, Entfernung) zustande. Wobei es natürlich typischere und weniger typische Szenarien gibt. Aber grundsätzlich sollte das schon funktionieren.
Und was hat das mit Checkerboarding zu tun?

"Heißt im Klartext: Im normalen Modus stellt DLSS einen intelligenten Upscaler dar, der für die Ultra-HD-Auflösung angeboten wird (darunter wären die Performance-Gewinne niedriger, sodass sich ein separates Training laut Nvidia nicht lohne)."
http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Tests/Review-1265133/4/

Mir auch, wobei mir das egal ist, weil ich das Spiel nicht zocke :D Es ist jetzt die Frage, ob das generell bei DLSS so ist oder ob das nur bei FF15 so rüberkommt und ob sich das mit mehr Training noch verbessern lässt, ich denke, beim Training gibt es auch einen Sweetspot, nach dem weiteres Training nicht mehr viel bringt.

Und ja, bisher war DLSS nur für UHD angedacht, UWQHD sollte davon aber auch noch profitieren, mal sehen, ob Nvidia die Auflösung noch mit aufnimmt.

Man kann davon ausgehen dass exakt dieser immer gleich ablaufende Benchmark so oft wie es nur ging durch den Supercomputer gejagt wurde. Viel besser würde ich jetzt nicht erwarten.
Witzig ist ja dass man es in den Demos auch in niedriger Auflösung anbietet. Dafür hat man anscheinend die KI auch trainiert. Das lässt einen die Demos denke ich nochmal etwas besser einschätzen....
 
Zurück