Geforce RTX 3000: Ampere-Vorstellung angeblich im März

AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Was sagt ihr denn nun zu Ampere ? Freut ihr euch auch so drauf, wie ich ? :)

Ich bin zumindest schon mal drauf gespannt was bei den Karten an Mehrleistung rausspringt.
Freuen tu ich mich erst, wenn die Preise nicht im vierstelligen Bereich kleben und eine 3060 nicht mehr als 400€ kostet.
Mit etwas Glück knicken dann nämlich die Preise von den gebrauchten Pascal-Karten, bzw. den aktuellen Navis ein. :D
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Da schaffen die GPUs hier doch wesentlich mehr echtzeit Realismus als manche User. Faszinierend.
Wir Menschen können sicherlich etwas Abmildern ohne jeden Zweifel. Doch Grundlegend etwas Verbessern ohne Absoluten Neuanfang das schafft die Moderne Welt an sich schon nicht. Wir müssten bei 0 Anfangen und zwar wirklich 0. Schade Beteigeutze ist eigentlich zuweit endfernt dafür. Also dennoch alle Uhren auf 0

Oder...Jetzt hier

Man gibt sich einfach wirklich Mühe mit unserer Umwelt! Nicht die Umwelt des Planeten sondern die für uns nötige, soweit man nur kann inclusive Kompromissen. Und verliert Das Moderne Leben nicht aus den Augen. Hand aufs Herz wer von uns ist im Stande sich Grundlegend selbst zu versorgen in heutiger Wohn und Agrar lage- Selbst wenn er Theoretisch könnte.

Also weg mit diesem Thema aus Anschuldigungen und Vorwürfen von einem Gutmenschen zum anderen? Und lasst uns endlich über Geile zukünftige GPUs reden
Ich hoffe auch das die Preise der Prestige Modelle nicht zu weit in die 4 Stellen gehen. Aber ich möchte gern ein Sinvolles Upgrade zu meiner 1080Ti. Und Sinvoll ist für mich persöhnlich nicht eine Auflösungstufe weiter sondern eine Auflösungsstufe + hübsches Leistungsplus
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Meinst du nicht du machst es dir gerade extrem einfach? Es geht absolut nicht darum alles perfekt zu machen, aber irgendwo muss man nun mal anfangen und da gibt es bei jedem etwas. Selbst wenn es erstmal nur der Verzicht auf das Auto zum Brötchen holen ist oder so.

So ... Kaffeepause und kurz Zeit zum Antworten.

Ja. Ich hab ja auch nie behauptet, dass ich gar nix mache.

Ich gönn's mir halt einfach, auf den Stromverbrauch meines Gaming-PCs zu pfeiffen, oder ob mein KleinSTwagen mal hier, oder da, kurzfristig n halben Liter mehr von dem wenigen verbraucht(von den ca. 30 Litern/Monat), da ich ansonsten mein ganzes Arbeitsleben indirekt als kleines Rädchen, im großen Netzwerk, meinen kleinen Teil dazu beitrage, dass sowohl Güter, als auch die Bevölkerung, rund um die Uhr ohne Auto von A nach B kommen.

Ich arbeite somit 7 Tage die Woche, rund um die Uhr für den Umweltschutz und zwar aktiv, reell und praktisch, auch an Feiertagen über Ostern, oder wie zuletzt über Weihnachten, Silvester und Neujahr, bereits fast 30 Jahre und voraussichtlich, falls ich es so lange packe ;) noch locker mindestens weitere 15 Jahre.
So gesehen sehe ich das relativ gelassen, wenn mir jemand sagt, ich soll doch mal an die Umwelt denken.
Keine Ahnung wie viele Freunde der Ökologie hier so einen Einsatz für's Allgemeinwohl zeigen.

PS: Liebe Grüße an alle Schichtdienstler im öffentlichen Dienst, die den Laden rund um die Uhr am laufen halten. :)

Und nein, ich mach mir keinen Kopp um meinen PC, oder meinen Kleinstwagen. Ich tu an anderer Stelle was.
Mein Hobby is Zocken und das mach ich gern.
Freue mich auf die neue Hardware 2020.

Unter anderem hoffentlich einigermaßen bezahlbare 3080.
Wo wir wieder beim Thema wären.

Schnell mal eben getippelt, am Handy, auffe Arbeit, irgendwo im Ruhrgebiet.
Kaffee is alle, weiter geht's. Endspurt richtung Feierabend.


edit(wie meistens ;) ):

So: Feierabend. Gute N8, bzw. guten Morgen @ all ! :daumen:
 
Zuletzt bearbeitet:
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Was sollen wir zu Ampere sagen. Bisher wissen wir nix. Leaks werden ja immer rarer, gibt kaum noch was zu spekulieren und diskutieren.
Vorallem bei nV.

In der Hinsicht ist es irgendwie langweilig geworden.
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Hmmm sounds like the competition goes on
But unfortunately not for prices.

Until then
i wait for better offers than actually exist.
my next GPu will have at least 12gb vram and at minimum rtx2080s performance for max 379€ (as rtx3060)
at that point, i have to swallow a hard pill to buying this.

it is possible that rtx3050 exist with rtx2070 performance for only 279€ small downgrade but i would take it
naming scheme could be different. but who cares names
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Er selbst sprach davon, dass die KI für DLSS in deren Rechenzentrum für jedes Spiel trainiert wird.
Beim Umfang der Spiele und Trainingsdauer von Bilderkennungs KI für Forschungsprojekte kann man sich dann ausrechnen, wie lange es dauert.

Die Essenz des ganzen ist: Man nutzt ein Neurales Netzwerk, welches mit hochaufgelöstem Material trainiert wird um nach dem Training aus dem Input einer niedrigeren Auflösung ein Bild zu berechnen, was hinsichtlich Antialiasing und Imagequalität oder Detailreichtum dem optisch höher aufgelöstem Bild entspricht, was den Rechenaufwand eine bestimmte Bild oder Videoqualität zu erzielen, verringert.

Vor allem an Anzeigeschirmen in Wolfenstein sehr gut zu sehen.

Was heißt das unterm Strich? Dass dein Stromsparargument genau umgedreht Sinn ergibt.
Man spart mit dieser Methode Strom ein, weil der Rechenaufwand für die gleiche Qualität geringer wird, was in einigen Fällen mit DLSS sehr gut funktioniert und woran auch weitergearbeitet wird.
Das bedeutet damit lässt sich auf Dauer gesehen Strom sparen und nicht Strom verschwenden, womit deine Argumentation unsinnig ist.

Heutzutage muss man auch als Gamer mal ein paar Minuten drüber nachdenken, wie man seinen Einfluss auf die Umwelt minimiert.

Es bringt bestimmt nichts irgendwelchen Götzen (Firmen) hinterherzulaufen und sie anzubeten.
Es gibt schon genug Pseudoargumente die den RT-Hate gespeist haben, da brauchen wir ehrlichgesagt nicht noch die Klima-Diskussion auf DLSS und dessen angebliche Unsinnigkeit ausdehnen.

DLSS freie Hardware, die Wahl des Stromanbieters, vermeiden von Einweg "Pfand" Flaschen / Dosen wären z.B. solche.

DLSS freie Hardware? Das ist doch nicht dein Ernst?
Solche Argumentationen kommen meist von den Neurechten, die sicherlich bald den Schuldigen für den Klimawandel ermitteln werden. Der Kriegs oder Wirtschaftsflüchtling, denn in seiner Heimat, wo er nix hat, würde er viel weniger CO2 in die Luft blasen.:-S

Ich bin sicher kein wirkliches Vorbild in Sachen Ökologie, aber zumindest ein paar Low hanging Fruit nehm ich mit.

Und der Hardware Gott, verbietet dir also die mit DLSS verseuchten Nvidia-Früchte vom Baum der Erkenntnis von Gut und Böse zu essen?
Ich glaube ich muss wieder den Heuchel-Preis rausgeben.:D

Ich hab nen 16 Monate alten Sohn und keinen Bock ihm ein Europa vorzusetzen, dass selbst in Deutschland auf dem Weg zu australischen Verhältnissen ist.

Und ich habe eine 3 Jahre alte Tochter und du wirst deine Kinder sicherlich nicht damit retten in Hardware-Foren DLSS als Klimaschädling zu propagieren.
Alleine dass du diese Diskussion mit dieser absurden Behauptung losgetreten hast, hat wohl mehr CO2 produziert - als nötig wäre.
*Wer Ironie findet, darf sie mir zufaxen*

Man rechnet sich seine Energiebilanz schön indem die Ergebnisse schon in einem Supercomputer vorberechnet, so daß sie effizient von der GPU in Echtzeit geschluckt werden.

Er hat in dem Punkt überhaupt nicht recht, sondern es ist genau das Gegenteil der Fall.
Nur weil du dich, gastello, erneut mit einem Account anmeldest und deine Nvidia RT-Agitation weiterbetreibst, bedeutet das nicht, dass dir irgendjemand den Unsinn, den du verzapfst auch glaubt.:schief:

Neuronale Netze bieten für viele Problemstellungen Lösungen an und es ist nur eine Frage der Zeit bis AMD mit ähnlichen Lösungen um die Ecke biegt.
 
Zuletzt bearbeitet:
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Die Essenz des ganzen ist: Man nutzt ein Neurales Netzwerk, welches mit hochaufgelöstem Material trainiert wird um nach dem Training aus dem Input einer niedrigeren Auflösung ein Bild zu berechnen, was hinsichtlich Antialiasing und Imagequalität dem optisch höher aufgelöstem Bild entspricht, was den Rechenaufwand eine bestimmte Bild oder Videoqualität zu erzielen, verringert.

Was heißt das unterm Strich? Dass dein Stromsparargument genau umgedreht Sinn ergibt.
Man spart mit dieser Methode Strom ein, weil der Rechenaufwand für die gleiche Qualität geringer wird, was in einigen Fällen mit DLSS sehr gut funktioniert und woran auch weitergearbeitet wird.
Das bedeutet damit lässt sich auf Dauer gesehen Strom sparen und nicht Strom verschwenden, womit deine Argumentation unsinnig ist.

Sag mal, merkst du eigentlich, was du da schreibst?
1) die KI muss mit 100% des high res Materials jedes einzelnen Spiels gefüttert werden.
2)das Training dauert länger als die 12-20 Stunden Spielzeit eines modernen AAA Spiels.
3)man kann am eigenen Rechner einfach selbst die Renderauflösung um eine Stufe reduzieren und erhält den gleichen Effekt - mit sehr ähnlicher Optik (bei den meisten Spielen bisher sogar identische Optik)

Wie kann also irgendeine Trainingszeit der KI/ des neuronalen Netzwerks auch nue 1 Watt sparen, wenn man daheim schlicht die Auflösung selbst anpassen kann?
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Warum muss es für jedes Spiel sein? Es reicht doch erstmal die verschiedenen Engines zu nutzen. Es wird doch dann auch adaptiert. DLSS verringert nicht nur die Auflösung sondern es wird angestrebt jene dann nach oben zu skalieren. Das Ziel ist annähernd eine gleiche BQ zu erreichen wie nativ. Das machen die ganzen Renderauflösungen die man Ingame einstellen kann nicht ebenso passiert dies nicht wenn man nur plump die Auflösung niedriger stellt.
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

1) die KI muss mit 100% des high res Materials jedes einzelnen Spiels gefüttert werden.

Ja, natürlich muss die KI mit dem high res Material gefüttert werden, anders würde das Mustererkennungstraining auch nicht funktionieren und so weiß DLSS eben schon vorher was Kante und was Farbübergang ist und kann zudem fehlende Details eines niedriger aufgelösten Bildes rekonstruieren.

2)das Training dauert länger als die 12-20 Stunden Spielzeit eines modernen AAA Spiels.

Und? Was sagt uns das jetzt? Wieviele Gaming-Systeme, die von diesem Training profitieren, gibt es denn da draußen? 100 Millionen, 200 Millionen oder 300?


3)man kann am eigenen Rechner einfach selbst die Renderauflösung um eine Stufe reduzieren und erhält den gleichen Effekt - mit sehr ähnlicher Optik

Nein, erhält man nicht.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Wie kann also irgendeine Trainingszeit der KI/ des neuronalen Netzwerks auch nue 1 Watt sparen, wenn man daheim schlicht die Auflösung selbst anpassen kann?

Weil die gesenkte Auflösung ohne DLSS zwar Leistung einspart, aber nicht die gleiche Qualität liefern kann.
Du kannst ja auch einfach deine Augen spenden, dann kannst du ohne angeschalteten Monitor zocken und sparst noch mehr Strom.;)

Merkst du mal langsam dass deine Argumentation Käse ist, oder wie soll man dich noch darauf aufmerksam machen?
Mit großen Schildern?
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Ist es nicht Sinn von diesem Training das dies dann auch irgendwann selbst erkannt wird und nicht immer wieder auf neue Anwendungen angelernt werden muss?
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Ist es nicht Sinn von diesem Training das dies dann auch irgendwann selbst erkannt wird und nicht immer wieder auf neue Anwendungen angelernt werden muss?

Ach so ?
Ich dachte bisher, das müsste explizit für jedes unterstütze Spiel wieder erst mal neu "angelernt" werden, wenn's um DLSS geht und dies wäre nur über diese KI, bzw. über Nvidia Server möglich ?
(Also falls man das irgendwann abschaltet, dann nicht mehr ?)

Vielleicht lag ich falsch damit ?

Muss mich noch mal schlau machen, was DLSS angeht.
Wenn das irgendwann unabhängig, von irgendwelchen Berechnungsservern gehen sollte, einfach so, für jedes Spiel, hätte ich evtl. gar nicht so viel dagegen.

edit:
Ich mag's halt nicht, mich von den Berechnungen irgendwo auf einem Server(?) von Nvidia, für jedes Spiel mit DLSS, abhängig zu machen.
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Muss mich noch mal schlau machen, was DLSS angeht.
Wenn das irgendwann unabhängig, von irgendwelchen Berechnungsservern gehen sollte, einfach so, für jedes Spiel, hätte ich evtl. gar nicht so viel dagegen.


Hab mal eben geschaut:

Der aktuelle Plan Nvidias ist, die DLSS-Profile in den jeweils neuesten "Game-ready"-Treiber zu packen.

Es handelt sich zwar um Daten, die von einem Supercomputer stammen, allerdings werden diese nicht in Echtzeit über das Internet gestreamt, sondern vorab gesammelt und verpackt. Die Tensor-Kerne der Turing-Grafikkarten wenden das Wissen des Supercomputers dann in Echtzeit an Ihrem Computer an. Nvidia plant jedoch auch eine Integration ins hauseigene Tool Geforce Experience. Hier sollen die DLSS-Profile feinkörnig aktualisiert werden - also pro Spiel und nicht in Form eines kompletten Treiber-Downloads. Ob man langfristig zweigleisig fahren wird, ist unklar.

Hört sich für mich nicht nach einer unabhängigen Sache an, sondern eher nach Profilen, je nach DLSS-unterstütztem Spiel, die irgendwo reingeladen werden, entweder in Treiber, oder in Extrasoftware, wie Geforce Experience, oder ähnlichem.

Auf sowas steh' ich nicht sonderlich.

Anscheinend muss das doch für jedes Spiel dann extra kommen und in irgendeiner Form von Datei integriert werden.

So verstehe ich naiver Zocker das zumindest. :)


edit(wie meistens ;) ):

Hab den Link zur Quelle vergessen: https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Tests/Review-1265133/4/


edit2:

Ja das ist der Plan.

Da muss ich aber "Highlander" Recht geben: Da hätt ich auch gern mal n Link zum nachlesen.
Einfach so behaupten kann man ja vieles.

Würde da gern mal genauer nachlesen, was "der Plan" ist.


edit3:

Hab selber eben mal nach Zukunftsplänen für DLSS gesucht, aber leider auf die Schnelle nichts derartiges gefunden, dass es ohne die Berechnungsmaschinen von Nvidia geht.

Im Gegenteil hab ich gelesen, dass einzelne Spiele per Update DLSS Unterstützung nachgereicht bekommen:

Der Publisher Capcom hat angekündigt, dass das Spiel Monster Hunter World mittels Patch offiziellen Support für die Deep-Learning Super-Sampling-Technologie von Nvidia mit sich bringen wird. Durch das KI-Upscaling kann einerseits die Performance verbessert werden und andererseits können filigrane Elemente wie Oberleitungen, Gerüste und Ähnliches ansehnlicher gestaltet werden. Zudem liefert das kostenfreie Update auch noch einen Schieberegler für die Einstellung der Bildschärfe mit.

Da stand nix davon, dass das automatisch und unabhängig geht, eher durch nachgelieferte, von Nvidia berechneter Datei.
So verstehe ich das zumindest.

Quelle: https://www.pcgameshardware.de/Monster-Hunter-World-Spiel-61072/News/Nvidia-DLSS-Support-1294686/

Und was wäre ohne den Patch vom Supercomputer ? Nix DLSS ?


edit4:

Softwareseitig müssen die aktuellste Version von Nvidias Game Ready-Treiber, der Patch von Monster Hunter World und das kostenlos erhältliche High Resolution Texture Pack installiert sein.

Auch aus obiger Quelle.


Jetzt hätte ich gern mal die Information, wann das unabhängig von den Berechnungen des Supercomputers und irgendwelcher Extradateien, in Form von Treibern und/oder Updates funktionieren soll, dieses DLSS, wenn da was dran sein sollte.


edit5 ( ;) ) :

Nicht falsch verstehen. Mir geht's dabei nicht im entferntesten um irgendwelchen Stromverbrauch, der mir shiceegal ist.
Ich mag halt dieses abhängig sein, einer wichtigen Hauptfunktion der RTX Karten(DLSS), von den Berechnungen eines Extra Computers und die Gnade auf einen patch dafür warten zu müssen(für jedes einzelne DLSS Spiel ? ), nicht.

Gegen die Karten an sich hab ich überhaupt nix und mag RT.
Werd' mir ja voraussichtlich auch so eine RTX Karte holen. Aber wegen der Grundleistung+RT. Nicht wegen DLSS.
Letzteres werde ich wohl nicht nutzen, Stand jetzt.
Für 1440p sollte es auch ohne DLSS mit RT gehen, inkl. einigermaßen Performance.
 
Zuletzt bearbeitet:
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

So viele Fragen, ich habe so ziemlich Alles von Jensens Präsentation über Forenbeiträge überall eben gerne auf Englisch verschlungen. Habe aber keine Quellen gespeichert.
@Chris gut, dass du dich mal selberschlau machsts. Ist doch logisch jedes Spiel hat eine ganz eigene Engine, auch wenn die grundsätzlich z.B. auf UE4 basieren. Jedes Game brauch also was angepasstes. Kommt als Game Patch. Und dann noch die Treiberanpassung von Seitens Nvidia. Ist auch schon immer so gewesen. Ich stelle es mir so vor, dass DLSS alle im Spiel verwendeten Assets und Texturen in extrem hoher Auflösung und in sehr niedriger Auflösung vorgesetzt bekommt und dann ingame hochskalieren lernt. Daraus entsteht dann eine komplexe Formel, die im Treiber mitkommt.
Ich habe nicht soviel Zeit wie mancher hier, also @Schaffe, kannste gern zerlegen, werde nicht weiter drauf eingehen. War grad mit den Enkeln im Kino. Jetzt gehts noch in die Oper, mogen wieder die Welt der Medizintechnik retten.
Ciao.
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Ist es nicht Sinn von diesem Training das dies dann auch irgendwann selbst erkannt wird und nicht immer wieder auf neue Anwendungen angelernt werden muss?

Ja das ist der Plan.

Ich dachte du hättest eine Quelle zu dem "Plan".

Aber ich kann das gut nachvollziehen, mit dem RL.
Mir rennt nämlich auch gerade wieder die Zeit weg.

Die N8schicht ruft schon wieder leise aus dem Hintergrund. ;)
Ticktack.


Habe aber keine Quellen gespeichert.



War grad mit den Enkeln im Kino. Jetzt gehts noch in die Oper, mogen wieder die Welt der Medizintechnik retten.
Ciao.


Viel Spaß in der Oper ! :daumen:
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Gut also umstritten bzw. der jetzige Stand ist das dies für jedes Game angepasst werden muss. Dachte nur weil der Sinn solcher Dinge ist doch das jene dann dies selbständig erledigen oder ich denke gerade einige Jahre zu weit :) Habe das so verstanden das durch das Training eine Menge Informationen gesammelt werden welche dann irgendwann reichen um die Unterschiede etc. pp selbst zu erkennen.
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Habe das so verstanden das durch das Training eine Menge Informationen gesammelt werden welche dann irgendwann reichen um die Unterschiede etc. pp selbst zu erkennen.

Deren Supercomputer kann das evtl. .
Das bisschen Hardware auf der GPU nicht.
Das muss ja auch nur umsetzen, was der Supercomputer fertig gerechnet und vorbereitet hat. Jedes Mal, für jedes DLSS Game.

So ... endlich Feierabend, endlich Wochenende. Bettchen ruft. N8 ! :kaffee:
 
Zurück