Teaser auf Big Navi: AMD selbstkritisch zum Hypetrain

Die 3080 fischt keine potentiellen Käufer weg. Entweder man will die AMD karte oder eben nicht.
Wenn Big Navi wirklich an die 3080 rankommen sollte, und der preis auch günstiger ist, werden die karten ihren besitzer schon finden.
Warum günstiger? Muss bei in etwa gleicher Leistung nur etwas mehr Speicher mitbringen, so um die 16GiB :nicken:
 
laut
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
256bit bus(mit infinity fabric erhöht auf 384 ?? ) mit 16gb gddr6 -> wird meiner meinung nach bottlenecken und wirst die leistung vermutlich nicht auf die strasse bringen

mfg
 
Die Daten, mit welchen DLSS arbeitet stammen aus einem neuronalen Netzwerk welches auf mühsame und langwierige Weise die "Anleitung" für das Upsampling des Spiels errechnet. Diese "Anleitung" bekommst du via Treiber-Update, sobald du das hast kannst du DLSS natürlich auch offline verwenden. Aber die Grafikkarte kann nicht von sich aus DLSS einsetzen, ohne vom NV-Supercomputer das "Futter" dafür zu bekommen.

Die Aussage ist falsch, die beiden Vor-Poster (RavionHD / formyself) haben das weitestgehend korrekt dargestellt.
DLSS 2.x verwendet ein universelles neuronales Netz, das lokal auf der GPU läuft. Das NN hat keine Abhängigkeit mehr zum konkreten Spiel, was aber nichts damit zu tun hat, dass DLSS natürlich dennoch immer noch explizit für ein Spiel implementiert werden muss, d. h. es sind kleinere Anpassungen an der Engine notwendig.
Darüber hinaus ist ein wesentlicher Vorteil dieses universellen NNs, dass nVidia dieses sowie die Treiberbestandteile unabhängig von den Titeln optimieren und verbessern kann und daher auch mit einem Treiberupdate eine Aktualisierung ausrollen kann, die sich unmittelbar nutzen lässt, solange man sich innerhalb der gleichen DLSS-API-Version bewegt. Beispielsweise die dynamische Native-Resolution von DLSS 2.1 erfordert selbstredend eine neue Implementaiton in einem Spiel, da hier zusätzliche Funktionalität bereitgestellt wird, die von der Engine unterstützt werden muss, d. h. hier muss ein Entwickler noch einmal Hand anlegen und die ggf. zuvor implementierte Version auf den Stand von v2.1 aktualisieren.
 
Zuletzt bearbeitet:
Die Aussage ist falsch, die beiden Vor-Poster (RavionHD / formyself) haben das weitestgehend korrekt dargestellt.
DLSS 2.x verwendet ein universelles neuronales Netz, das lokal auf der GPU läuft. Das NN hat keine Abhängigkeit mehr zum konkreten Spiel, was aber nichts damit zu tun hat, dass DLSS natürlich dennoch immer noch explizit für ein Spiel implementiert werden muss, d. h. es sind kleinere Anpassungen an der Engine notwendig.
Darüber hinaus ist ein wesentlicher Vorteil dieses universellen NNs, dass nVidia dieses sowie die Treiberbestandteile unabhängig von den Titeln optimieren und verbessern kann und daher auch mit einem Treiberupdate eine Aktualisierung ausrollen kann, die sich unmittelbar nutzen lässt, solange man sich innerhalb der gleichen DLSS-API-Version bewegt. Beispielsweise die dynamische Native-Resolution von DLSS 2.1 erfordert selbstredend eine neue Implementaiton in einem Spiel, da hier zusätzliche Funktionalität bereitgestellt wird, die von der Engine unterstützt werden muss, d. h. hier muss ein Entwickler noch einmal Hand anlegen und die ggf. zuvor implementierte Version auf den Stand von v2.1 aktualisieren.
Also braucht man mit DLSS 2.0 keinen Supercomputer mehr welcher die "Anleitung" für das Upsampling erstellt?

Das steht nämlich auf der NV-Seite dazu:
DLSS 2.0 – so funktioniert es
Unser neuronales Grafik-Framework, NGX, trainiert ein Deep Neural Network gegen Zehntausende hochauflösende, schöne Bilder, die offline in einem Supercomputer mit sehr niedrigen Frameraten und 64 Samples pro Pixel gerendert werden. Basierend auf dem Wissen aus unzähligen Trainingsstunden kann das Netzwerk dann Bilder mit niedrigerer Auflösung als Eingabe aufnehmen und hochauflösende, schöne Bilder erstellen.
 
Also braucht man mit DLSS 2.0 keinen Supercomputer mehr welcher die "Anleitung" für das Upsampling erstellt?
Das steht nämlich auf der NV-Seite dazu:

Der für dich relevante Teil ist auf dieser Seite:
"Ein Netzwerk für alle Spiele – Beim ersten DLSS musste die KI für jedes Spiel neu trainiert werden. DLSS 2.0 stellt ein allgemeines KI-Netzwerk bereit, das in verschiedenen Spielen funktioniert. Das bedeutet schnellere Spielintegrationen und mehr DLSS-Spiele."

Ein leistungsfähiges System zum Trainieren und Weiterentwickeln des NNs verwendet nVidia natürlich weiterhin, denn die wollen ja irgendwann auch bei DLSS 3.0 ankommen. Der wesentliche Punkt ist, dass ein Entwickler, wenn er DLSS heute implementieren will, nun nicht mehr darauf angewiesen ist vorab ein individuelles NN zu trainieren, d. h. er musste erst aufwändig mit seinem in der Entwicklung befindlichen Spiel Unmengen an Bildmaterial rendern und damit das NN antrainieren, bis er es dann sinnvoll implementieren konnte. nVidia hatte damals optional Entwicklern angeboten, dass dieses Training auf einem nVidia-Supercomputer durchgeführt werden könnte, damit man die Implementationshürde mindert. Und dieses individuelle NN wurde dann mit dem Spiel ausgeliefert und ggf. später noch einmal mit einem Spielepatch des Entwicklern aktualisiert, weil eine verbesserte Version vorlag oder aber nVidia behielt sich vor mit ihrem Treiber die Version der Entwickler zu übersteuern, weil ihnen der Titel wichtig genug war und man sich selbst etwas Arbeit machte, so wie sie und AMD es grundsätzlich bei Treiberoptimierungen machen, nur das hier einzelne Shaderprogramme für bestimmte Titel mit den Treibern ausgeliefert werden, die besser und effizienter sind als das, was der Entwickler ursprünglich auslieferte.
Diese DLSS-Teile entfallen nun komplett mit v2.x. Die Entwickler müssen nichts mehr trainieren, sondern können DLSS einfach direkt implementiern und verwenden dabei das universell von nVidia bereitgestellte NN. Und nVidia kann seinerseits unabhängig von den Entwicklern an der Qualität dieses einen NNs weiterfeilen und bei Bedarf mit einem Treiberupdate eine neue Version ausrollen, die dann implizit allen Titeln zugute kommt, die auf dieser DLSS-Version basieren.
 
Zuletzt bearbeitet:
First look und so :)

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Richtig gute Gedankengänge!

Ich finde auch , dass AMD seit einigen Jahre grosse Fehler beim Start Ihrer Produkte macht.
Immer auf der Geduld deines Kunden zu reiten, um Sie dann in die Arme deiner Konkurrenz zu treiben ist keine Strategie.
Zugegeben, NVidias Marketinglügen kann keine Firma der Welt das Wasser reichen. Und mit dem Geld und den eingekauften Spiele-Entwickler die man schon seit vielen Jahren an der Stange hält, geben Sie jetzt den Ton an.
Sollte da was von AMD kommen, können Sie morgen schon kontern. Alleine schon weil NV seit Jahren nie alles gibt was Sie im Ärmel haben.

Das Problem könnte durchaus sein, ständig auf zwei Hochzeiten tanzen zu müssen. ATI und AMD hätten nie fusionieren sollen!

...
AMD unterschätzt meiner Meinung nach massiv die Ungeduld der potenziellen Kunden. Den besagten Enthusiasten brennt das Geld seit mindestens einem Jahr ein Loch in die Tasche und nicht wenige werden, bei entsprechender Leistung der Ampere-Karten, darauf pfeifen noch länger darauf zu warten, dass AMD endlich mal Informationen rausgibt. So richtig kann ich mir den Grund für dieses beharrliche Schweigen nicht erklären, bzw. mir fallen nur Gründe ein, die für Big Navi nichts Gutes vermuten lassen.
....vor allem potenzielle Käufer bei der Stange halten, bevor die sich vor lauter Ungeduld eine Ampere-Karte kaufen.
Das ist zum Beispiel was, auf das ich an Stelle von AMD nicht setzen würde. Wer sich in den nächsten Tagen eine 3080 kauft, der verkauft die doch nicht Ende Oktober wieder, um sich Big Navi zu kaufen, nur weil es da in etwa die gleiche Leistung zu vielleicht etwas besserem Kurs gibt. J..., potentiellen Käufern jetzt wenigstens ein paar Häppchen hinzuwerfen, die zum Warten animieren. Und sei es nur die Nachricht, dass man in Sachen VRam spendabler sein wird, als Nvidia. Ob der VRam von Ampere 70/80 zu knapp, gerade so ausreichend oder völlig unproblematisch ist, wird überall diskutiert; das ist doch eine Steilvorlage. Natürlich nur, WENN man da wirklich mehr liefern kann...

@
badiceman66
Danke für das Video!
 
Zuletzt bearbeitet:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

2x8pin und nicht mitten an der Karte.... 1. Punkt geht damit an AMD
 
Wer sich in den nächsten Tagen eine 3080 kauft, der verkauft die doch nicht Ende Oktober wieder, um sich Big Navi zu kaufen, nur weil es da in etwa die gleiche Leistung zu vielleicht etwas besserem Kurs gibt.
Stimmt aber wer sich die 3080 gekauft hat ist schön blöd weil die 3070 TI auch bald kommt und die 3080 völligst entwerten wird... 10GB Falle, gabs ja schonmal bei Nvidia in der 7ten Gen

Ich mein was will man heute noch mit 10GB im High End?
Ich hab neulich War Thunder auf 8560x1440 gestartet da waren direkt beim Einstieg 7,5GB Belegt bei mir...
Von Shadow of the Tomb Raider brauch ich gar nicht reden und ja die FPS gehen aber der VRAM quillt die ganze Zeit über... wie willst du da den Flight Simulator starten?
Wäre die 3080 mit 16GB gekommen hätte ich vermutlich instant zugegriffen... aber soo wie es aktuell ist.. das ist lachhaft..


Also bleibt eigentlich gerade nur Warten oder RTX 3090 kaufen, wer bringt wohl ehr die brauchbare 16GB VRAM Karte. Nvidia ist da wohl deutlich zu lahm unterwegs oder hat andere Interessen als den Käufermarkt richtig zu bedienen! ...

Aber Karten für über 1000€ kauf ich einfach aus Prinzip nicht.
 
Der für dich relevante Teil ist auf dieser Seite:
"Ein Netzwerk für alle Spiele – Beim ersten DLSS musste die KI für jedes Spiel neu trainiert werden. DLSS 2.0 stellt ein allgemeines KI-Netzwerk bereit, das in verschiedenen Spielen funktioniert. Das bedeutet schnellere Spielintegrationen und mehr DLSS-Spiele."
Ein leistungsfähiges System zum Trainieren und Weiterentwickeln des NNs verwendet nVidia natürlich weiterhin, denn die wollen ja irgendwann auch bei DLSS 3.0 ankommen. Der wesentliche Punkt ist, dass ein Entwickler, wenn er DLSS heute implementieren will, nun nicht mehr darauf angewiesen ist vorab ein individuelles NN zu trainieren, d. h. er musste erst aufwändig mit seinem in der Entwicklung befindlichen Spiel Unmengen an Bildmaterial rendern und damit das NN antrainieren, bis er es dann sinnvoll implementieren konnte. nVidia hatte damals optional Entwicklern angeboten, dass dieses Training auf einem nVidia-Supercomputer durchgeführt werden könnte, damit man die Implementationshürde mindert. Und dieses individuelle NN wurde dann mit dem Spiel ausgeliefert und ggf. später noch einmal mit einem Spielepatch des Entwicklern aktualisiert, weil eine verbesserte Version vorlag oder aber nVidia behielt sich vor mit ihrem Treiber die Version der Entwickler zu übersteuern, weil ihnen der Titel wichtig genug war und man sich selbst etwas Arbeit machte, so wie sie und AMD es grundsätzlich bei Treiberoptimierungen machen, nur das hier einzelne Shaderprogramme für bestimmte Titel mit den Treibern ausgeliefert werden, die besser und effizienter sind als das, was der Entwickler ursprünglich auslieferte.
Diese DLSS-Teile entfallen nun komplett mit v2.x. Die Entwickler müssen nichts mehr trainieren, sondern können DLSS einfach direkt implementiern und verwenden dabei das universell von nVidia bereitgestellte NN. Und nVidia kann seinerseits unabhängig von den Entwicklern an der Qualität dieses einen NNs weiterfeilen und bei Bedarf mit einem Treiberupdate eine neue Version ausrollen, die dann implizit allen Titeln zugute kommt, die auf dieser DLSS-Version basieren.

Also hat man einen Supercomputer welcher die "Anleitung" für das Upsampling erstellt?
Ich bin verwirrt. ^^
 
Das ist zum Beispiel was, auf das ich an Stelle von AMD nicht setzen würde. Wer sich in den nächsten Tagen eine 3080 kauft, der verkauft die doch nicht Ende Oktober wieder, um sich Big Navi zu kaufen, nur weil es da in etwa die gleiche Leistung zu vielleicht etwas besserem Kurs gibt. Jedenfalls werden das nicht viele so machen, denke ich. Unterm Strich könnte das immer noch eine Verlustrechnung werden, man muss wieder Aufwand betreiben, etc. Die meisten, die Ampere jetzt kaufen, sind erst mal vom Markt.

Das is so.

Wenn ich mal schau, wie sich der Gedankengang ändern kann, über einige Wochen, kann es passieren dass viele sich sagen: "Ach ... weisste was ? Mir reicht auch die 3080 10GB. Für 700€ ? Gar nicht so verkehrt. Zwar Mist mit "nur" 10GB, aber immerhin nur 700€ dafür und keine 1000, oder 1500€."

Als ich mir Raff's Tabelle mit den Puren Daten nebeneinander angesehen habe, wo's um die 3070 geht, ist mir wieder richtig bewusst geworden, wie bekloppt der Griff zur 3090 nur zum Zocken wäre. Eigentlich geht die 3080 mit dem Unterschied zur 3090 für 700€ klar.

11.jpg


Die 3090 is nich nur für's Zocken gedacht. Eher für Prosumer, oder Leute, die das Teil auch mal zum Arbeiten nutzen können.
So seh' ich das Teil mittlerweile.
Wenn der Hype so langsam nachlässt, was es bei mir gerade tut und eher normale Gedankengänge wieder die Oberhand gewinnen, sieht man wieder eher pure Daten und Fakten.
Und die 3080 ist immerhin auch schon der "Big Chip". Klar, wäre schön, von allem noch etwas mehr zu haben, auf der 3090, aber is das dann einen Preisunterschied wert, der größer ist, als eine komplette 3080 kostet ?

Jetzt könnte AMD ja davon ausgehen, dass man erst mal abwartet und checkt, ob nicht eine 3080Ti mit 20 GB kommt.
(Um in der Zwischenzeit mit einer supertollen BigNavi 16GB zu überraschen, die vielleicht sogar schneller sein könnte, als eine 3080, theoretisch)

Aber wenn man sich dahingehend weiter seine Gedanken macht, als Zocker und die einzelnen Werte der Cores usw. der 3090 und 3080 ansieht, ist da soo viel Platz dann auch nicht mehr, der 3080Ti nicht nur mehr Speicher, sondern auch mehr Coreleistung mitzugeben, aber diese nicht zu nah an die 3090 zu lassen.

Dazu wird der Kühler mit mehr Speicher auch wieder teurer, mehr Speicher auch teurer, Ti-Zuschlag auch teurer, zack, biste da auch wieder bei um, oder über 1000€. Gar nicht mehr soo weit weg, zur 3090.

Lange Rede, kurzer Sinn: Man könnte zum Schluss kommen, sich die Warterei direkt zu sparen, vor allem als purer Zocker, der nix mit seiner Kiste arbeitet und zähneknirschend die 10 GB 3080 zu nehmen, vor allem nach dem Test/Review, vor allem vor dem Hintergrund, dass man sich nicht so schlecht dabei fühlt, "lediglich" 700€ rausgehauen zu haben, anstatt 1500.

Ich hatte ja erst gedacht, ich will die Karte min. 4 Jahre nutzen. Aber bei einer 700€ Karte isses dann auch egal, wenn man die z.B. wieder kurz vor der nächsten Gen verkauft und sich die nächste 700€ Karte holt, dann wiederum aktuell.
Dann ist der Wertverlust eventuell auch nicht so groß, als wenn man eine 3090 2 Generationen nutzt und dann wieder gebraucht vertickt.
Man muss nur mal etwas flexibler werden, in seinen Überlegungen.

Für AMD wäre das aber echt tatsächlich blöd, wenn viele auf eine Wartezeit verzichten, für eine mögliche 3080Ti, auf die 3090 schon mal erst recht verzichten und direkt zur auch gar nicht ganz so schlechten (für 700€) 3080 greifen.

Ich mein ... früher waren die 80er Karten auch nicht so schlecht. Vor allem wenn man gar nicht vor hat auf 4k/UHD zu gehen, sondern wie ich z.B. sowieso bei WQHD bleibt.

So what ?

Einfach mal 800€ sparen und auf die 3090 verzichten. Auf die Wartezeit auch und man kann sofort bei den ersten Bestellern dabei sein, nach einem Benchmark Testbericht, wenn man mit den Ergebnissen dort zufrieden sein sollte.
Und davon geh ich mal aus, da ich ja nicht von einer 2080Ti komme, sondern von der 1080Ti.

Also bitte schnellstmöglich meine Lieblingscustom-Modelle checken. :D Danke. :)
2 Jahre kann ich evtl. auch noch mit ner 3080 leben. Soll schlimmeres als das geben. ;)

Immerhin fand ich bis zuletzt die 1080Ti auch noch toll.


edit:

Stimmt aber wer sich die 3080 gekauft hat ist schön blöd weil die 3070 TI auch bald kommt und die 3080 völligst entwerten wird...

Glaub kaum, denn die 3070Ti wird wohl 1. kein Big Chip sein und 2. kein GDDR6x haben.
(Jetzt mal ganz abgesehen, von den anderen Daten/Cores usw.)


edit2:

Ich mein was will man heute noch mit 10GB im High End?

Es gibt nicht nur den einen User.
Ich will z.B. einfach höhere FPS für's flüssige Spielen in WQHD. UHD(oder noch höhere Auflösungen) kann mich mal ! ;)
Dazu halt noch erstmals RT/DLSS, was ich mit Pascal noch nicht hatte.
 
Zuletzt bearbeitet:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

2x8pin und nicht mitten an der Karte.... 1. Punkt geht damit an AMD
Der Kühler sieht wie die aufgeborte Variante von Radeon 7 aus mit 2x 8Pin PCIE Connectoren. Das deutet auf 280-300W Maxverbrauch. Das ist schon mal sehr gut, mal warten, wie die Leistung ausfällt.
Also hat man einen Supercomputer welcher die "Anleitung" für das Upsampling erstellt?
Ich bin verwirrt. ^^
Er ist einer von vielen Freunden von Schafe. Sie können gut Informationen/Quellen recherchieren, verstehen aber nicht wirklich, was dahinter steht. Ganz kritisch wird es, wenn die Quelle auf Englisch ist.

On Topic:
Natürlich muss die Näherungsmatrix immer wieder in Nvidiaserverfarmen für neuere Spiele antrainiert werden. Die Matrix wird dann mit dem Treiber geladen und auf Wunsch aktiviert(immer den neuesten Nvidiatreiber laden). Die einzige Änderung bei DLSS 2.0 ist, dass die Spiele-Entwickler sich nicht mehr drum kümmern müssen, was der Verbreitung helfen soll.
DLSS 2.0 bedeutet laufende Hardware-/Softwarekosten für Nvidia. Die Features ab der Version 2.1 müssen aber auch entwicklerseitig implementiert werden, da hilft aber Nvidia mit. DLSS 2.0 ist eine sehr gute Entwicklung. Es wäre wünschenswert für AMD etwas vergleichbares an den Mann zu bringen.
 
Zuletzt bearbeitet von einem Moderator:
Zurück