Financial Analyst Day 2020: Ab 22 Uhr im Live Ticker!

geht es nur mir so oder würden auch andere lieber zu gunsten besserer performance in hohen Auflösungen auf Raytracing verzichten?

ich finde es zwar schon richtig, wenn wieder in Richtung Raytracing entwickelt und geforscht wird, allerdings sehe in der Technik für die nächsten Jahre in Spielen keinerlei Vorteile. Alle Screenshots die ich bisher von der Konkurrenz gesehen habe waren mir immer viel zu dunkel, dabei gehen mir viel zu viele Details verloren und auch der Spielspaß leidet eher unter dem zwang zum Realismus. Von mir aus könnte man das Raytracing erstmal auf HPC Karten lassen.

Nö bist nicht alleine... Nutze RT nur in Metro, aber kein must have... Wenn es dabei ist, warum nicht. Nvidia wird so oder so dementsprechende Preise aufrufen und dann hab ich lieber ein halbgares Feature, als für den selben Preis keins... 2080TI nur deswegen, weil ich einen UWQHD 49Zoll habe und die die 7,xx Millionen Pixel ihren Tribut fordern, da ist in nativer Auflösung einfach nicht mehr an RT zu denken wenn man >60FPS avisiert...
 
Nö bist nicht alleine... Nutze RT nur in Metro, aber kein must have... Wenn es dabei ist, warum nicht. Nvidia wird so oder so dementsprechende Preise aufrufen und dann hab ich lieber ein halbgares Feature, als für den selben Preis keins... 2080TI nur deswegen, weil ich einen UWQHD 49Zoll habe und die die 7,xx Millionen Pixel ihren Tribut fordern, da ist in nativer Auflösung einfach nicht mehr an RT zu denken wenn man >60FPS avisiert...

Äh... laut NV sorgen ja der enorme Entwicklungsaufwand und der für RT- und Tensorcores zusätzliche Platzbedarf für erhebliche Mehrkosten - für den Preis hättest du also entweder viel mehr Leistung ohne RT-Part in einer 2080 Ti bekommen, oder aber die gleiche Leistung für viel weniger Moneten. Laut NV jedenfalls. :rollen:
 
Äh... laut NV sorgen ja der enorme Entwicklungsaufwand und der für RT- und Tensorcores zusätzliche Platzbedarf für erhebliche Mehrkosten - für den Preis hättest du also entweder viel mehr Leistung ohne RT-Part in einer 2080 Ti bekommen, oder aber die gleiche Leistung für viel weniger Moneten. Laut NV jedenfalls. :rollen:

na dann sollen sie doch einfach mal eine Karte anbieten, die den durch RT/Tensorcore verschwendeten Platz für mehr normale Rechenkerne nutzt und dann sehen was der Markt haben will...
 
Warum amd nicht früher bringt liegt primär an der Fertigung
rdna2 wird erst ab Sommer hergestellt.
7nm+ ist in massenproduktion auch erst mitte 20 verfügbar
Wei diesmal Konsolen und PC gpu kommen braucht man schon eine gewissen vorsprung.
besser wäre es gewesen die high end gpu schon zeitig im sommer zu veröffentlichen.
Aber amd will lieber nvidia Rtx3000 serie abwarten.
das ist aber kalkühl um den besten preis zu haben. Den amd hofft das nvidia die preise nochmals anhebt.
man sprach heute von mehr Gewinn und eine marge über 50%
das geht aber nur wenn nvidia die preise konstant hoch hält.
Kurz nvidia wartet was die konsolen kosten amd wartet was nvidia aufruft zu welcher Leistung. Folge ist das vor ende 20 sich am GPu markt nichts tut.
Das hat was gutes spart geld
Ein cpu board ram upgrade wäre eine option fürs gaming bräuchte ich das nicht.

Du hast offenbar die Grafik zur Gewinnmarge nicht gesehen.
Bei der Steigerung spielt Gaming eigentlich keine Rolle.
Gross_margin_drivers.PNG

Der winzige Gaming Anteil kommt nur vom oberen Ende des High End Gaming - laut den Worten im Stream.
Der Rest der Steigerung kommt vom PC Geschaeft und von HPC/Data center.
 
geht es nur mir so oder würden auch andere lieber zu gunsten besserer performance in hohen Auflösungen auf Raytracing verzichten?

ich finde es zwar schon richtig, wenn wieder in Richtung Raytracing entwickelt und geforscht wird, allerdings sehe in der Technik für die nächsten Jahre in Spielen keinerlei Vorteile. Alle Screenshots die ich bisher von der Konkurrenz gesehen habe waren mir immer viel zu dunkel, dabei gehen mir viel zu viele Details verloren und auch der Spielspaß leidet eher unter dem zwang zum Realismus. Von mir aus könnte man das Raytracing erstmal auf HPC Karten lassen.
Was heißt zugunsten besserer Performance denn genau?
Bei Turing machen die RT-Cores weniger als 10% der gesamten Fläche aus, es ist entsprechend günstig die Raytracing-Performance deutlich zu verbessern, ohne viel extra Fläche investieren zu müssen.
Der Verzicht würde nicht deutlich bessere Gaming-Performance für Non-Raytracing-Grafik bedeuten.
Da Raytracing-Fähigkeiten die Basis in naher Zukunft sein werden, kann man davon ausgehen, dass Entwickler gute Kompromisse eingehen und bei der Verwendung auch entsprechend den Inhalt des Spiels optimieren.
Sprich es wird geschaut welche Parameter verwendet werden, damit Objekte und Oberflächen nicht übermäßig hell/dunkel erscheinen und wo es sich lohnt Raytracing zu verwenden, auch für Fälle die gar nichts mit der Grafik zu tun haben, sondern Audio.
 
...Bei Turing machen die RT-Cores weniger als 10% der gesamten Fläche aus,...

Quelle?

Solange so etwas immer nur faktenfrei behauptet wird, ist die naheliegende Vermutung, dass RT nichts weiter ist, als eine nachträglich und mehr schlecht als recht mit praktischem Mehrwert unterfütterte, letztlich wenig effiziente oder brauchbare Zweitverwertung von HPC-Ballast für eine entwicklungstechnisch inzwischen völlig nachrangige Gamingecke, leider völlig valide und sogar überwiegend wahrscheinlich.

Gut nachvollziehbar, dass das Vielen nicht schmeckt. Aber schau mer mal, ob das doch noch was wird mit RT. "Nahe Zukunft" wird es imho sicher nicht.
 
Sorry hab mir die 10 Seiten bla bla bla nicht durchgelesen. Aber so gut aussehende Spiele wie da auf dem Screenshot wird es auch 2021 noch nicht geben. UND versprechen können die alle was also Leute kauft, kauft!
 
Sorry hab mir die 10 Seiten bla bla bla nicht durchgelesen. Aber so gut aussehende Spiele wie da auf dem Screenshot wird es auch 2021 noch nicht geben. UND versprechen können die alle was also Leute kauft, kauft!

Der Screenshot stammt garantiert aus einer Techdemo.
Die gibt es doch immer wieder, um die Leistung der Grafikkarten zu zeigen.
Das machen alle so.. siehe Nvidias RT Demos - und da fehlten noch die Funken in den Refletionen.
 
geht es nur mir so oder würden auch andere lieber zu gunsten besserer performance in hohen Auflösungen auf Raytracing verzichten?

ich finde es zwar schon richtig, wenn wieder in Richtung Raytracing entwickelt und geforscht wird, allerdings sehe in der Technik für die nächsten Jahre in Spielen keinerlei Vorteile. Alle Screenshots die ich bisher von der Konkurrenz gesehen habe waren mir immer viel zu dunkel, dabei gehen mir viel zu viele Details verloren und auch der Spielspaß leidet eher unter dem zwang zum Realismus. Von mir aus könnte man das Raytracing erstmal auf HPC Karten lassen.


Problem ist doch eher dass wir mit der klassischen Berechnung langsam am Ende sind. Da hast auch nur bei "Fake"-Effekte 10% bessere Optik bei 30% Leistungsverlust. Sie dir dich die ganzen volumetrische Nebel oder Wolken-Berechnungen an. Assassins Creed oder Monster Hunter verlierst haufen Leistung für Effekte die nicht mal was mit Raytracing zu tun haben.

Also was macht es für einen Unterschied ob man 30-40% der Leistung durch künstliche Effekte verliert oder durch Hardwareberechnung direkt durch Raytracing?

Einfach mal mehr Recheneunheiten draufklatschen auf einen Chip führt auch nicht zwangsläufig zur Leustungssteigerung die 1:1 skaliert. Danach hast nur wesentlich mehr Stromverbrauch für 10-15% mehr Performance.

Da sollte es eher in die Richtung gehen dass Entwickler nicht jede Menge Zeit damit verschwenden künstliche Effekte in die Level zu platzieren und es eher direkt über die Hardware Licht und Reflexionen berechnen zu lassen.
Damit sowas immer performanter läuft muss es irgendwo seinen Anfang nehmen. Ohne Hardwarevervreitung keine große Softwareentwicklung.

Deswegen geht auch AMD in die Richtung weil irgendwann Raytracing weniger Leistung verbraucht und realistischer wirkt als solche Effekte künstlich zu erzeugen.

Wenn es so gut läuft und optisch aufwertet wie in Wolfenstein 2 Youngblood dann nehmen ich auch gern DLSS in Kauf wo der Unterschied zu nativen 2160p marginal ist und Details in der Ferne sogar besser zu erkennen sind.

Kommt immer auf die Entwickler und Engine an was man daraus macht. Bisher wurde Raytracing nur an bestehende Engine drangepflanzt anstatt direkt dafür ausgelegt zu sein.
 
Die Grafikkarten kommen dann genau 2 Jahre zu spät. Wie immer bei AMD. Schade

treffender kann man es leider nicht ausdrücken.

Ampere kommt also scheinbar noch deutlich vor AMD. Sollte AMD der große Wurf gelingen, kann Nvidia immernoch entspannt die ein oder andere ti oder eine Super-Series nachschieben. Wirklich Schade, dass AMD keinen richtigen Druck auf Nvidia aufbauen kann, so wie sie es bei Intel erfolgreich geschafft haben. So kennt die Nvidia Preisgestaltung auch weiterhin nur eine Richtung - durch die Decke :-(
 
treffender kann man es leider nicht ausdrücken.

Ampere kommt also scheinbar noch deutlich vor AMD. Sollte AMD der große Wurf gelingen, kann Nvidia immernoch entspannt die ein oder andere ti oder eine Super-Series nachschieben. Wirklich Schade, dass AMD keinen richtigen Druck auf Nvidia aufbauen kann, so wie sie es bei Intel erfolgreich geschafft haben. So kennt die Nvidia Preisgestaltung auch weiterhin nur eine Richtung - durch die Decke :-(

Koennt ihr mal aufhoeren, den Volta Nachfolger als Gaming GPU zu nennen?
Ampere wird keinerlei Einfluss auf den Gaming Markt haben.

Allein die Namensgebung sollte das klar machen.
Ampere reiht sich perfekt zu Volta ein.

Der Name passt aber absolut nicht zu Turing.
 
Hauptsache funkeln in den Augen. Rtx ist ein " Game changer" Ironie aus. Also ich spiele wieder crysis von 2007. Für mich hat sich da noch nicht wirklich was getan. Und techdemos spiele ich nicht. Wenn ich mir was angucken will schaue ich lieber Filme.
 
Turing war ein englischer Mathematiker und Ampere ein französischer MathematikerAndre-Marie Ampere – Wikipedia

Volta war ein italienischer Physiker...

warum sollte einer dieser wichtigen Vertreter der historischen Physik/Mathematik usw. nicht zu den anderen passen?

Weil du dir das so ausgedacht hast? :daumen:
 
Wäre schön, wenn mit Ende Jahr Anfang Q4/2020 gemeint ist. Ein Kumpel meldete schon Interesse an, seine RX 570 per Ende Jahr gegen etwas Schnelleres tauschen zu wollen. Da böte sich meine RX 5700 XT durchaus an :ugly:
 
Dir muss man wirklich immer alles erklären wie einem kleinen Kind, du schaffst es nicht dir konkret selbst Gedanken zu machen, oder?
Fallen dir nicht sofort 5 Gründe ein, warum es besser gewesen wäre AMD hätte früher schon was Technik, Features, Performance und Effizienz betrifft auf Nvidia aufgeschlossen? Nein? Hmmm
 
Turing war ein englischer Mathematiker und Ampere ein französischer MathematikerAndre-Marie Ampere – Wikipedia

Volta war ein italienischer Physiker...

warum sollte einer dieser wichtigen Vertreter der historischen Physik/Mathematik usw. nicht zu den anderen passen?

Weil du dir das so ausgedacht hast? :daumen:

Ganz ehrlich, wie kann man hier zwischen Ampere und Turing einen größeren Zusammenhang herstellen wollen als zwischen Ampere und Volta bzw. diesen offensichtlichen nicht sehen? :ugly:

Ampere war aber vorallem auch Physiker und sein Nachwirken ist vorallem in der SI-Einheit Ampere für die elektrische Stromstärke zu finden, die nach ihm so benannt wurde. Und jetzt ratet mal nach wem die elektrische Spannung Volt benannt wurde ;)

Passt doch wie die Faust aufs Auge, Ampere folgt auf Volta. Meine Speku für zukünftige Nachfolger im HPC-Bereich lauten übrigens Siemens, Ohm und Galvani :D

Und im Consumerbereich hat man den Mathematiker Turing, der vielleicht von Hopper abgelöst wird. Übrigens auch eine Mathematikerin...

Grace Hopper - Wikipedia

Nvidia hat ihre GPU-Sparte mit Volta und Turing in HPC/AI etc Beschleuniger und Consumergrafikkarten gespalten, warum soll das jetzt nach einer Gen wieder verworfen werden, zumal Konkurrent AMD nun auch diesen Schritt geht mit RDNA und CDNA?
 
Zuletzt bearbeitet:
Dir muss man wirklich immer alles erklären wie einem kleinen Kind, du schaffst es nicht dir konkret selbst Gedanken zu machen, oder?
Du mußt, bzw. kannst mir nichts erklären;)
Unterlasse es doch einfach mir zu antworten, wenn du es nicht ohne Beleidigung schaffst!

Du solltest nicht immer alles aus der beschränkten Sicht eines Gamers sehen...
 
Vermutlich wird sich ZEN3 um 1-2 Jahre wegen Coronavirus verschieben und kommt dieses Jahr bestimmt nicht mehr. Dann ist Intel wieder vorne. So kanns gehn.
 
Turing war ein englischer Mathematiker und Ampere ein französischer MathematikerAndre-Marie Ampere – Wikipedia

Volta war ein italienischer Physiker...

warum sollte einer dieser wichtigen Vertreter der historischen Physik/Mathematik usw. nicht zu den anderen passen?

Weil du dir das so ausgedacht hast? :daumen:

Volta und Ampere haben die Grundlagen der Elektrik beenflusst.
Turing war eine treibende Kraft bei der Entwicklung von Computern in der moderneren Wissenschaft.

Daher sehe ich Ampere eher bei Volta - die bisherigen Leaks bestaetigen ja auch eher eine HPC Architektur.
Die Vorstellung wurde fuer die GTC angedacht... was ebenfalls auf HPC bzw. Compute deutet und nicht auf eine Gaming Architektur.
 
Zurück