Intel Xe: Hinweise auf Raytracing-Support

Die Nvidia-Aktie ist Ende 2018 nach unten gerauscht, unter anderem auch weil die Anleger nicht geglaubt haben das irgendeine Sau den überteuerten RTX-Dreck kaufen wird.

Die Aktie ist nach unten gerauscht, weil die Mining-Blase vorbei war. Mit RTX hatte das überhaupt nichts zu tun, was auch die Verkaufserlöse belegen, die waren auf dem Niveau von Pascal.
Und nun haben sich die Erlöse nochmals mit RTX gesteigert und liegen oberhalb dem Pascal Niveau.

Das ist die harte Wahrheit, die du wie so vieles andere schon wieder verdrängt hast.

Ne, das wurde schon x mal ausdiskutiert und widerlegt.


Die Idee weitergesponnen kommt man auf 684 statt 754 mm² für TU102, auf 498 statt 545 mm² für TU104 und auf 410 statt 445 mm² für TU106 mit ihren jeweils 36, 24 bzw. 18 Texture Processor Clustern, wenn man die Tensor- und Raytracing-Einheiten weglässt.

Aus deiner Quelle.

Nein.. kann er nicht u wird er auch nicht

Ist mir mittlerweile zu dumm geworden.
Laut dir sind es ja nur zwei Spiele, in Wirklichkeit sind es 6.
 
Zuletzt bearbeitet:
Die Aktie ist nach unten gerauscht, weil die Mining-Blase vorbei war. Mit RTX hatte das überhaupt nichts zu tun, was auch die Verkaufserlöse belegen, die waren auf dem Niveau von Pascal.
Und nun haben sich die Erlöse nochmals mit RTX gesteigert und liegen oberhalb dem Pascal Niveau.



Ne, das wurde schon x mal ausdiskutiert und widerlegt.





Aus deiner Quelle.



Ist mir mittlerweile zu dumm geworden.
Laut dir sind es ja nur zwei Spiele, in Wirklichkeit sind es 6.

1. Hab mich auf 3 verbessert..
2. Ja dann zähl die soch auf... Ich weiss es wirklich nicht... lass mich ned dumm sterben
3. Aus der Quelle geht ein Mehrbedarf bei den Shadern von 22% hervor. Ergo ohne Rt könnte man 22% mehr shader verbauen können
 
Aus deiner Quelle.

Die 10% die du annimst sind auf den gesamten Chip bezogen und nicht auf ein Cluster. Ein Cluster könnte trotzdem 22% mehr Cuda Kerne entahlten.

Welche 6 Spiele kamen denn 2019 mit RTX? Ich würde mir gerne noch eines kaufen von dem ich noch nicht weiss.... Leider hat mich, bis auf SoTR, keines interessiert. Eventuell ist ja eine Überraschung dabei.

EDIT:

Nehmen wir an die 22% mehr Cuda Kerne skalieren linear und werden ausgelastet, dann kämen im Falle von RDR2 auf UHD mit einer 2080ti 52,46FPS anstatt 43FPS heraus. Laut PCGH Benchmarkstelle.
Das wäre schon schön nahe an dem was ich bevorzuge. :)
 
Zuletzt bearbeitet:

Da gabs übrigens kürzlich wirklich einen Twitterbeitrag der das mit den 10% sehr genau belegt hat. Muss ich nachliefern.
Jedenfalls war ich bislang auch immer der Meinung, dass wir von 20-25% mehr Transistoren durch RT sehen, da wurde mir aber genau hier im Forum etwas anderes erzählt

Edit: hier Nvidia Ampere: Angeblich halber Verbrauch und 50 Prozent schneller als Turing
 
1. Hab mich auf 3 verbessert..

Wo er die 6 Spiele her hat die 2019 erschienen sind und RTX haben weiß ich halt auch nicht...

Es gibt im Internet genug Listen die Spiele mit offiziellem RTX Support auflisten...

Das wären:
1. Metro Exodus
2. CoD Modern Warfare
3. Control

Das sind 3 Spiele die 2019 erschienen sind. - Quake und SotTR sind früher erschienen haben RTX aber erst 2019 nachgepatcht bekommen. Meinetwegen kann man die als "0,5" mitzählen. Wären 4 Spiele gesamt.

Insgesamt seit erscheinen der RTX Karten haben wir 6 Spiele die RTX unterstützen.

Die 3 erwähnten oben, Quake + Shadow of the Tomb Raider und Battlefield 5. Sind insgesamt 6 Spiele die aktuell RTX unterstützen...
 
Da gabs übrigens kürzlich wirklich einen Twitterbeitrag der das mit den 10% sehr genau belegt hat. Muss ich nachliefern.
Jedenfalls war ich bislang auch immer der Meinung, dass wir von 20-25% mehr Transistoren durch RT sehen, da wurde mir aber genau hier im Forum etwas anderes erzählt

Edit: hier Nvidia Ampere: Angeblich halber Verbrauch und 50 Prozent schneller als Turing

Der Beitrag ist die Quelle des von mir verlinkten PCGH-Artikels. :D

Wie schon gesagt es kommt drauf an wie man die Zahlen interpretiert. Wenns nur um reine RT Einheiten geht sinds anscheinend diese 10,2% (zumindest nach dieser Quelle), wenn man alle drumrum mitrechnet dass der Chip bzw. die RTs auch funktionieren ists deutlich mehr. Darüber kann man sich jetzt totstreiten da niemand genaue Zahlen hat - Fakt ist aber, dass ohne RT [bei gleicher Chipfläche] die Spieleleistung höher gewesen wäre, ob nun 10 oder 15 oder 20%.

Es ist halt die Frage wie viel Leistung ein Chiphersteller (also jetzt auch AMD/Intel) für sowas opfert was zumindest in der ersten Iteration den allerallermeisten Leuten wenig bis nichts bringt. Das kannste nur dann machen wenn du einen großen Vorsprung hast und die Macht, Leute zum Kauf zu zwingen da selbst deine durch RT-Fläche geschwächte klassische Renderleistung der Konkurrenz weit voraus ist. Deswegen gibts die RTX-lose GTX1660(Ti) im Bereich wo AMD mithalten konnte, darüber aber nur RTX-Karten wo AMD (damals) nichts hatte. Wenn der Markt die Wahl gehabt hätte zwischen RTX2080Ti und GTX1880Ti ohne RTX aber 10% schneller wären die Verkäufe von RTX gefühlt gegen Null tendiert. Kaum jemand opfert freiwillig Leistung bei gleichem Preis/Chipgröße um ein Feature zu kaufen das so gut wie nirgends unterstützt wird. Zu sowas musste die Leute zwingen - was bisher ganz gut funktioniert hat (hab ja selbst eine^^).
 
Wieso schlechte Leistung.
Nvidia hat extra ein Zusatzfeature entwickelt, bei dem sie sich offenbar gezwungen sahen es genau gegenteilig benennen zu müssen als das, was es eigentlich macht, damit sie überhaupt halbwegs vorzeigbare Leistung zeigen konnten/ können.
Wie halt JEDES neue, aufwändige HW Feature.
3Dfx mit bilinear Texturfilterung, Creative mit EAX, ATi mit Truform.

Zum Thema Grafikqualität allgemein: Der Mix aus verschiedenen Techniken macht es nunmal aus, gute Texturen und Beleuchtung sind gleichermaßen wichtig. Für gute, aber "gefakte" Beleuchtung gibt es genug überzeugende Beispiele, aber hohe (Textur-)Auflösung kann man sich nicht erschummeln, feine Details gehen einfach verloren oder flimmern (stärker).

RT ist nichts anderes als ein Ultra statt high, kostet Performance, bringt aber auch wieder einen deutlicheren BQ Sprung, es läuft also genau so wie vorher.
Es gibt wieder eine "Ultra-Einstellung" die ihren Namen auch verdient hat.
Das ist auch ohne Frage grundsätzlich cool. Aber erstens, ist DXR bislang qualitativ eben nicht ohne jeden Zweifel erhaben, sondern hat Qualitativ andere Einschränkungen. Zweitens ist die Rasterleistung eben nicht so hoch, dass jeder mal eben 50% an RT Effekte abgeben kann. Ganz besonders, weil Turing nur so einen mickrigen Leistungsvorsprung mitbrachte.
 
Woher nimmst du deine 10?

Na der Chip vergrößert sich um 10%, sieht man doch?
Ein Chip besteht doch noch aus wesentlich mehr als aus den texture processing clusters, womit am Ende der Chip nur minimal größer wird.
Und wenn man jetzt nur beim TCP bleiben würde, dann ist immer noch unklar was die vergrößerten Caches und die andere Anordnung der Cluster an mm² kosten.
Jedenfalls ist diese Story von wegen man hätte den Chip wesentlich schneller machen können, wenn man den "RT Dreck" weggelassen hätte, kaum zutreffend.

Die 10% die du annimst sind auf den gesamten Chip bezogen und nicht auf ein Cluster.

Natürlich.

Aber das Gimmick hat mich (nach Gerüchtenschätzungen) 22% Die-Space gekostet die ich mitzahlen musste aber die mir keine Leistung bringen sondern im Gegenteil noch Powerbudget der Rasterizer klauen.

Wurde sich ja auf den kompletten Chip bezogen.
 
Zuletzt bearbeitet:
1. Hab mich auf 3 verbessert..
Noch immer eine glatte Lüge
3. Aus der Quelle geht ein Mehrbedarf bei den Shadern von 22% hervor. Ergo ohne Rt könnte man 22% mehr shader verbauen können
Muss interessant sein mit einer selektiven Leseschwäche wie du sie hast.

Nehmen wir an die 22% mehr Cuda Kerne skalieren linear und werden ausgelastet, dann kämen im Falle von RDR2 auf UHD mit einer 2080ti 52,46FPS anstatt 43FPS heraus. Laut PCGH Benchmarkstelle.
Das wäre schon schön nahe an dem was ich bevorzuge. :)
Es wären aber keine 22% mehr Kerne. Die Shader benötigen genauso das ganze drumherum - mehr shader ohne mehr Sheduler, Cache, BUS? Ok - ist genauso sinnvoll wie deine Kommentare.
 
Na der Chip vergrößert sich um 10%, sieht man doch?
Ein Chip besteht doch noch aus wesentlich mehr als aus den texture processing clusters, womit am Ende der Chip nur minimal größer wird.
Und wenn man jetzt nur beim TCP bleiben würde, dann ist immer noch unklar was die vergrößerten Caches und die andere Anordnung der Cluster an mm² kosten.
Jedenfalls ist diese Story von wegen man hätte den Chip wesentlich schneller machen können, wenn man den "RT Dreck" weggelassen hätte, kaum zutreffend.



Natürlich.

ja der ganze Chip mit speichercontroller etc..
aber die shadereinheiten vergrößern sich um über 20%...
Ergo hätte man mit gleicher grösse circa 1/5 mehr shadereinheiten einbauen können.. also um die 20% mehr Rechenleistung
warum willst du uns nicht aufklären welche 6 Spiel 2019 mit einen release hatten?

oder gibst du zu das die Zahl wieder nur erstunken u erlogen war wie immer von dir?
 
Ergo hätte man mit gleicher grösse circa 1/5 mehr shadereinheiten einbauen können.. also um die 20% mehr Rechenleistung...

Eben nicht, weil da ein ganzer Rattenschwanz mit dran hängt.
Du kannst nicht einfach die shadereinheiten pro SM aufpumpen und dann glauben die Leistung steigt.

warum willst du uns nicht aufklären welche 6 Spiel 2019 mit einen release hatten?

Google ist dein Freund.
Shadow of the Tombraider, Quake RT, Control, Metro Exodus, Deliver us the Moon und noch zwei Indie Games, die mir jetzt aus dem Stehgreif nicht einfallen.
oder gibst du zu das die Zahl wieder nur erstunken u erlogen war wie immer von dir?

Selbstverständlich, was auch sonst.
 
Eben nicht, weil da ein ganzer Rattenschwanz mit dran hängt.
Du kannst nicht einfach die shadereinheiten pro SM aufpumpen und dann glauben die Leistung steigt.



Google ist dein Freund.
Shadow of the Tombraider, Quake RT, Control, Metro Exodus, Deliver us the Moon und noch zwei Indie Games, die mir jetzt aus dem Stehgreif nicht einfallen.


Selbstverständlich, was auch sonst.
Quake u tombraider und seliger us the moin sind 2018 erschienen und nicht 2019.. google ist dein Freund... praktisch mal 2 spiele aufzuzählen die dir ned einfallen..
also immer noch 3 2019
 
Frag Schaffe, der behauptet ja Upsapling schaut besser aus als wenn es nativ dargestellt wird...

Natürlich kann es der Fall sein. Gerade wenn 2160p durch TAA wieder "zermatscht wird". Warum gibt es jetzt so viele Versuche TAA durch "Nachschärfen" zu mehr Details zu bewegen? Schau dir mal Dirt Rally 2.0 auf einer Xbox One X an was in 1800p gerendert wird aber durch die Kantenglättung wie Full HD aussieht. Am PC auf MSAA umgeschaltet hast wesentlich mehr Details auch wenn dann die Vegetation etwas mehr flimmert.
Wie Wolfenstein Youngblood zeigt kann das aushebeln von TAA eben zu mehr Details von Objekten führen.
Auflösung allein entscheidet eben nicht über das Gesamtergebnis.

Mal ganz unvoreingenommen (darf jeder gerne mitmachen):

Wenn man einen Screenshot wähltz in dem keine Wasserpfützen oder sowas vorkommen wo man natürlich sofort an Reflexionen RT erkennt - kann man wirklich anhand dieses Beispiels unten erkennen, ob RT an oder aus ist?

Das Bild ist doch aus Metro wo RT gar nicht für Reflexionen zum Einsatz kommt? Man sollte auch nicht Rayracing versuchen auf Standbildern zu erkennen. Sowas wirkt erst in Bewegung wo sich die korrekte Beleuchtung oder eben Spiegelungen bemerkbar machen. Da geht es allein schon darum ob es von der Perspektive korrekt dargestellt wird gegenüber Fake-Effekten.
Im Grunde könntest auf dem Bild da fragen ob SSAO oder HBAO+ zum Einsatz kommt.^^


Die 3 erwähnten oben, Quake + Shadow of the Tomb Raider und Battlefield 5. Sind insgesamt 6 Spiele die aktuell RTX unterstützen...

Hast jetzt gerade das aktuelle Wolfenstein Youngblood vergessen was neben Control eine der besseren Raytracingerfahrungen mitbringt.
 
Wurde sich ja auf den kompletten Chip bezogen.

Heilige Maria.... wenn du etwas allgemein hälst, dann windest du dich auch immer raus weil du es angeblich anders gemeint hast. Alk ging es aber um die Cuda-Kerne! Und im Bezug auf das Cluster sind es nunmal 22% mehr Einheiten.

Es wären aber keine 22% mehr Kerne. Die Shader benötigen genauso das ganze drumherum - mehr shader ohne mehr Sheduler, Cache, BUS? Ok - ist genauso sinnvoll wie deine Kommentare.

Und das ganze "Drumherum", wie du es bezeichnest ist FEST! L1,L2L3Cache und Sondereinheiten sind nicht liniear pro Shader. Sie funktionieren und wurden per Cluster implementiert.
Und vorallem mehr "BUS" :D???? Ich hätte nicht gedacht, dass der "BUS" von der exakten Anzahl der Shader abhängt :ugly:
Displayinterface, VPU, PMU, BIF ( Dein "BUS" :ugly: )und Display-Controller sind zB fest. Caches hängen von der Menge der Cluster ab, genauso wie feste Einheiten. Damit bleibt pro Cluster einfach nur die Menge der Cuda-Kerne. Und damit 22% mehr Fläche an Cuda-Kernen pro Cluster. Uuuuuund auch ( Trommelwirbel ) pro Cluster der Sheduler.....


Herr Gott, liest denn keiner mehr ein White-Paper bevor er hier groß tönt?????

@Casurin... akademisches Arbeiten ist Dir nicht bekannt oder? Wer so diffamierend nach aussen wirkt ohne augenscheinlich ein White-Paper zur Architektur gelesen zu haben..... :ugly:

Shadow of the Tombraider, Quake RT, Control, Metro Exodus, Deliver us the Moon und noch zwei Indie Games, die mir jetzt aus dem Stehgreif nicht einfallen.
.
Sind drei Spiele alleine nicht aus 2018???
 
Zuletzt bearbeitet:
Quake und Deliver us the Moon zählen jeweils (wenn überhaupt) nur als halbes Spiel. Nice Try.

Achso, Spiele zählen also nur als halbe Spiele. Gut, gegen so eine gute Argumentation komme ich natürlich nicht an.

Heilige Maria.... wenn du etwas allgemein hälst, dann windest du dich auch immer raus weil du es angeblich anders gemeint hast. Alk ging es aber um die Cuda-Kerne! Und im Bezug auf das Cluster sind es nunmal 22% mehr Einheiten.

Da haste Recht. An der Stelle zieht aber auch das Argument des Kollegen Inu oben: Natürlich ists nur ein Gimmick das ich auch abschalten kann bzw. sowieso nicht benutzen kann (da nur eins meiner Spiele es hat und das damit zuu langsam ist). Aber das Gimmick hat mich (nach Gerüchtenschätzungen) 22% Die-Space gekostet die ich mitzahlen musste aber die mir keine Leistung bringen sondern im Gegenteil noch Powerbudget der Rasterizer klauen.

Mitzahlen tust du nicht 22% "Die-Space", sondern 10% mehr "Die-Space". Ich rede mich hier bestimmt nicht heraus.

Und das ganze "Drumherum", wie du es bezeichnest ist FEST! L1,L2L3Cache und Sondereinheiten sind nicht liniear pro Shader.

Achso, du willst also nur die Einheitenanzahl pro SM erhöhen und das drumherum dann gleich lassen?:schief: Joa, klappt bestimmt.

Damit bleibt pro Cluster einfach nur die Menge der Cuda-Kerne. Und damit 22% mehr Fläche an Cuda-Kernen pro Cluster. Uuuuuund auch ( Trommelwirbel ) pro Cluster der Sheduler.....

Das ist viel zum kompliziert um das hier aufzudröseln, aber was ich sagen kann - ohne mich jetzt aus dem Fenster zu lehnen ist - dass das hier ne recht alberne Milchmädchenrechnung ist.

Herr Gott, liest denn keiner mehr ein White-Paper bevor er hier groß tönt?????

Ja wer tönt denn hier? Das seit doch ihr, die einfach mal annehmen, dass das 22% mehr Leistung bringen würde.:D

Offizielle Begründung von Nvidia war das der Mining-Boom zu Ende ist...

Das ist ja auch richtig so. Es gibt jede Menge Quartalszahlen, die genau das schön belegen.

(genauso wie das Mining vorher die Ausrede war die Preise extrem zu erhöhen), aber das hat nur ein Mensch auf dieser Welt geglaubt, und der fängt mit "Sch" an und hört mit "affe" auf.
Wüsste nicht wann ich mich je zu den Gründen der Preiserhöhungen derart geäußert hätte.
Und dann, ein paar Monate später kommt aus heiterem Himmel die 1660 angerauscht. Warum?

Weil man in den unteren Preisregionen idealerweise auf RT und Tensor Cores verzichtet, damit man die Chips günstiger produzieren kann.

Und warum nur in dieser Leistungsklasse? Warum keine 1680?

Weil es albern wäre zweigleisig zu fahren (Produktpolitisch) und sich damit auch DXR nicht durchsetzen kann, wenn die Hardware dafür nicht in Umlauf kommt. Henne-Ei

Ganz einfach: Wer richtig Leistung haben wollte die es bei der Konkurrenz nicht gab, wurde weiterhin gezwungen tief in die Tasche zu greifen und sinnloses RTX kaufen.

Das ist ja ganz phöse. Ein Unternehmen bietet die schnellsten GPU´s + Extra Leckerli an und soll die etwa verschenken? Warum eigentlich?
Der sich das nicht leisten will oder kann, muss halt sparen oder dann 2 Jahre später das Konkurrenzprodukt für ein paar hundert Euro weniger kaufen.
 
Zuletzt bearbeitet:
Intel könnte genau dann ein ernstzunehmender Gegner sein, wenn sie die Unified Shader einfach weglassen und auf 100% Raytracing-Beschleunigung setzen. Dann würden sie sich von der etablierten Architektur von AMD und Nvidia abkoppeln und sich nur noch mit deren Raytracing-Architektur messen, die viel jünger und unausgefeilter ist. Dadurch könnte sich die Spielelandschaft in den nächsten 10 Jahren gewaltig ändern, eventuell müssten in 10 Jahren die Spiele von heute emuliert werden.

Es wäre schon witzig, wenn man so einen Umbruch durchzieht und es dann erstmal Spiele gibt, die Grafisch auf den ersten Blick deutlich älter wirken, weil das Raytracing so leistungsfordernd ist.
 
Wie schon oftmals hier geschrieben denke ich auch, dass es der Mix macht.

Natürlich ist es wünschenswert, wenn 4K ankommt.
Natürlich ist es wünschenswert, wenn das auch in 120FPS funktioniert.
Zusätzlich wünschenswert wäre, wenn die Monitore dann eben diese 120FPS mit echter und nicht nur auf dem Blatt existierender Bildwiederholfrequenz darstellen würden.
Ebenso ist es wünschenswert, wenn die Qualität der Grafikeffekte sich eben diesen Gegebenheiten angleicht.

Was nützt mir 4K, wenn ich verrauschtes SSAO, niedrig aufgelöste Screenspace- Reflections und kantige Flimmerschatten ertragen muss?
Ich hab dann grafische Grütze super hoch aufgelöst auf dem Bildschirm -> Nicht gut.

Wir werden hier auf lange Zeit noch mit Kompromissen leben müssen, wobei RT natürlich tatsächlich grundsätzlich im Gegensatz zur Rasterisierung noch enormes Beschleunigungspotenzial vorhält.
Fast 100%ige Parallelisierbarkeit, was bedeutet, dass die Shaderzahl auch wieder ohne sinkenden Grenznutzen weiter steigen können.

Zudem liegt hier im Allgemeinen ein Missverständnis vor, was DLSS anbelangt. DLSS ist kein klassischer Upscaler.
Das Ursprungsbild bzw. die Ground Truth liegt bei DLSS bei 16K Auflösung und 64x Supersampling. Es wird also eher downgescaled als alles Andere...
Deshalb kann das durch die Tensor- Cores mit Inferencing hochgerechnete Bild eben sehr wohl auch die Qualität des nativ berechneten Bildes übertreffen. Alles eine Frage des Trainingsaufwandes der KI und der Größe des Referenzdatensatzes.

LG
Zero
 
Zuletzt bearbeitet:
Achso, Spiele zählen also nur als halbe Spiele. Gut, gegen so eine gute Argumentation komme ich natürlich nicht an.





Mitzahlen tust du nicht 22% "Die-Space", sondern 10% mehr "Die-Space". Ich rede mich hier bestimmt nicht heraus.



Achso, du willst also nur die Einheitenanzahl pro SM erhöhen und das drumherum dann gleich lassen?:schief: Joa, klappt bestimmt.



Das ist viel zum kompliziert um das hier aufzudröseln, aber was ich sagen kann - ohne mich jetzt aus dem Fenster zu lehnen ist - dass das hier ne recht alberne Milchmädchenrechnung ist.



Ja wer tönt denn hier? Das seit doch ihr, die einfach mal annehmen, dass das 22% mehr Leistung bringen würde.:D


Sie zählen wenn Sie überhaupt dazu zählen als halbe Spiele da diese Spiele 2018 rauskamen und nicht 2019... deine Aussage war es sind im Jahr 2019 6 Spiele mit RT Released... Ich komm immer noch nicht auf mehr als 3 Spiele..
es gab Spiele die 2018 Released worden sind und wo ein RT Patch nachgereicht wurde... also zählt er sie als halbe.....

dann so viel drum herum brauchst du nicht... wenn die RT Cores 22% des shader Platzes verbrauchen aber nur 10% der gesamten chipfläche kannst du sicher sein das man knapp bis mehr als 20% shader einbauen könnte.. Welches drumherum meinst du denn?
Cache? Ändert sich nicht. Rops? Auch nicht. Speicherkontroller, PCIE Kontroller? Also welches drumherum ändert sich da so gewaltig?
 
Zurück