Intel Xe: Hinweise auf Raytracing-Support


Der basiert aber überhaupt nicht auf RTX Hardware, sondern wird von RTRT fähiger Hardware unterstützt. Die Implementierung ist auch völlig offen einsehbar. Du hast immer noch nicht kapiert, dass der RTRT hybride Standardpath erst unter Gameworks und dazugehörige Treiber für RTX explizit umgeschrieben werden muss. Das ist nichts, was mit DXR oder dx zu tun hat. Deshalb steht da auch by Nvidia.
 
sind fast 10% aller RT Spiele wo es bis jetzt gestrichen wurde :-)
Die gesamte Verschiebung der Titel liegt an DXR Tier1.1. Dieses führt nicht nur neue Shadertypen ein, sondern geht RTRT deutlich weniger zu Lasten der Grafikleistung und RTX fähige Hardware braucht es dafür nicht. Die 20H1 als Insiderpreview liegt den Entwicklern schon vor, diese unterstützt Tier 1.1 und die Entwickler sparen sich so aufwendige explizite Implementierungen auf Nv's RTX. Die Zwischenzeit wird für anderweitige Optimierungen genutzt.

Das wissen diese beiden Herren oder Damen hier ganz genau. Niemand braucht dann RTX wirklich und es wird wie jede Cuda proprietäre Technologie seitens Nv, als Rohrkrepierer mutieren. Man wird bis dahin nvidiatypisch melken was das Zeug hält und den Großteil zwingend animieren RTX ausreichend zu promoten.

Man muss derzeit einfach warten können. :)
 
Der basiert aber überhaupt nicht auf RTX Hardware, sondern wird von RTRT fähiger Hardware unterstützt.
Ach sag... Wieviele Strohmänner willst Du eigentlich noch aufstellen um davon abzulenken, dass Du behauptet hast, dass AMDs und nvidias Grafikkartenhardware nicht proprietär wären?

Die gesamte Verschiebung der Titel liegt an DXR Tier1.1.
Sagt wer? Wie kommen denn dann die massenhaft stattfindenden anderen Verschiebungen von großen AAA Titeln in letzter Zeit zustande, die kein RT nutzen?
Rätselraten, stochern im Trüben, unhaltbare Behauptungen aufstellen und die als Fakten verkaufen.

Dieses führt nicht nur neue Shadertypen ein
Na dann erklär die neuen Shadertypen mal. Und auch, was Du unter "Shader" verstehst und welche Auswirkungen das DXR Tier 1.1 jeweils auf diese Shadertypen ausstrahlt bzw. in welchem Zusammenhang das steht.

sondern geht RTRT deutlich weniger zu Lasten der Grafikleistung
Dann erklär mal, wie der Einsatz von DXR Tier 1.1 deutlich weniger zu Lasten der Grafikleistung geht.

und RTX fähige Hardware braucht es dafür nicht.
Genausowenig, wie sie es für DXR 1.0 braucht.

Die 20H1 als Insiderpreview liegt den Entwicklern schon vor, diese unterstützt Tier 1.1 und die Entwickler sparen sich so aufwendige explizite Implementierungen auf Nv's RTX.
Falsch- Auch nicht- RTX Karten können DXR RTRT auch AMD Karten könnten es. Unabhängig von Tier 1.1.

Das wissen diese beiden Herren oder Damen hier ganz genau. Niemand braucht dann RTX wirklich und es wird wie jede Cuda proprietäre Technologie seitens Nv, als Rohrkrepierer mutieren. Man wird bis dahin nvidiatypisch melken was das Zeug hält und den Großteil zwingend animieren RTX ausreichend zu promoten.
Netter Versuch- Nur leider wieder ein Rohrkrepierer Deinerseits. Vorhin noch die große Story von HALs, HELs, HL, LL+ Schichten dazwischen anschneiden, um Dich dann hier durch Deine eigene Ausführung wieder selbst zu zerlegen und alles munter durcheinanderzuwürfeln...

Man muss derzeit einfach warten können. :)
Oder nicht und spielt mit der neuen Technik jetzt schon los..., wenn auch mit wenig Softwareauswahl.

Brauchst auch nicht glauben, dass ich nicht wüsste, was Du mit Deinen Posts bezwecken willst.
Nur lesen hier diverse Leute mit, die sich entsprechend informieren wollen und das was Du schreibst dann im schlimmsten Fall noch als bare Münze nehmen.
 
Zuletzt bearbeitet:
Ach sag... Wieviele Strohmänner willst Du eigentlich noch aufstellen um davon abzulenken, dass Du behauptet hast, dass AMDs und nvidias Grafikkartenhardware nicht proprietär wären?


Sagt wer? Wie kommen denn dann die massenhaft stattfindenden anderen Verschiebungen von großen AAA Titeln in letzter Zeit zustande, die kein RT nutzen?
Rätselraten, stochern im Trüben, unhaltbare Behauptungen aufstellen und die als Fakten verkaufen. Hauptsache an RTRT von nvidia kriegt auch noch sein Fett weg.


Na dann erklär die neuen Shadertypen mal. Und auch, was Du unter "Shader" verstehst.


Dann erklär mal, wie der Einsatz von DXR Tier 1.1 deutlich weniger zu Lasten der Grafikleistung geht.


Genausowenig, wie es DXR 1.0 braucht.


Falsch- Auch nicht- RTX Karten können DXR RTRT auch AMD Karten könnten es. Unabhängig von Tier 1.1.


Netter Versuch- Nur leider wieder ein Rohrkrepierer Deinerseits. Vorhin noch die große Story von HALs, HELs, HL, LL+ Schichten dazwischen anschneiden, um Dich dann hier durch Deine eigene Ausführung wieder selbst zu zerlegen und alles munter durcheinanderzuwürfeln...


Oder nicht und spielt mit der neuen Technik jetzt schon los..., wenn auch mit wenig Softwareauswahl.

Brauchst auch nicht glauben, dass ich nicht wüsste, was Du mit Deinen Posts bezwecken willst.
Nur lesen hier diverse Leute mit, die sich entsprechend informieren wollen und das was Du schreibst dann im schlimmsten Fall noch als bare Münze nehmen.
Wo bleibt deine fachliche Expertise? Bisher nichts weiter als persönliches Geblubber. Als Entwickler wüsstest du woran es liegt. Daher, gäähhnnn. Was wolltest du hier schon empfehlen? Warum soll ich in etwas investieren und losspielen das es morgen schon nicht mehr gibt. Du kommst mir vor wie ein Aktionär, nicht wie jemand der etwas empfehlen könnte.

Dabei reflektierst du alles was Nv macht und du persönlich gut findest auf die gesamte Branche, was für dx absolut nicht zutrifft.

Kann es sein das du Schaffe89 bist und hier die Kürzel zero... aus dem CB Forum dazu benutzt, deinen kleinen RTX Feldzug hier weiterzuführen, nur eben nicht unter Schaffe 89, Poly oder Highländeraccounts? Nebenher auch noch positive Likes für deine Post einsammelst, die du dir selbst liked?, damit das Ganze eine positive Aussenwirkung für das Thema entwickelt? Strohmann ja genau!
 
Zuletzt bearbeitet von einem Moderator:
Wo bleibt deine fachliche Expertise?
Die kann man sich getrost sparen, bei jemandem der provozieren will, obwohl er es besser weiss. Du spielst hier ja nur ein Spiel. Keine Ahnung, was Du da rausziehst für Dich oder was Du damit kompensieren willst.

Bisher nichts weiter als persönliches Geblubber.
Nö- Du bist die #1, die hier persönlich wird. Ich stelle nur Deine Falschaussagen richtig.

Als Entwickler wüsstest du woran es liegt. Daher, gäähhnnn.
War klar, dass da wieder nichts kommt. Jetzt hättest Du die Gelegenheit gehabt zu glänzen. Spätestens jetzt sollte jedem klar sein, dass es Dir nicht um die Sache geht...

Was wolltest du hier schon empfehlen? Warum soll ich in etwas investieren und losspielen das es morgen schon nicht mehr gibt.
Dann erzähl mir mal, warum es RTRT morgen nicht mehr geben sollte, gerade unter dem Aspekt, dass gerade alle großen Player auf den Zug aufspringen.

Lass mich raten- Jetzt legst Du wieder mit Strohmännern los und fängst an Schnittstellen, Treiber und was auch immer mit zig Abkürzungen in wilder Aneinanderreihung durcheinanderzuwürfeln, nur um nicht auf die Frage antworten zu müssen.

Hör einfach auf Deine Spielchen zu spielen. Mach Dir einen neuen Account und fang nochmal von Vorne an (wenn Du hier nicht sogar schon einen hast, über den Du dann vernünftig diskutierst). Und dann bitte nicht destruktiv sondern konstruktiv beteiligen.

Wie gesagt- Das kannst Du besser. Ich frag mich echt, was Dich hier immer wieder reitet.
Ist ein wenig wie mit den Cheatern. Die ziehen auch irgendeine Befriedigung daraus, Unfrieden zu stiften.
Ich kann es nicht nachvollziehen.
 
Du bist auf jeden Fall nicht zeroxxx aus dem CB Forum! Du hast kein einziges Argument fachlich beantwortet, selbst wenn man grobe Fehler einbauen würde und der dort hätte absolut kein Problem damit, nicht die Nr. 1 zu sein. Erinnert in der Kultur stark an Schaffe...
 
Genau lesen - Sie KÖNNTEN.
https://twitter.com/coreteks/status/1098174427609612288?s=19

AMD verzichtet vermutlich aus marketingtechnischen Gründen darauf, es für ihre Karten im Treiber zu implementieren.
Das könnte nämlich die Leistung der RTX Karten ungewollt in ein besseres Licht stellen.

Und bevor man unter Umständen Marketing für die Konkurrenz betreibt, kommt man dann doch lieber mit dem eigenen Produkt inkl. expliziter Hardwarebeschleunigung auf den Markt.
 
Zuletzt bearbeitet:
Das Totschlag-Argument schlechthin.. Was soll man denn sonst kaufen wenn man 1440p/4K spielen möchte? Eine 1660 Ti mit 6GB? Würde Nvidia eine 1670 oder 1680 anbieten wäre viele Leute inkl. mir absolut zufrieden, ob du es glaubst oder nicht. Nvidia entwickelt für Profit am Markt vorbei und pfeift auf die Wünsche seiner Kunden. Dann muss man halt auch damit rechnen das ein paar von denen das lautstark ausdrücken.

Das sehe ich eher als Problem der heutigen Erziehung, jeder einzelne nimmt sich selbst viel zu wichtig und jeder muss heute seinem beleidigte Leberwurstverhalten freien Lauf lassen. Konstruktive Kritik ist doch etwas tolles, aber die gibt es eigentlich fast nicht.

Wenn man sich mal in die Lage eines Unternehmens versetzt, dann erschließt sich einem auch, das zum Beispiel hier Nvidia etwas neues versucht. Oder AMD damals mit HBM. Zwar völlig am Kunden vorbei (bewusst sehr einseitig betrachtet, damit man es mal merkt). HBM ist zwar theoretisch ganz toll, aber die Umsetzung war mau. Eine GPU mit sehr hohem Speichertransferraten, die immer noch so sehr an VRam OC klebt, da kann man wohl von einem flaschen Design ausgehen. Also am Kunden vorbei. Aus meiner SIcht.

Aus der Sicht mancher ist RT am Kunden vorbei. Für mich und viel mehr Andere eben nicht.
Man darf nie vergessen, das es immer die negativen Kommentare vor den positiven ins Netzt schaffen ;) Für mich hat Nvidia alles richtig gemacht!

Verstehe auch nciht das gejammer, das Turing zu wenig mehr Leistung gebracht hättte. Wenn man sich vor Augen führt das eine RTX2070, gute 30% vor einer GTX1070 liegt, kurz nach Release, dann passt das doch.
Alle tun so als hätte es soetwas noch nicht gegeben.

Wie viel war denn die GTX580 schneller, als die GTX480?
Wie viel war die R9 390x schneller, als die R9 290X?
Wie viel war die HD6970 schneller, als die HD5870?
USW usw usw...

Auch das Preis gejammer, nimmt man mal den schwachen Euro aus der Gleichung und die Inflation und geht zurück zu den Zeiten, dann (Randinfo der Euro ist gerade im Wechselkurs 21,5% schwächer als 2011 und die Inflation seit 2011 liegt bis heute bei 14%) sind die Preise gar nicht so ein Wunder.

Man nehme eine GTX570 die damals 350 Euro gekostet hat, dürfte damit ohne wirklich teurer geworden zu sein, 485 Euro kosten. Demnach ist die mit 529 EUro zwar teurer geworden, aber das gejammer eigentlich nicht gerechtfertigt. Das liegt er daran das Nvidia keinen RT Konkurrenten hatte, zu dem Zeitpunkt.
Das entspreche einer GTX570 für 382 Euro in 2011. Als bei weitem nicht so dramatisch.


Youngblood, Metro Exodus, Control, Abducted, Deliver us the Moon, Stay in the Light, Quake II RTX, Mechwarrior V.
Nach deiner Zählweise wären das ja noch mehr.:ugly: Also vielleicht merkst du langsam wie albern das ist.
Irgendwie willst du die Zahl der Spiele immer künstlich begrenzen. Wie erklärt sich das? Ist die Abneigung gegen Nvidia und DXR so groß?
Ansonsten sehe ich keine Grund.

Am besten ist ja Nuallan. Hated DXR/RTX in Grund und Boden und kauft sich dann ne RTX2070.:lol:
Wieso nicht ne 5700XT? Ist doch 0,5% laut Index schneller.:schief:



Liegt wohl an der generellen Unkenntnis was die neuen Features betrifft, anders kann ich mir das nicht erklären.



Und AMD tut das dann also auch, weil sie auch "Hardware RT" integrieren und Sony und Microsoft auch.
Also haben mal eben alle den Markt falsch eingeschätzt und nur du kennst die Wahrheit.
Dass die Nutze die Hardware gern günstiger hätte, ist ja wohl keine Neuigkeit.



Dann sind eben einigen Nutzern die Preise zu hoch, na und? Der Markt zeigt aber, dass Nvidia diese Preise nehmen kann, ergo ist es auch gerechtfertigt.
Wenn sie Preise zu hoch wären, dann müsste Nvidia diese senken.



Also Zero Zerp ist wirklich der letzte der sich für RT nicht interessieren würde.:huh:



Wenn diese Meinungen wie du sie nennst in Falschinformationen verbreiten und pures Bashing abdriften - so wie es generell hier der Fall ist - muss man dagegen ankämpfen.
Das gilt genauso für das Wunschkonzert bezüglich Nvidias angeblich schlechten RTX Absatz, was von vorne und hinten eine Erfindung ist und nicht von den Verkaufszahlen gedeckt ist.

Auch hier wieder, inhaltlich gefällt es mir überwiegend, aber der Ton ;)

Ich komm auf 4, zu Abductor finde ich nicht, aber auch 5 sind keine 6 oder 7 ;-)

Damit kann man doch mal abschließend erklären ihr hattet beide Unrecht und damit dann gut...

Alles gut, ich kann das ab. Das ist halt sein Lebensinhalt. Lass ihm das ruhig wenn es ihn glücklich macht. Und wir alle wissen es macht ihn glücklich.. ;)

Dieser Beitrag ist bewusst genau so provuzierend, kann man so eetwas nicht lassen, auf allen Seiten?

Sei froh das es "solche User" gibt und sie in der Mehrheit sind, sonst würden ab morgen sämtliche Spiele VR und RT voraussetzen, womit ein Gaming-Rechner mal eben schlappe 5k Euro aufwärts kosten und 99% aller Gamer ausschließen würde. Und das hätte dann zur Folge das es sich gar nicht mehr lohnen würde Spiele zu entwickeln und die 1% mit ihrem Rechner VR-Solitär spielen würden. So schwarz-weiß wie "einige User" hier die Welt malen ist sie nämlich leider nicht.

Dein gepostetes Bild ist übrigens unrealistisch, weil der VR-User lange vor dem Nörgler tot wäre. Der Nörgler konnte sich immer was zu essen, Urlaub und ne ordentliche Krankenversicherung leisten. Wir sind wahrscheinlich alle mehr oder weniger Nerds, aber es gibt einfach wichtigeres im Leben als immer den neusten Sch**ß zu haben, vor allem dann wenn er noch nicht ausgereift ist. Oder besser gesagt: Ich würde mir einfach wünschen das Early Adopter selbst entscheiden Early Adopter zu sein, und nicht das eine Firma wie Nvidia beschließt alle Gamer über der Mittelklasse zu Early Adoptern zu machen um eine Ausrede zu haben vierstellige Preise abzurufen.



Wie gesagt: Ich habe noch von keinem (!) Menschen gehört RT sei nicht toll oder das würde sich nicht durchsetzen. Wenn Kritik kommt, dann wegen der aktuellen Umsetzung, Preise und schleppenden Verbreitung. Und das ist alles berechtigt. Ich schreibe auch mal vom "RTX-Dreck", aber damit meine ich nicht Raytracing selbst, sondern Nvidias Brechstangen-Methode.

Raytracing selbst ist die (mittelfristige) Zukunft. Man muss schon ziemlich dämlich sein um das nicht zu sehen oder zuzugeben. Punkt.

Du meisnt als wieder zurück in die gute alte Zeit, wie es damals war, als neue Spiele echt neue Hardware brauchten ;) Das waren aus meiner Sicht schöne Zeiten, viel aufregender. Heute ist es fast wie auf Konsole, einfach Spiel kaufen und langweilig! Klar war es teurer das neuste zu spielen, aber das war normal... Heute muss alles immer sofort zu günstig verfügbar sein. Das ist eine merkwürdige Denkweise für mich. Aber vielleicht muss das so.

Ach so das mit den 5k Euro Rechner dafür verstehe ich nicht. Das wären doch gerade mal ab 1,8K. Schneller wird es dann auch nicht mehr wirklich!
 
Du bist auf jeden Fall nicht zeroxxx aus dem CB Forum! Du hast kein einziges Argument fachlich beantwortet, selbst wenn man grobe Fehler einbauen würde und der dort hätte absolut kein Problem damit, nicht die Nr. 1 zu sein. Erinnert in der Kultur stark an Schaffe...

Dein Problem verstehe ich nicht. Diene erste Antwort auf ihn war schlciht und ergreifend nicht korrekt. Seitdem geht hier ein hin und her und drum herum reden ab, das nervt.
Das überhebliche gesubbel auf beiden Seiten ist auch unterste Schublade. Genau wie dieses Schaffe Gelaber.


Wenn hier jemand meint sich einen anderen Account künstlich zu machen, wozu auch immer, ist einfach lächerlich. Ich meine nicht von Anfeindung geplagte.
 
Verstehe auch nciht das gejammer, das Turing zu wenig mehr Leistung gebracht hättte. Wenn man sich vor Augen führt das eine RTX2070, gute 30% vor einer GTX1070 liegt, kurz nach Release, dann passt das doch.
Alle tun so als hätte es soetwas noch nicht gegeben.
Mit dem Rest deines Posts stimme ich übrigens überein, nur folgendes sehe ich anders.
30% Mehrleistung sind kaum ein richtiger Aufrüstgrund, erst Recht, wenn der Nachfolger auch noch teurer ist.


Wie viel war denn die GTX580 schneller, als die GTX480?
Wie viel war die R9 390x schneller, als die R9 290X?
Wie viel war die HD6970 schneller, als die HD5870?
USW usw usw...
Dabei hat es sich um simple Refreshes gehandelt, die eben im groben, üblichen Rahmen von +10% mehr Leistung lagen.

Auch das Preis gejammer, nimmt man mal den schwachen Euro aus der Gleichung und die Inflation und geht zurück zu den Zeiten, dann (Randinfo der Euro ist gerade im Wechselkurs 21,5% schwächer als 2011 und die Inflation seit 2011 liegt bis heute bei 14%) sind die Preise gar nicht so ein Wunder.

Man nehme eine GTX570 die damals 350 Euro gekostet hat, dürfte damit ohne wirklich teurer geworden zu sein, 485 Euro kosten. Demnach ist die mit 529 EUro zwar teurer geworden, aber das gejammer eigentlich nicht gerechtfertigt. Das liegt er daran das Nvidia keinen RT Konkurrenten hatte, zu dem Zeitpunkt.
Das entspreche einer GTX570 für 382 Euro in 2011. Als bei weitem nicht so dramatisch.
Deine Argumentation ist richtig, bis auf die Tatsache, dass die GTX570 das damalige Pendant zur aktuellen 2080Ti ist, ein leicht beschnittener "Big Chip". Die ganze Benamung hat nVidia zu seinen Gunsten (und zum Nachteil des Kunden) geändert, sodass seit einigen Jahren Karten mit "kleineren" Chips zu höheren Preisen verkauft. Und als i-Tüpfelchen haben sie auch noch einen Teil ihrer Kunden dazu gebracht diese Strategie für sie selbst (nVidia) zu verteidigen - ein bisschen wie "this is fine", nur offensiver, wie Apple.
 
Leute wie ich die jetzt noch mit einer 1060 herumgurken - dürften das Warten auf die nächste Generation kaum noch ertragen können. Als ich mir sehr spät für die 1060 entschied stand ich zwischen der Wahl einer 1060 oder einer neueren 2070.

Aber da RT noch neu war und in kaum einen Spiel geboten wurde und ich auch nur 1080p hab. War die 1060 aussreichend, obwohl sie da schon ein paar Jahre auf dem Markt war. (Am Ende des Mining-Booms).

Mittlerweile könnte ich mir eine 5700XT anschaffen oder auch zur 2070s wechseln - Weil ich aber vorhabe von FullHD auf 3440x1440 zu wechseln, wird mich weder die eine noch die andere glücklich machen.

Wie es aussieht wird es bei Monitoren mindestens bis Ende 2021 kein HDMI 2.1 noch Displayport 1.5 geben. Deshalb kann ich wohl davon ausgehen, dass es die nächsten beiden Jahre bei den Monitoren noch keine Anschlussupgrades geben wird.
Wo bei einen 2000€-Monitior wie den UltraGear 38GL950G-B, 37.5" sich die Frage stellt - was macht man mit dem tueren Monitor in zwie Jahren, Wenn die meisten Furz-Monitore dann HDMI 2.1 unterstützen - einfach entsorgen oder wie? Monitore kauft man sich eigentlich nicht für ledigleich 2 Jahre und ziemlich teure eigentlich schon gar nicht.

Wahrscheinlich werden weder Big Navi noch Ampere HDMI 2.1 noch Displayport 1.5 unterstützen, wenn es längere Sicht keine Monitore dafür gibt, werden die Anschlüsse vermutlich erst mit Gefoce 4080 und After-Big-Navi mitkommen. ('Was ich als Aufrüst-hemmend empfinde.)

Wenn aber Big Navi und Ampere uneingeschränktes 4k-Gaming bieten sollen kann man sich aber auch fragen - wie uneingeschränkt ohne HDMI 2.1 und Displyport 1.5 funktionieren soll... Man kann also wohl davon ausgehen dass Nvidia und AMD eine Leistung bringen wollen die bei UHD mit Raytracing max 100fps liefert und nicht mehr und deshalb niemand schnellere Anschlüsse als Displayport 1.4 benötigt. Und die Tunierspieler mit ihren TN-Panels stellen ohnehin die Grafikqualität für gewöhnlich auf Minimum damit sie die Gegner besser sehen können und damit sich bei 240Hz+ keine Einbrüche haben, für diese Aufgabe braucht man also zwingend auch keine schnelleren Anschlüsse. Man kann also davon Ausgeghen dass nicht alle mit Big Navi und Ampere glücklich werden.

Würde man jetzt wissen, was die nächsten neuen Grafikkarten dann tatsächlich bringen, würde es die Ungewissheit beseitigen und man könnte sich schon vorweg entscheiden ob es fürs glücklich machen dennoch reicht oder ob man doch lieber wieder einmal billiger aufrüstet oder garnicht. Auch würde es die Monitor-Angelegenheit etwas vorwärtsbringen. Aber so wie es derzeit aussieht, bin ich verdammt zum Warten.
 
Jo 100FPS UHD mit RT auf Ultra. Du sagtest uneingeschränkt noch dazu also wirklich Ultra. Das kannst aber leider vergessen. Ein RDR2 bricht mit einer ti in FullHD schon zusammen. In allem müsste die Leistung über 100% gesteigert werden...es wäre ein Traum wenn aber es bleibt leider ein Traum. Gehe mal etwas weniger optimistisch an die neuen GPUs ran dann wird es nicht so enttäuschend :)

Lg Chris
 
Mit dem Rest deines Posts stimme ich übrigens überein, nur folgendes sehe ich anders.
30% Mehrleistung sind kaum ein richtiger Aufrüstgrund, erst Recht, wenn der Nachfolger auch noch teurer ist.


Dabei hat es sich um simple Refreshes gehandelt, die eben im groben, üblichen Rahmen von +10% mehr Leistung lagen.

Deine Argumentation ist richtig, bis auf die Tatsache, dass die GTX570 das damalige Pendant zur aktuellen 2080Ti ist, ein leicht beschnittener "Big Chip". Die ganze Benamung hat nVidia zu seinen Gunsten (und zum Nachteil des Kunden) geändert, sodass seit einigen Jahren Karten mit "kleineren" Chips zu höheren Preisen verkauft. Und als i-Tüpfelchen haben sie auch noch einen Teil ihrer Kunden dazu gebracht diese Strategie für sie selbst (nVidia) zu verteidigen - ein bisschen wie "this is fine", nur offensiver, wie Apple.

Turig ist nichts anderes, als ein Refresh mit Anpassungen für RT.

Zur Titan muss ich dir Recht geben. Das wird man auch nicht wieder raus bekommen, solange AMD nicht Ansatzweise da heran kommen kann. Ich weiß noch bei der ersten Titan kam die R9 290X ja wenigstens noch halbwegs hin und das für deutlich weniger Geld. Aber seitdem kommt ja nicht mehr wirklich Gegenwind für die Nvidia Karten.

Ich sehe das Problem er in den mangelnden Alternativen.

Mein Hobby ist Zocken und ich habe Spaß an Hardware, daran unterschiedliche auszuprobieren und die Leistung zu steigern. Damit einhergehend auch die Bildqualität. Wenn ich jetzt also eine Karte kaufen will, was bleibt mir übrig außer eine Nvidia zu kaufen, da zu allem Überfluss gefällt mir auch noch was ich bisher an RT gesehen habe und möchte auf die Möglichkeit nicht verzichten.

Dann ist man zwangsläufig an Nvidia gebunden. Aktuell!
Ich hoffe das AMD mit Big Navi wirklich einen (bisher unbestätigten) RDNA2 bringt, der sich gut vor der 2080TI platzieren kann. So das man auch noch mit der RTX3000 Serie halbwegs mithalten kann.
Und das Big Navi auch RT in Hardware kann.
 
Dein Problem verstehe ich nicht. Diene erste Antwort auf ihn war schlciht und ergreifend nicht korrekt. Seitdem geht hier ein hin und her und drum herum reden ab, das nervt.
Das überhebliche gesubbel auf beiden Seiten ist auch unterste Schublade. Genau wie dieses Schaffe Gelaber.

Zum Hintergrund- In der kurzen Zeit in der ich hier im Forum aktiv bin, kam es des Öfteren vor, dass neue Accounts hier auftauchen und immer nach dem Schema F unfrieden stiften.

Es beginnt damit, dass Vermutungen als Tatsachen verkauft werden, haltlos den eigenen Spekulationen ohne Hintergrund und Quellenangabe freien Lauf gelassen wird und auf Rückfragen schnell auf andere Themen abgelenkt wird,
ohne jeweils dann konkret einmal auch auf Rückfragen einzugehen.

Man gibt sich wissend und behandelt andere auch dementsprechend von oben herab, ohne dann seine eigenen Herleitungen jeweils zu belegen oder begründen zu wollen. Immer kommt dann plötzlich ein technisch verklausulierter Wust zum Vorschein, der mit dem Ursprungsthema an sich nichts zu tun hat. Alle anderen werden bezichtigt ahnungslos zu sein und Quatsch zu schreiben.

Nachdem sich das Spielchen mit diversen Neuaccounts nun immer wieder wiederholt hat, wird man schon irgendwann mal misstrauisch, wenn genau der selbe Sprachstil, genau die gleichen Stilmittel, genau das gleiche Verhalten wieder zu Tage tritt.

Man kann mit mir immer reden, aber ich kann Leute nicht leiden, die sich im vermeintlichen Schutze der Anonymität ein Spielchen draus machen, immer wieder zu sticheln, OHNE einen wirklichen Beitrag zu leisten.
Das ist absolut toxisches Verhalten. Und dafür ist mir dann auch meine Zeit zu schade.
Man wird hier zu "Scheindebatten" verführt, die bei einer Einlassung darauf weiter ad Absurdum geführt werden (als Beispiel kannst Du dan aktuellen Fall nehmen, wo eine einfache Korrektur wie dass die Hardware Herstellerproprietär sei, dann mit den üblichen Verhaltensmustern gekontert wird).

Das ist eine Unverschämtheit den Leuten gegenüber, die sich hier gesittet miteinander auseinandersetzen und noch schlimmer eine Irreführung derer, die vielleicht über so ein Forum an Informationen gelangen wollen.
Das ist reine Freude den Brandbeschleuniger zu spielen und destruktiv zu handeln.

Insofern reagiere ich auf den Kandidaten eclipso etwas verschnupft da er ein nur zu bekanntes Verhaltensmuster an den Tag legt.
Was schade an der ganzen Sache ist, ist dass er es erheblich besser könnte...

LG
Zero
 
Zuletzt bearbeitet:
Weil es hier einige so genau nehmen:

"[...]was Vulkan für euch ist? Das kann auch Raytracing, wie noch andere Hardware weil das 50 Jahre alt ist."

Vulkan selbst bietet derzeit keine Raytracing-Funktionalität, nicht einmal das diesen Januar veröffentlichte Vulkan 1.2, d. h. es gibt hier kein Äquivalent zu DirectX Raytracing, das Bestandteil von DirectX 12 ist. Nicht umsonst findet man auf der Roadmap nach Vulkan v1.2 den Punkt "Roadmap Discussions" unter dem u. a. Raytracing-Support aufgelistet wird.

Raytracing kann mittels Vulkan derzeit nur durch nVidia's proprietäre Extension VK_NV_ray_tracing genutzt werden, die nachvollziehbarerweise unmittelbar mit nVidia's RTX/Treibern/Hardware verknüpft ist. Diese Extensions sind jedoch kein Bestandteil des Vulkan-API. Entsprechend "kann nVidia Raytracing" und "nicht Vulkan", d. h. man programmiert hier direkt auf spezifischer Hardware bzw. mit minimaler Abstraktion indem man nVidia's Erweiterung verwendet.

Und das "Raytracing, wie noch andere Hardware weil das 50 Jahre alt ist." ist mir schleierhaft. Mein 80486 kann auch Raytracing und genaugenommen selbst mein Taschenrechner, also reichlich unsinnig.
Relevant hier, vornehmlich mit Blick auf Games und Viewport-Manipulationen in bspw. Renderingsoftware ist (near) RealTime-Raytracing, d. h. eine Berechnung mit ausreichend hohen Bildraten die eine einigermaßen flüssige Darstellung ermöglichen (bei Games etwa 45+ Fps, weil man nicht bereit ist, zu viele Abstriche zu machen, während das bei Viewport-Renderern auch durchaus nur 3 bis 5 Fps sein könne, was immer noch als interaktiv zu bezeichnen ist).
Eine entsprechende Viewport-Beschleunigung konnte man schon länger mit der hohen Rohrechenleistung moderner GPUs erzielen, so mittels CUDA oder OpenCL, jedoch für Games reicht es erst mit der Bereitstellung von speziell angepasster Hardware und diese gibt es nun einmal erst seit vergleichweiser kurzer Zeit in Form der Turing- und RDNA2-Architektur (auch wenn letztere noch unter Verschluss ist).
Der Verweis auf irgendwelche ältere Hardware in Verbindung mit hohen Frameraten und Games ist daher wenig sinnvoll. Und weil die aktuelle Rechenleistung immer noch zu gering ist für derart hohe Frameraten und Auflösungen, kommt derzeit als Kompromiss nur ein Hybrid-Renderingverfahren infrage, d. h. weiterhin klassische Rasterization, die mit teilweisem Raytracing aufgewertet wird. Entsprechend verwenden aktuelle Games die zusätzlichen Rechenkapazitäten der Raytracing-Hardware auch nur für ausgewählte Bereiche, so bspw. BF5 nur für Reflektionen, ShadowOTTRaider nur für Schatten und Metro Exodus nur für eine GI.
 
Weil es hier einige so genau nehmen:Vulkan selbst bietet derzeit keine Raytracing-Funktionalität, nicht einmal das diesen Januar veröffentlichte Vulkan 1.2, d. h. es gibt hier kein Äquivalent zu DirectX Raytracing, das Bestandteil von DirectX 12 ist. Nicht umsonst findet man auf der Roadmap nach Vulkan v1.2 den Punkt "Roadmap Discussions" unter dem u. a. Raytracing-Support aufgelistet wird.

Man darf aber gespannt sein:
Schedule | GDC 2020 | Ray Tracing in Vulkan (Presented by Khronos Group)

Leider ist die Khronos Group bezüglich der Featureadaptionsrate immer ziemlich gemächlich...

LG
Zero
 
Du meisnt als wieder zurück in die gute alte Zeit, wie es damals war, als neue Spiele echt neue Hardware brauchten ;) Das waren aus meiner Sicht schöne Zeiten, viel aufregender. Heute ist es fast wie auf Konsole, einfach Spiel kaufen und langweilig! Klar war es teurer das neuste zu spielen, aber das war normal...

Wenn ich mich zurückerinnere was in den 90er Jahren abgelaufen ist, sind wir finanziell gesehen heute aus dem Schneider.
Ich habe meine GTX 1060 vor 4 Jahren gekauft und habe sie auch auch nur getauscht, weil sie den Geist aufgegeben hat.
Mein erster personal computer der Intel Compaq Presario CDS510 inkl. Windows 95 hat gerade mal 2 Jahre gehalten, um damit die neusten Filme und Spiele zu genießen. Danach war der PC nicht mehr auf der Höhe der Zeit.

2200 Mark habe ich dafür ausgegeben, was heute inkl. Inflation mal locker über 2000 Euro sind.
Heutzutage biste mit einem flotten System aus 2014 oder gar 2013 noch ganz gut dabei.
Also ich stimme dir zu! Es waren schöne Zeiten, die aber auch sehr, sehr teuer waren. :)

Leute wie ich die jetzt noch mit einer 1060 herumgurken - dürften das Warten auf die nächste Generation kaum noch ertragen können. Als ich mir sehr spät für die 1060 entschied stand ich zwischen der Wahl einer 1060 oder einer neueren 2070.

Nunja, abhängig von deinen Ansprüchen an Auflösung und eye-candy.
Ich wäre mit meiner 1060 noch ein oder gar zwei Jahre mit meinem WUXGA Bildschirm ausgekommen und dabei spiele ich fast immer alles auf ultra.
Gut, nicht jede Einstellung steht ganz rechts, aber fast alle.

Mittlerweile könnte ich mir eine 5700XT anschaffen oder auch zur 2070s wechseln - Weil ich aber vorhabe von FullHD auf 3440x1440 zu wechseln, wird mich weder die eine noch die andere glücklich machen.

Da könnte es sich, Gott bewahre, ja auch lohnen die Anschaffung mal etwas hinauszuzögern und bei der nächsten Generation zuzuschlagen.
Vor allem da Raytracing, Pathtracing oder wie auch immer es morgen oder übermorgen genannt wird, etwas später besser in Tritt kommt.
Ich habs damals mit Crysis genau so gemacht. Meine 1950XTX erst einmal behalten und dann mit GTX 285 Crysis noch einmal herausgekramt.
 
Zuletzt bearbeitet:
Man darf aber gespannt sein:
Schedule | GDC 2020 | Ray Tracing in Vulkan (Presented by Khronos Group)
Leider ist die Khronos Group bezüglich der Featureadaptionsrate immer ziemlich gemächlich...

In absehbarer Zeit wird eine Unterstützung von Raytracing zweifelsfrei Bestandteil des Core-APIs werden. Der Druck steigt zunehmend, einerseits durch die stetige (derzeit noch langsame) Adaption der SW-Entwickler und andererseits durch die Verfügbarkeit von Hardware anderer Hersteller. Sowohl Intel als auch AMD haben eine Unterstützung zugesagt (wobei es bei Intel gar möglich wäre, dass die ggf. zuerst mit Cloud-basierten Lösungen starten werden, wer weiß; hier ist die Roadmap noch zu schwammig, so bspw. in Bezug auf HighEnd-Consumer-GPUs; mehr als ein "wird es auch [irgendwann] geben" gibt es derzeit nicht).

Die Erweiterbarkeit von Vulkan hat einige Vorteile, einerseits für nicht massentaugliche Spezialfälle, andererseits für Early-Adopter. Mittelfristig wird aber kein SW-Hersteller (bezüglich Raytracing) freiwillig proprietär entwickeln wollen, insbesondere nicht, wenn es Hardware von allen drei Herstellern am Markt gibt, die dann hoffentlich leistungstechnisch auch noch konkurrenzfähig zueinander ist.
nVidia wird natürlich versuchen seinen zeitlichen Vorsprung bestmöglich auszunutzen, wie es ihnen mit CUDA schon einmal gelungen ist, aber das ist ein anderes Thema.
 
..sprach der neue User mit seinem RTX-Profilbild in seinem ersten Satz.. Willkommen im Forum. Ich bin sicher du wirst dich schnell zurecht finden. Sehr sicher.

Ich identifiziere mich durchaus mit dem Stück Hardware in meinem PC, was ganz einfach daran liegt, weil ich dafür knapp eine Woche im Schichtdienst geschuftet habe und ich durchaus auf meine Grafikkarte stolz bin.
Mir ist es aber relativ von welchem Hersteller sie kommt. Ich nehme immer gerade das was ich derzeit als das beste erachte.
Und das war dieses mal keine AMD, sondern eine Nvidia GPU, denn sie soll wie schon die GTX 1060 mindestens 3 oder wenn nicht besser 4 Jahre halten.

Als nächstes werde ich den Prozessor aufrüsten und dort wird es ziemlich sicher ein AMD Prozessor werden.
Sehr wahrscheinlich ein Ryzen 7 3700x, nachdem die vierte Generation herausgekommen ist. Man muss ja nicht immer das aktuellste haben.
 
Zurück