Spielbar nach 7 Jahren Entwicklungszeit und 2 Jahre RTRT? Ja klar...das ist 'ne super Zielsetzung.
Ja- Warum denn auch nicht? Gut Ding will Weile haben. Es ist ja kein Makel einer Technik per se, nur weil sie sich lange in der Entwicklungsphase befunden hat.
Der Beitrag ist mir insgesamt zu lang um auf alles zu antworten, wenn ich hier schon mit "Textwall" vollgemotzt werde, wenn man mehr als 15 Zeilen schreibt.
Argh- ich weiss. My bad. Ich hol deswegen immer so weit aus, weil ich mir davon erhoffe einen besseren Einblick in meine Gedankenwelt schaffen zu können.
Es ist extrem schwierig dem anderen zu vermitteln, was man sagen will oder meint, wenn man ihm nicht direkt gegenübersitzt.
Was du immer wieder ausblendest und viele andere gerne machen ist, nicht jeder hat eine 2080ti; und nicht jeder kann quality im Preset wählen, darauf stützt du dich aber gerne. Sieh dich einfach mal in "der freien Welt" um, da ist nicht mal eine GTX1070 Standard oder 8GiB VRAM.
Deswegen habe ich meine Links zwecks Praxisperformance ja ausschließlich mit der von Dir als nicht praxistauglich bezeichneten 2070 non Super gepostet. Mit 1080p und 1440p. Die ist im Augenblick für 389,-€ zu haben.
Weit entfernt von den von manchen hier kolportierten 1500,-€, die man ja in gewissen Kreisen als Minimum ansieht, um RT "vernünftig" nutzen zu können.
Und falls es dich interessiert, ich halte "atemberaubend und noch nie dagewesen" für deutlich übertrieben.
Naja- Szenenweise ist es halt einfach so, dass die Vorstellung in Richtung Rendertrailer geht.
Damit fängt man Dau's und du verlangst an der Stelle, jeder von denen sollte sich mit Engines beschäftigen?
Nein- verlange ich nicht. ich verlange nur, dass wenn man mir unterstellt, nicht zu wissen wovon ich rede, mich auffliegen zu lassen bzw. meine Darstellungen zu widerlegen, indem man die Probe aufs Exempel durchführt.
Ich gebe auch letztendlich für den Interessierten sehr genaue Hinweise, wie das für jeden zu bewerkstelligen ist. Wenn man mir unterstellt, Blödsinn zu schwafeln, oder Unwahrheiten zu verbreiten, so muss sich dieser schon die Mühe machen, z.B. die Kostenlose Unreal Engine runterzuladen und eben ein kleines Projekt zu erstellen. ist mittels Blueprint inzwischen wirklich kein Thema mehr. Und danach trennt sich dann die Spreu vom Weizen, weil man in der Praxis dann sehr genau sehen kann, was ich mit meiner Wall of Text wirklich meine.
Da wissen welche nicht mal, wie man ins Mainboard-Bios kommt.
Absolut- Aber mal ganz ehrlich. Bezüglich einer Kaufberatung verlässt man sich ja auch ein wenig drauf, dass das erstandene Produkt jetzt nicht unbedingt morgen schon ein Auslaufmodell ist.
Würdest Du respektive der Entwicklung der modernen Engines heute noch ruhigen Gewissens eine Pascal- karte empfehlen?
Keine Ahnung wo du sitzt und was du machst,
Ich bin GF in einem mittelständischen Systemhaus
Seit ich 6 Jahre alt bin, häng ich am Computer. War zwischenzeitlich in einer damals berühmten coder und releasegroup auf dem C64 tätig und habe seitdem meinen Spaß an Spielen nicht verloren.
Derzeit bin ich dabei Vorbereitungen zu treffen, in die Spiele- Entwicklung einzusteigen, weil es erstens das Geschäft zulässt und das zweitens meine nie erloschene Passion ist.
Soviel zum vermeintlichen Studenten
aber mit den Innovationen bedient man bisher nur einen kleinen, den kleinsten Teil und realistisch liest sich führt mich völlig anders.
Ich kann nur wiederholt betonen, dass ich diesen ganzen Innovationszyklus innerhalb der letzten Jahrzehnte schon X- Fach mitgemacht habe. Insofern ist das im PC- Sektor vielleicht für die jüngere Generation neu, was da gerade passiert. Für mich ist es nur Iteration XY.
Ich bin zu Zeiten in den PC- Sektor eingestiegen, wo man sich seine Soundkarten für die Centronics- Schnittstelle selbst zusammengelötet hat. Wo man mit phreaking noch kostenlos in alle Mailboxen dieser Welt gelangt ist und man sich auch nicht zu schade war, für die Effizienz mal ein par Stunden zusammen am Assembler- Code zu knobeln.
Da hilft es auch nicht,dass PCGH einen 5.0GHz O.C. 9900k und eine 2080ti, die beide dann 2K kosten zum testen verwenden und dann meint alles gut. In der Realität sind wir bei 2060 und 2060s, die nicht mal das höchste Qualitätspreset per Treiber zulassen. Anscheinend ist dir das in deiner Euphorie völlig egal.
Es gibt nicht nur 9900k und 2080ti oder 2060. Es ist für mich immer ein Zeichen letztendlich am Thema uninteressiert zu sein, wenn man diesbezüglich mit Schwarz/Weissvergleichen polarisieren will oder einen Vergleich dazu forciert. Jeder kann doch nach seinem eigenen Empfinden und Geldbeutel/Ansprüchen entscheiden.
Hat man keinen Bock auf RTX, stellt man es eben aus und hat zumindest bei der 2060 noch den Vorteil von DLSS, wenn unterstützt, zu profitieren. Ich habe keine Ahnung warum hier immer mit aller Gewalt versucht wird, demjenigen, der sich ein Produkt kauft, die Mündigkeit absprechen zu wollen und ihn in eine nicht vorhandene Abhängigkeit zum Hersteller hineindiskutieren zu wollen. Muss doch jeder selbst wissen, was er will und worauf er Wert legt.
RTX ist kein Gefrickel? Was bitte hast du bisher darauf programmiert und womit?
C#, C++, Unity und UE4 bis jetzt mit Samplecodes im Visual Studio und dem beliebten Shadertoy.
Nicht nur, dass du das bisher bekannte Balancing deswegen verschieben musst, nein du musst den alten Kramp auch weiter programmieren, oder wie gibst du hybrides RT wieder, dass kann man abschalten und Spiele laufen auf alter Hardware völlig ohne!
Ja- Aber das ist ja nicht die Zielsetzung, dass es immer so bleiben wird. Es wird ganz klar forciert, dass das Primäre- Rendering künftig über Rays erfolgen kann. War ja die Überraschung in Quake 2 RT und Minecraft RT doch ziemlich groß, dass das Rendering mittels Primärstrahlenauswertung resourcentechnisch sogar deutlich genügsamer war, als ursprünglich angenommen. Deshalb waren die Projekte ja auch überhaupt erst umsetzbar.
Sowas merkt man aber halt auch erst wirklich, wenn man es mit dem aktuellen Stand der Forschung am lebenden Objekt exerziert. Es gibt Dinge, über die man in der Theorie noch so sehr bzw. lange sinnieren kann, die Treffsicherheit in Sachen Praxis wird dadurch nicht mehr höher.
Weiter im Text ->Da aufgrund der Aufgabenstellung das Rendern durch Raybeschuss erhebliches Parallelisierungspotenzial und Beschleunigungspotenzial hat, sind durch RTRT erst wieder RICHTIGE Leistungssteigerungen über die Hardware denkbar. Multi GPU, SLI, Big/Little- All das hat auf einen Schlag wieder Potenzial auf verwertbare Leistungssteigerung.
Wenn sich die Entwicklung fortsetzt, haben die RT Karten mit Raybeschuss schon übernächste Generation das Leistungspotenzial unserer Rasterkandidaten eingeholt. Einhergehend mit entsprechenden Vorteilen in der Qualität der Szene und auch einer möglichen Szenenkomplexität geschweigedenn der möglichen Szenendynamik.
Vielleicht wird man ein leichtes Rauschen im Bild noch längere Zeit in Kauf nehmen. Aber das ist der Tausch, den man für ein schlüssiges Renderbild vorerst wohl hinzunehmen ist.
Schon DX12 sind 1000-ende Zeilen Code mehr, die jemand programmieren muss und die Hardware bleibt abwärtskompatibel, genauso wie Anteile der Softwareumgebung und Laufzeitkomponenten.
Der Init ist unkompliziert. Die anderen Zeilen Code sind einmal generiert und wenn effizient auf 100erte andere Titel ausgerollt.... Wobei Du natürlich damit absolut recht hast, dass der Aufwand eine Zwischen- bzw. Hybridlösung zu pflegen tatsächlich äußerst unangenehm ist.
Deshalb ist es wichtig, dass ein Technologieswitch zeitnah erfolgt.
Mir kommt das immer so vor, als kommentierst du nur, anstatt dich damit auch mal tiefergreifend zu beschäftigen.
Das ist in Ordnung. Wie ich bereits oben erwähnt habe, kann man durch geschriebenen Text Informationen nur bruchstückhaft transportieren, wohingegen man im live- Gespräch sofort mitbekommt, wo und ob eventuell Erfahrungen oder Kompotenzen dahinterstehen.
Aber das ist halt nunmal so.
LG
Zero