Geforce RTX 2080 Ti: Raytracing-Performance in Shadow of the Tomb Raider (Off-screen-Gameplay)

Es ist schon mutig einen Vegleich mit einer 8800GTX und Crysis zu ziehen. Crysis kam damals auf einer komplett neuen Engine die ueber Jahre PCs ins Schwitzen gebracht hat. Das neue Tomb Raider ist nur eine Fortsetzung auf einer leicht modifizierten Engine, also hinkt der Vergleich da komplett. Ausserdem erscheint das Spiel in 4 Wochen und da wird sich kaum noch was tun am Status des Spiels, ein Spiel kommt nicht in 4 Wochen vom Alpha Status zum Release Status.

Ich hoffe du hast meinen Sarkasmus verstanden. Crysis war seiner Zeit weit voraus. Ähnlich sehe ich das mit den nächsten AAA-Titeln. Das neue Tomb Raider sieht wesentlich mehr aufgebohrt aus als die vorherigen Titel. Alpha Status hin oder her, es wird auch ohne die Raytracing features gnadenlos die Grafikkarten fordern. Daher finde ich die voreilige "Argumentation" mancher poster hier ein wenig ... sagen wir verlogen.

Erst zwei Jahre lang meckern es gäbe keinen Fortschritt und dann heulen, wenn dieser kommt und auch noch etwas kostet. :wall:

Das hat weniger mit Nvidia zu tun als mit der Vision der Entwickler. Die RT-Features sind dabei nur die Kirsche auf der Sahne. :daumen:


Wir muessen einfach abwarten was die 2080ti in schon erhaeltlichen Spielen leistet ohne Raytracing.
Meine Hoffnung liegt immer noch bei der erhoehten Shader Anzahl und bei dem verfeinertem Fertigungsprozess. Falls es sich bewahrheiten sollte und die Turing Chips wirklich ein OC Monster werden, koennten wir 2,3 bis 2,5 GHz auf dem Chip sehen fuer 24/7 OC, aber das werden wir erst in 4 Wochen wissen.

Eben!
Die 2080 Ti hat über 1000 Turing 'Cuda-Cores' mehr. Alle tun so als würden die neuen Karten langsamer als die alte 10er-Serie. Die Ansage aus der Präsentation mit Unreal INfiltrator 4k Enhanded mit 78 FPS war für mich eine Hausnummer. Langsam sieht für mich anders aus!

Trotzdem ist der Preis der neuen GPUs viel zu hoch. Ich werde weiterhin mit meiner 1080ti ohne Ray Tracing zocken, wird so schnell kein Spiel kommen das ich nicht vernueftig damit spielen kann, ausser Nvidia gibt sich keine Muehe mehr mit der Treiberentwicklung.

Die 1080 TI-Fraktion ist mitunter die größte Heulergruppe nach den AMD Vega-Verfechtern. Klar ist der Preis gesalzen. Jedoch waren Early Adopter Preise niemals günstig.

Die ersten Pascalchips waren ebenfalls knackig im Releasepreis. OHne die Mining-Idiotie hätten wir bezahlbare GPUs. Ist nicht passiert und neue Technik kostet von jetzt an halt mehr.

Ich liebe das, immer wenn eine neue Nvidia/AMD/Intel Generation rauskommt ist das Forum hier richtig am Bersten voller Hater, Shitposter und Kreiselwichser.

Ja, das fällt seit mindesten 2 Wochen enorm negativ auf. Selten war eine solche Meute derart aufgehetzt. Dieselben Leute motzen im Dauertakt. Wird langsam eklig! :daumen2:

... man bin ich froh wenn dieses ganze gebashe endlich ein Ende hat und Fakten aus Tests bekannt sind... unglaublich wie sich einige, trotz aller fehlenden aber notwendigen Informationen da doch reinsteigern können. :hmm::motz:

Darauf kann man lange warten. Die FUD-Riege ist einfach zu stark und die meisten User nicht bereit sich zu informieren. Da wird lieber lautstark und vorschnell mit dem Mundwerk geschossen.

Argumentieren ist seit eingier Zeit fast zwecklos. Die Fackeln und Mistgabeln scheinen wichitger zu sein. Ich warte nur noch darauf bis der Großteil gegen die Redakteure hetzt. Vereinzelt passiert das ja schon.

Jeder argumentiert hier, als wüsste er ganz genau was die Hardware leisten wird, was sie liefern kann oder nicht, etc. pp. und am allerwichtigsten - jeder mit anderer Meinung muss sofort schräg angemacht werden. :lol:

In der Tat!
Wenn Halbwissen sich mit Stammtischgebaren vereint .. scheint der neue Standard in Technikforen zu sein.

Man kommt sich vor, als würde man mit einem Haufen Leuten über Hardware diskutieren, die noch nie ein schlechtes Release neuer Hardware miterlebt haben. Wartet doch einfach mal ab Herr Gott nochmal. :rollen: Ich kann mir kaum vorstellen, das NVidia sich die Blöse gibt und in Spielen ohne Raytracing nur einen minimalen FPS Vorsprung schafft oder gar weniger Leistung auf den Bildschirm als eine 1080Ti zaubert. Da wäre doch der Shitstorm schon absolut vorprogrammiert und der Imageschaden den erwarteten Gewinn nicht im Ansatz wert.

Ich glaube der Grund für Nvidia keine Benchmarks zu liefern ist, dass ihnen garantiert unterstellt würde, sie würden "parteiisch" sein. Darum geben sie das gleich weiter an die Tester.

Nach wie vor bin ich gespannt, ob die 2070 wirklich schneller ist als eine Titan XP oder ob das nur Cherry-picking vom Nvidia CEO war. Wäre immerhin ein Anhaltspunkt für die Preissteigerungen.

Genauso wie ich nicht glaube, dass die letzte Generation über Treiber beschnitten werden wird, damit die neuen RTX-Karten besser dastehen. Denkt ihr wirklich, sowas werden die Nutzer nicht herausfinden? Das dauert keine paar Tage nach Treiberrelease und das Internet raged NVidia in die Krise. Wieder wäre der zu erwartende Imageschaden absolutes Gift für den Wert der Marke und wenn Firmen auf eines allergisch reagieren dann ist das ein Wertverlust des eigenen Markennamens. Haben sie sich eigentlich bis heute schon von dem GTX 970er 3,5+0,5GB Desaster vollständig erholt? Das tat damals ziemlich weh und sitzt bei den Zuständigen bestimmt noch unter dünner Haut als Lektion.

Außer der 970-Geschichte wurden die meisten der Verschwörungstheorien unzählige Male widerlegt. Die FUD-Geschichten halten sich allerdings hartnäckig. Wenn die Leute in den Köpfen einen Sündenbock gefunden haben, kann man sie nur schwer vom Gegenteil überzeugen.

Neue Produkte sind schneller in Szenario X ... kann ja garnicht sein. Meine Hardware wurde beschnitten... Bla bla bla :heul:

Da wünscht man sich fast die alten geschlossenen Communities mit ausgewählten Eliten und Themen unter sich. Die Kiddy-Generation jeden alters ist zu mainstream und verweichlicht. :nene:
 
Warum wurde das Video mit der RTX 2080 TI auf eurem (PCGH) Youtube-Channel wieder gelöscht? Druck seitens Nvidia?
30-60 FPS bei Tomb Raider sind wohl nicht so verkaufsfördernd ?
 
Fanboys zugehoert, wir vergleichen die RTX 2080ti mal mit der GTX 1080ti. RTX 2080ti wird 13.4TFlops an Computepower bieten bei einer TDP von 250W fuer $1199. Die GTX 1080ti hat 11.3Tflops an Computepower bei einer TDP von 250W fuer $699. Und das 1 1/2 Jahr nach Release der 1080 Ti. Sorry aber ich finde das schwach. Es ist nur eine minimal aufgebohrte Titan Xp mit Ray Tracing das noch kein Mensch braucht. Wir muessen jetzt noch einmal auf AMD hoffen, wenn sie es jetzt nicht schaffen zu kontern, dann koennen wir uns mit der 3080 Ti auf $1499 einstellen. Und selbst dann schreien die Fanboys noch Hurra!!!
 
Fanboys zugehoert, wir vergleichen die RTX 2080ti mal mit der GTX 1080ti. RTX 2080ti wird 13.4TFlops an Computepower bieten bei einer TDP von 250W fuer $1199. Die GTX 1080ti hat 11.3Tflops an Computepower bei einer TDP von 250W fuer $699. Und das 1 1/2 Jahr nach Release der 1080 Ti. Sorry aber ich finde das schwach. Es ist nur eine minimal aufgebohrte Titan Xp mit Ray Tracing das noch kein Mensch braucht. Wir muessen jetzt noch einmal auf AMD hoffen, wenn sie es jetzt nicht schaffen zu kontern, dann koennen wir uns mit der 3080 Ti auf $1499 einstellen. Und selbst dann schreien die Fanboys noch Hurra!!!

Und das ganze jetzt mal ohne das ganze Fanboygelaber und du hättest ein durchaus stichhaltiges Argument. Warum muss so etwas immer wieder in AMD-Fanboys gegen NVIDIA-Fanboys ausarten?

Mal ganz in Ruhe echte Benchmarks abwarten und dann nochmal neu bewerten. Noch wissen wir nicht, wo der Benefit der Tensor Cores abseits vom Raytracing liegen. Nüchtern betrachtet deuten die Specs aktuell auf nur eine geringe Leistungssteigerung hin, aber das kann man erst abschließend beurteilen wenn echte Benchmarks abseits des Marketing vorliegen.
 
Fanboys zugehoert, wir vergleichen die RTX 2080ti mal mit der GTX 1080ti. RTX 2080ti wird 13.4TFlops an Computepower bieten bei einer TDP von 250W fuer $1199. Die GTX 1080ti hat 11.3Tflops an Computepower bei einer TDP von 250W fuer $699. Und das 1 1/2 Jahr nach Release der 1080 Ti. Sorry aber ich finde das schwach. Es ist nur eine minimal aufgebohrte Titan Xp mit Ray Tracing das noch kein Mensch braucht. Wir muessen jetzt noch einmal auf AMD hoffen, wenn sie es jetzt nicht schaffen zu kontern, dann koennen wir uns mit der 3080 Ti auf $1499 einstellen. Und selbst dann schreien die Fanboys noch Hurra!!!

Wir wissen aber alle hier im Forum nicht wie schnell bzw. schneller Turing bei gleichen TF Verhältnis rechnet. Dein Vergleich ist eher ein Vergleich von Äpfel mit Birnen. Es kann auch gut möglich sein, dass die RTX2070 trotz niedriger Rohrleistung schneller Games berechnet als eine Titan Xp.

Das hat auch nichts mit Fanboy-Gerede und co zutun. Die Preise sind sehr hoch aktuell, warten wir doch einfach erstmal die PCGH Test's ab und wie sich der Markt ab Release entwickelt. Mir persönlich gefallen die derzeitigen Preise auch nicht, ganz egal wieviel schneller Turing sein wird. Einfach weil sich die große Käuferschaft keine 600-1300€ kaufen wird. Der Entwicklungsaufwand sollte sich für EA, Ubisoft und co auch lohnen. Auf der anderen Seite ist der Turing Chip auch verdammt groß und kostspielig, Nvidia hat genau wie jede andere Firma nichts zu verschenken.

Ich persönlich warte auf die Tests und bilde mir dann meine erste richtige Meinung. 6-12 Monate später ziehe ich dann für mich nochmal ein Resümee :)
 
Macht euch da mal keine Illusionen – das Spiel wird auch ohne RT jede Grafikkarte niederknüppeln, darauf wette ich. Die Entwickler haben laut Nvidia-Spot das Anti-Aliasing, die Tessellation sowie Schattenfilterung verbessert und die meisten Texturen sehen auch wieder nach einem 12-GiB-Füller aus (wie bei RotTR).

MfG,
Raff

Davon kommt im Video aber nichts rüber... (gut vielleicht auch wegen Full HD)
mich haut die Grafik nicht um... wofür der ganze Raytrace / Tessellations usw.. Kram, wenn das Speil aussieht wie vor 5 Jahren.
Es liegt dann wohl mehr an der Tomb Raider Engine anstatt an der RTX 2080ti... / aber mit 1300 € GPU so eine Grafik mit ~ 35 fps(Full HD) ... das ist nicht krass, dass ist krank.
 
Aber ich persönlich habe kein Problem damit das ein oder andere Grafikfeature zurückzufahren um einen spielbaren Kompromiss aus Performance und Grafikpracht zu finden.

Eben.
Verschieben wir raytracing mal auf die nächste, oder übernächste Generation.

Bin ja kein Feind von raytracing. Wäre toll wenn das flüssig und gut rüber kommt.

Bin nur ein Feind von Hypetrain-Ablenkungsmanövern, von was auch immer.

Warum hat der CEO keinen Benchmarkvergleich 1080Ti <-> 2080Ti gezeigt ?
Aber vorbestellen kann man nach dem gestarteten Hypetrain schon.
Das macht mich einfach stutzig !

Erinnert mich an Spiele Pre-Orders, im schlimmsten Fall mit Early access.
Kauft erst mal und fragt dann, wie es wird.


Ich lass das jetzt auch mal mit der Nörgelei.
Ich mag eigentlich gar nicht die Rolle übernehmen.

Ich wollte nur den ein, oder anderen aus seinen Hypetrain-Träumen reißen und versuchen auch mal eine andere, etwas kritischere Sichtweise darzulegen.
Nicht alles einfach hinnehmen, ohne Fragen zu stellen.

Eigentlich hatte ich mir so etwas von PCGH erhofft.
Aber da liest man ja nur: Raytracing hier, raytracing da.


Ich hab genug genörgelt. Over and out.
Bitte jemand anderes übernehmen ! ;)
 
Jaaaa, Early Adopter im Mainstream GPU Bereich, alles klääärchen.
Wer kommt denn auf eine solche Idee?
Dann hätten sie die Titan Reihe für solche Spielchen beibehalten sollen, da dürfen sie gerne die Early Adopter Preise verlangen.
Aber für eine dreckige Ti?? Eine normale Mainstream GPU?
Jep, eine dreckige Ti, diese absolute Mainstream (<150€) GPU
30fps in FullHD? Ist das ein Witz? Und deswegen dieser große Aufriss?

Ich frage mich wirklich, was das soll. Anstatt eine Karte rauszubringen, die in UHD mind. 60fps liefert, bringt man eine neue Technik, die in FullHD nur 30fps bringt. Und das zu Preisen, die schon an Wucher grenzen.

Was soll der Scheiß? Wollen die uns verarschen?
daumenrunter.gif
Die Karte wird 60 fps in 4K bieten. Nur halt in derselben Uralt-Grafik, die wir seit 10 Jahren haben. Aber immerhin ist sie nun scharf, damit wir sehen, welche uralt-Grafik wir betrachten :D

Deshalb ist der AUflöshungswahn eine Fehlinvestition: Wir sehen eine alte Grafik, diesmal aber scharf.

Weil ic hbetrunken bin fällt mir dazu eine Analogie ein: man könnte in ein Bordell voller alter "Dienstleister und Dienstleisterinnen" gehen, die man dafür dank Brille wenigstens scharf sieht. Schön werden sie trotzdem nicht ;) Außer man steht auf Retro-Charme

Ist schon witzig und erinnert mich wieder, weshalb ich dem Forum so lange fern geblieben bin... man sieht immernoch, andere Standpunkte werden nach wie vor niedergeknüppelt und nichtmal mit Vernunft angegangen. Jeder der ein Argument gegen die Masse vorbringt, wird von den immer selben Leuten, Kommentar für Kommentar zerlegt, während man sich gegenseitig für die gleiche Meinung beweihräuchert.
lolaway2.gif


Rollora zum Beispiel, spricht sich in keinem Kommentar für die Preisgestaltung von NVidia aus oder die Leistung der Karte an sich - er nimmt nur, was wir offiziell geboten bekamen und spricht sich für die durchaus positiven Seiten aus. Die Opposition versteift sich dagegen auf Aussagen, die er in 90% der Fälle niemals so getätigt hat und hängt sich an den immer gleichen Kritikpunkten auf.
s000.gif


Nehmt doch einfach mal die Realität an und seht ein, das in der Vergangenheit neu eingeführte Grafikfeatures immer mit einem überproportionalen Maß an Leistungseinbußen erkauft wurden. Anti Aliasing Modi etc. waren bei Einführung ebenfalls stets ein übermäßiger Leistungsfresser aber über die Jahre wurden Routinen und Verbesserungen entwickelt, damit diese Effekte fast jeder nutzen konnte und den Rest macht man über die gesteigerte Performance bei der Hardware. Genauso wird es mit Raytracing laufen, das schon seit ewigen Zeiten existiert und vor einigen Jahren noch als quasi nicht einsatzfähig auf Rechnern für Endverbraucher galt. NVidia hat es geschafft diese Effekte in unsere PC's zu verfrachten, damit ist ein großer Schritt in die richtige Richtung gemacht worden. Wenn man einige Leute hier für voll nehmen würde, kämen Neuentwicklungen niemehr auf den Markt, da sie offensichtlich kein Interesse an etwas anderem als höheren Auflösungen haben. Ja, ich wünschte mir auch ein 4k Monster für meine Monitore und war gedanklich dabei die 1070 gegen eine RTX 2080Ti zu ersetzen wenn die Leistung einer 1080Ti um mindestens 30% getopt wird. Jetzt warte ich eben auf finale Tests und wie sich die Preise machen oder ich besorge mir günstiger ne 1080Ti. Für irgendwas ist diese neue Generation also definitiv gut und muss nicht verflucht werden.

Falls ihr es vergessen habt - hier ist ein Extreme Forum, das heißt wir sind es gewohnt am Limit zu operieren um zum Beispiel Techniken der Zukunft, schon heute zu testen. Wer sich darüber beschwert, das es nun eine Möglichkeit gibt, dieses Endverbraucher-Raytracing zu nutzen, ist doch irgendwie falsch hier im Grafikkartenbereich... und ja, NOCHMAL, der Preis ist viel zu teuer! JA, der Leistungssprung der neuen Generation - ohne RT - ist vlt zu gering nach den theoretischen Berechnungen. Trotzdem zwingt euch keiner die Karten zu kaufen wenn es am Ende ein schlechter Deal ist. Viele tun ja so, als hätten sie keine Wahl und NVidia würde ihnen die Waffe auf die Brust setzen. Wartet doch mit dem geflame und geheule zumindest, bis sie ausführlich durchgetestet worden sind und die Preise bei den Händlern auf die normalen, stabilen Niveaus eingependelt haben. Nun sind es nunmal immernoch early Adopter Preise und die sind immer und immer wieder auf's neue höher als einige Wochen später, das ist doch wahrlich nichts neues. Außerdem, wer weiß wie weit die Preise fallen wenn sich keine Abnehmer finden, die Karten in den Regalen veralten und NVidia einsehen muss, das die neue Generation auch keine neuen Miner mehr auf den Plan ruft?!

Gebt dem ganzen doch mal ein paar Wochen Zeit und werdet nicht ständig beleidigend, wenn man mal andere Aspekte aufzeigt. Niemand zwingt euch diese Meinungen so zu übernehmen aber ein wenig Anstand und Höflichkeit würde dem ein oder anderen bei Diskussionen wahrlich gut zu Gesicht stehen.
rolleyes4.gif


Dankeschön! Du hast nicht versucht gleich einfach das Gegenteil zu behaupten und drauf los zu haten, sondern meinen Beitrag zu verstehen.
 
Zuletzt bearbeitet:
Jep, eine dreckige Ti, diese absolute Mainstream (<150€) GPU

Okay bauen wir das mal folgendermaßen auf.
GTX Reihe
Titan Reihe
Quadro Reihe

GTX - Mainstream
Titan - Kein Mainstream
Quadro - Kein Mainstream

Was willst du mir jetzt erzählen?
Die Titan V kostet 3200€, also die Titan Reihe wäre für so Early Adopter kack wohl deutlich besser als die GTX Reihe oder?
Ich mein, 780 Ti hat 650€ gekostet, 980 Ti schon 740€ und die 1080 Ti ganze 850€
Jetzt akzeptieren wir also 1250€ für eine "dreckige Ti"? Tja, Nvidia schätzt seine Kunden, die kein Stück irgendwas hinterfragen
Auf auf, und kauf.
GTX ist tot, Titan ist tot - Langlebe RTX die beides vereint.
 
Und Du kommst jetzt hier im Forum mit Deinen Posts und willst uns jetzt die tolle Errungenschaft RT erklären und wie toll diese sind und auch der Preis gerechtfertigt ist. Also alles das, was der Guru CEO von Nvidia nicht kann, das weißt Du besser? Kann es sein, das Du die Lederjacke von dem CEO Huang mal tragen durftest, oder hast Du mal zu lang an dieser Lederjacke geschnüffelt hast und bist immer noch High?
Danke für deine persönliche Diffamierung.
Ich war im Jahr 2003-2007 hauptberuflich am Institute for parallel computing als Programmierer tätig und habe 2005-2007 für unter anderem den R600, Xeons und einem 128er Cell Verbund diverse Raytracing-Algorithmen implementiert. Für Beleuchtung, Reflexion aber auch Kollisionsabfragen usw. Entgegen der meisten Hater hier weiß ich also ungefähr wieviel Rechenaufwand sauber implementiertes RT benötigt und wie weit weg wir nach wie vor von brauchbarem Raytracing sind. Zumindest glaubte ich das, bis ich tatsächlich lauffähige Spiele damit gesehen habe.
Insofern: nein, ich habe nichts geschnüffelt, nur Ahnung von der Materie und entgegen so manch anderer die einen anderen User einfach mal nur dumm dastehen lassen wollen. Aber du kannst mir natürlich erklären, warum tatsächlich angewandters RT so schlecht sein soll
Ich würde mal empfehlen über dieses Forum hinaus zu blicken und zu schauen, was so in den meisten Foren los ist und was auch gerade so in der Gaming Szene abgeht, das würde vielleicht Deinen Horizont erweitern!
Jetzt bin ich aber gespannt, du superschlauer Superguru. Ich würde so gerne wissen, was da so "abgeht".
Jetzt haben wir doch genau das Dilemma, das wir wegen all der offengebliebenen Fragen bei der Präsentations Show eigentlich gar nichts genau wissen und jeder nur spekulieren kann, Toll!

Wir wissen ja nicht mal genau, mit welchen Einstellungen und ob überhaupt mit RT z.B. beim Infiltator Benchmark, die Ergebnisse erzielt wurden und müssen uns so blindlings auf irgendwelchen Aussagen des CEO Huang verlassen.
Müssen wir nicht. Der RT Algorithmus ist ziemlich simpel im Vergleich zu der Vielzahl an Methoden und Variationen beim Rastern.
Und gerade weil ich den Ansatz in Spielen seit vielen Jahren verfolge - das geht auf ein .PLAN Update von John Carmack zurück, der vor ca 15 Jahren behauptet hat, Raytracing wird am Anfang nur ein am Rande eingestztes Feature sein und ewig als Hybrid-Ansatz bestehen bleiben - beschäftige ich mich mit den verschiedenen Prototypen. Und du?
Warum hat man wohl keine OSD Werte bei der Nutzung von RT eingeblendet, dann hätte man ja zumindest mal gesehen, wie sich das auf die FPS im Game auswirkt, aber das wurde ja bewusst nicht gemacht.
Natürlich nicht. Es ist ja auch eine WERBEveranstaltung.
Aber, dass es dennoch präziser und realistischer ist, als bisherige Methoden (wenngleich diese verstumpft dargestellt wurden) sollte auc hden größten Deppen klargeworden sein. Und darum gehts. Und, dass sowas enorme Power braucht ist klar. Denn, dass wir langsam nahe am Fotoroealismus sein können wissen wir, dass aber gerade die letzten paar Prozent lange dauern werden und viel Rechenaufwand benötigen, sollte auch klar sein.
Dass der Weg über Raytracing oder ähnliche Verfahren geht, sollte auch klar sein - für PCGH - E Forenuser und über deinen tollen Tellerrand hinaus.
Ich glaube der Einzige, der hier voll dem kompletten Marketing geblubber von CEO Huang bezüglich RT Features auf den Leim gegangen ist, bist Du! Und jetzt stell Dir nur einen Augenblick mal vor, wie Dich die anderen sehen, wenn Du hier Deine Posts pro RTX Turing raushaust!
Ich bin prinzipiell der erste, der sagt "nett, aber erst in 5 Jahren praktisch zu haben".
Und bei Raytracing sah ich bislang den Nutzen erst in 10 Jahren und bei neuen Prozessoransätzen. Dass es jetzt doch schon in kleinem Teil praktisch möglich ist, ist gigantisch.
DIe Leute die nörgeln "sooo scheiBe diese Technik, ist nicht gleich @ 8K@HDR@144hz möglich, schlecht Nvidia einfach nur schlecht" haben nicht verstanden, was das eigentlich bedeutet.

Wäre AMD näher dran an Nvidia, hätte Nvidia es sich nichtmal leisten können Transistoren für diese Features zu opfern, aber weil sie es nunmal nicht sind, gibt es einen Hersteller der hier etwas neues bringt ohne Angst haben zu müssen, von der Konkurrenz überrollt zu werden. Stell dir mal vor: AMD hat eine gleich gute Architektur zur Verfügung und baut nun gleich komplexe CHips aber ohne Raytracing. Automatisch sind AMD 30% vorne (weil Nvidia 25-30% der Transistoren für dieses Feature opfert). Und Raytracing müsste warten.

Was also die Laien über meine Posts sagen ist mir egal, sie werden in einigen Jahren sehen, ob Raytracing zur physikalischen Korrektheit von Grafik beigetragen hat oder nicht. Und losgetreten hat es Nvidia.

Gruß, ein seit 2001 ewiger ATI/ AMD User (davor 3dfx), der nach 10 Jahren der schlafenden 3D Entwicklung endlich einen neuen Ansatz begrüßt. Sorry, wenn du das nicht verstehst
Okay bauen wir das mal folgendermaßen auf.
GTX Reihe
Titan Reihe
Quadro Reihe

GTX - Mainstream
Titan - Kein Mainstream
Quadro - Kein Mainstream

Was willst du mir jetzt erzählen?
Die Titan V kostet 3200€, also die Titan Reihe wäre für so Early Adopter kack wohl deutlich besser als die GTX Reihe oder?
Ich mein, 780 Ti hat 650€ gekostet, 980 Ti schon 740€ und die 1080 Ti ganze 850€
Jetzt akzeptieren wir also 1250€ für eine "dreckige Ti"? Tja, Nvidia schätzt seine Kunden, die kein Stück irgendwas hinterfragen
Auf auf, und kauf.
GTX ist tot, Titan ist tot - Langlebe RTX die beides vereint.

Ich weiß nicht genau was dein PRoblem ist. Eine Grafikkarte abseits eines gewissen Preises ist Luxus. Der Mainstream liegt unter 200€ und alles darüber ist ein Investment in Features abseits des Mainstreams. Und wer jetzt also mehr bezahlt für besondere Features (4K, besondere AA Modi usw usf) der bezahlt halt mehr. Nvidia kann diese Preise aus 2 Gründen bezahlen 1. keine Konkurrenz und 2. Leute die das bezahlen wollen.

Ich begrüße die Preise nicht, aber solange es Leute zahlen... tjo was soll ich sagen. Sie sind letztlich diejenigen die wohl auch in 1 Jahr wieder aufrüsten, aber auch diejenigen, denen wir es zu verdanken haben, wenn diese Tech sich durchsetzt. Early Adopter eben.

Oder wie Ballmer einst sagte "Niemand zahlt 600$ für ein Telefon. Niemand. Die meisten zaheln 50".

Nur weil die Dinge früher genau so abliefen, ist das kein Argument dafür die gleiche Vorgehensweise zu begrüßen. Kritik hat doch nichts mit der Vergangenheit zu tun !?
Es wäre was anderes, wenn die 2080(ti) im Verhältnis gleichteuer wie die ohnehin schon überteuerten Vorgänger zu ihrer Einführung wäre UND die Tür zum neuen Feature öffnen würde.
Aber so in der jetzigen Form ist es nur ein Beschiss. Mögen die Early-Bekloppter reichlich vorbestellen.

Wie man diese Strategie als Konsument auch noch verteidigen kann ist mir schleierhaft. "Nvidia bringt der Markt voran".. Ne mein Freund, du bringst die Börsenwerte von Nvidia voran und bekommst im Verhältnis exorbitant weniger.
Sorry, aber wenn man die bislang einzige bekannte Möglichkeit, manche grafische Effekte physikalisch korrekt darzustellen kleinreden möchte, dann mach das doch. Dazu musst du mich nicht persönlich angreifen, erklär mir einfach einen anderen Ansatz.

Davon abgesehen: Ja, ich hab tatsächlich 2014 Nvidia-Aktien gekauft. Eigentlich eher, weil damals klar war, dass Nvidia nachlegen wird und AMD nicht und ich Geld irgendwohin einlagern wollte. Aber das hat nichts mit dem Post zu tun.

Es gibt ein neues Feature, neue Features brauchen Performance, sofern sie physikalisch korrekter an der Realität sind als vorige. Das war bei vielen DX8. 8.1, 9 usw Features so (und auch davor). Ich habe es also immer wieder verfolgt. Aber NIE war die Gegenwehr so groß. Jedesmal musste man was "sacrificen", aber offenbar darf das heute nicht mehr verlangt werden. Damals war es nie ein Problem wieder auf 30 Fps und geringere Auflösungen zurückgeworfen zu werden. Spieler sind einfach verweichlichter geworden

Das Spiel ist längst final, da ist nichts Alpha, das kannst du in ein paar Wochen kaufen!
Das was Alpha sein könnte ist die nachträgliche Raytracing Implementierung, darüber haben wir aber keinen blassen Schimmer, immerhin werden die Demos so von Nvidia auf der Gamecom gezeigt.
Bei den anderen Demos (z.B. Metro) verhält es sich nach unabhängigen Aussagen von Leuten, die das Heute auf der Gamescom bei Nvidia ausprobiert haben ähnlich, sehr niedrige FPS und Ruckeln.


Ich bin hier aus technischer Perspektive interessiert, was man nachträglich optimieren wird. Raytracing ist ein sehr geradliniges System, das nicht so wirklich optimiert werden kann - außer durch gewisse Tricks (geringe Auflösungen die dann per AI hochgerechnet werden) usw. Oder diverse andere Tricks, die man schon ausm Rasterizing kennt (in ähnlicher FOrm).
Wenngleich ich mit Optimierung nicht viel zu tun hatte (was praktische IMplementierung betrifft) sind diese durchaus möglich (mit Qualitätsverlust).
Ohne Qualiverlust ist aber nicht mehr viel rauszuholen was den Softwarealgorithmus betrifft. Dazu bräuchte es schon neuere Ansätze

Stinkt für mich bisher nach Flop. Zu teuer. Raytracing das bis dato kein Mensch brauch in Games da viel zu Leistungshungrig. Noch dazu keinerlei Speichermenge Upgrade.
Ich bin nach wie vor der Meinung hätte Nvidia das mal für die nächste oder übernächste Grafikkarten Generation aufgehoben, und dafür weiter an der Energie-Effizient gearbeitet und mehr Speicher verbaut.
Genau sowas hat man gelesen, als 3dfx oder Nvidia eine neue Tech vorgestellt hat. Dass du noch dazu ein 3dfx Logo hast, tut besonders weh. Aus der Vergangenheit also nix gelernt

@Causarin: Es könnte aber auch sein, dass die Strahlendichte schon so weit reduziert war, dass immer noch ein wahrnehmbarer Effekt gegeben war. Für partielle Strategien muss ziemlich viel Hirnschmalz in die Engine gesteckt werden.


Natürlich geht das, das ist ja auc hein ähnliches Verfahren wie es auch heute schon verwendet wird. Die reflektierten Bilder sind ja oft nur ein absoluter Bruchteil der Abbilder
Verstehe mich bitte nicht falsch, aber abseits vom Raytracing-Feature, haben wir es wahrscheinlich sogar im Preis/Performanceverhältnis mit einem Rückschritt zu tun. NVIDIA will sich hier ein Feature vergolden lassen, dass noch keinen praktischen Vorteil hat, sondern eher Nachteile.
Eine GTX2080 zu einem höheren Preis als einer GTX 1080 Ti bei Release mit 3 GByte weniger VRAM und sehr wahrscheinlich ähnlicher Geschwindigkeit. Was bleibt da als reale Performance auf dem Platz abseits von Raytracing, dass erst in ein paar Generationen so performant laufen wird, dass man es auch einschalten kann?

Ich bin seit den Anfängen der Computerspiele dabei und die Präsentation gestern hat mich in gewisser Weise auch begeistert. Habe mich in den späten 80er frühen 90er auch mal an Raytracing versucht, damals noch mit meinen Amiga und ich weiß durchaus zu schätzen wie weit NVIDIA (und AMD) dort gekommen sind, aber einen praktischen Nutzen sehe ich hier für Games noch nicht. Warum sollte man also Karten kaufen, die keinen praktischen Nutzen haben, wenn die Vorgänger alle anderen Features genausogut unterstützen?

Schön das NVIDIA hier einiges vorantreibt ... Mich zum Kauf treiben aber gewiss nicht. Und das hat auch nichts mit rumheulen zu tun, denn ich fühle mich auch nicht gezwungen meine Karte auszutauschen und kann geduldig auf einen neue Generation von Karten warten und meine Spiele genießen.
Raytracing kann ich dann in 2-4 Jahren mit Karten genießen die dann auch anständige Performance bieten und dass auch in den Spielen die man heute mit dem Feature versieht.

Bei Crysis war es ähnlich. Bei Release habe ich es reichlich zurückgeschraubt um es mit einer 8800GTX zu spielen. Aktuell läuft es noch immer nicht perfekt, aber man kann es vollständig aufgedreht genießen. Damals hat es mich aber trotzdem nicht dazu gebracht eine neue Grafikkarte zu kaufen. Das hat erst Venetica von Deck 13 geschafft.
Ich verstehe dich schon nicht falsch.
Du weißt, dass neue Features auch imemr mit einem gewissen Rückschritt auf anderer Ebene verbunden waren.

Was mich verwundert ist, dass manche so tun als wäre dies völlig neu oder noch schlimmer: manche tun, als wären sie GEZWUNGEN aufzurüsten. Einfach 1-2 Generationen warten und wir sehen mehr Performance beim Traditionellen Rendering wie auch beim RT. Einfach aufgrund neuer Prozesse.

Natürlich wären Performancedaten zur "Normalen" Performance nett gewesen, aber da man als einzigen Vergleich eh nur die eigenen Karten hat (aufgrund mangelnder Konkurrenz) reicht es für Nvidia vorerst auch, einfach nur dieselbe Performance und ZUSATZfeatures zu verkaufen.

Erneut gilt: Niemand ist GEZWUNGEN zu kaufen. DU hast entweder schon eine gute GPU oder du kaufst eine UND kriegst RT dazu. Wenn du schon Pascal hast, besteht halt kein Grund aufzurüsten. Ist doch TOLL. Warum also sich beschweren? Wenn man RT dennoc hinteressant findet, aber lieber @ 60 fps spielt, dann einfach warten was die Zeit bringt.

Ach ja warten... das können viele heute nicht mehr.

RTX ON oder RTX OFF so wie Jensen es in der Demo schon gezeigt hat. Das Problem bei Raytracing ist, dass du eine große Anzahl von Rays zurückverfolgen musst um eine stimmiges Bild zu bekommen. Je geringer die Anzahl der Rays ist um so schlechter wird das Ergebnis.

Als ich mich an Raytracing versucht habe hat so ein Bild: http://renderfred.free.fr/_wp_generated/wp13eea6b6.png noch 1-2 Tage gebraucht um gerendert zu werden.

Selbst heute ist Raytracing in Echtzeit nicht wirklich vollständig zu berechnen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Es dauert selbst mit einer Höllenmaschine einige Sekunden bis Minuten pro statischen Bild.

Das von NVIDIA angewendete Verfahren ist eine Annäherung an "echtes" Raytracing, aber es wird auch hier noch getrickst, was Jensen auch schön gestern erklärt hat mit seinem Boxenbeispiel. Vieles was du in Raytracing durchberechnest, wird für das Raytracing in Games einfach verworfen. Also reden wir hier schon vom absoluten Minimum, dass du berechnen musst um den Raytracingergebnis möglichst nahe zu kommen.

Also mehr als AN oder AUS ist aktuell nicht möglich ohne große Qualitätsverluste zu haben. Wir stehen hier wirklich an den Anfängen der Umsetzbarkeit um noch einigermaßen Performence zu erreichen.

In ein paar Jahren wird es wahrscheinlich State of the Art sein und keiner möchte es mehr missen. Es ermöglicht wirklich erstaunliches was die Beleuchtung in Spielen angeht. Dann werden die Zeiten vorbei sein, wo man Spiegelungen, AO etc faken muss um eine stimmige Beleuchtung zu bekommen. So unscheinbar die Effekte auch noch erscheinen mögen, sie werden uns was die Annäherung an Film und Realität entspricht in Zukunft wesentlich vorranbringen.

Ich sehe nur zur Zeit keinen wirklichen Nutzen der auch mit Spielbarkeit einhergeht obwohl wir schon einen riesen Schritt gemacht haben, wenn die Aussage stimmt dass die gleiche Raytracing-Star Wars-Demo die wir auf der GDC gesehen haben die von 4 Titan V berechnet wurde inzwischen von einer GTX2080Ti berechnet werden kann und dass mit einem Geschwindigkeitsvorteil von 10 ms.

Deswegen war ich ja auch von der Präsentation gestern durchaus angetan. Aber wir sind noch 2-3 Generationen davon entfernt realen Nutzen in Games daraus zu ziehen. Trotzdem geht die Entwicklung durchaus in die richtige Richtung. Hoffen wir mal das zukünftige Konsolen und AMD- und Intel-Karten auf gleiche oder ähnliche Pferde setzen.


Und weil du das nun weißt, siehst du ja auch wie "fortschrittlich" es ist, das ganze in Echtzeit zu sehen - wenn auch in reduzierter Variante. Und ich sehe auch 3-4 Generationen noch nicht wirklich den Nutzen, aber airgendwer musste den ersten Schritt tun

Da hat Nvidia aber doch auch selber Schuld, dass alle "bashen".

Wenn man die Karten bereits für teuer Geld kaufen kann, aber gar nicht genau weiß, was sie denn tun oder wie ihre Specs sind...

Also soll man a) auf Tests warten aber

b) schon möglichst schnell kaufen?

Und da darf man jetzt nicht "rumheulen"?


Fast musste ich lachen.
Spieler kaufen doch ständig die Katze im Sack. Kaum wird ein Spiel halbwegs gehyped, wird schon auf "Vorbestellen" geklickt. BF? COD? Skyrim usw.

Ich habe hier auch nie empfohlen zu kaufen, aber ich verstehe die generelle Verteuflung von RT nicht. Es ist letztendlich das Feature das uns Fotorealismus ermöglichen wird.
Wenngleich ich das erst in 10+ Jahren erwartet hätte und dank mangelnder Konkurrenz Nvidia jetzt schon durchsetzen will
 
Zuletzt bearbeitet:
Wäre AMD näher dran an Nvidia, hätte Nvidia es sich nichtmal leisten können Transistoren für diese Features zu opfern, aber weil sie es nunmal nicht sind, gibt es einen Hersteller der hier etwas neues bringt ohne Angst haben zu müssen, von der Konkurrenz überrollt zu werden. Stell dir mal vor: AMD hat eine gleich gute Architektur zur Verfügung und baut nun gleich komplexe CHips aber ohne Raytracing. Automatisch sind AMD 30% vorne (weil Nvidia 25-30% der Transistoren für dieses Feature opfert). Und Raytracing müsste warten.
Genau das habe ich mir während der Präsentation gedacht.
Die Medaille hat immer 2 Seiten, jedem gefällt ne andere.
Ich persönlich finde den Weg gar nicht verkehrt, neue "Features" pushen, dafür bei Üblichem nur minimal mehr Performance *Spekulation
Derzeit kann das ja ausnahmsweise mal funktionieren, da AMD gerade schwächelt.
Ob's die Preise allerdings rechtfertigt (vor allem dank bisher rar gesähten Inhalten, wie ich finde), sei mal dahin gestellt.
 
Danke für deine persönliche Diffamierung.
Liegt vielleicht daran wie Erhaben Du Deine Meinung postest und wie es auf andere wirkt, schon mal darüber nachgedacht?
Ich war im Jahr 2003-2007 hauptberuflich am Institute for parallel computing als Programmierer tätig und habe 2005-2007 für unter anderem den R600, Xeons und einem 128er Cell Verbund diverse Raytracing-Algorithmen implementiert. Für Beleuchtung, Reflexion aber auch Kollisionsabfragen usw. Entgegen der meisten Hater hier weiß ich also ungefähr wieviel Rechenaufwand sauber implementiertes RT benötigt und wie weit weg wir nach wie vor von brauchbarem Raytracing sind. Zumindest glaubte ich das, bis ich tatsächlich lauffähige Spiele damit gesehen habe.
Insofern: nein, ich habe nichts geschnüffelt, nur Ahnung von der Materie und entgegen so manch anderer die einen anderen User einfach mal nur dumm dastehen lassen wollen. Aber du kannst mir natürlich erklären, warum tatsächlich angewandters RT so schlecht sein soll
Du bist mein Held, nachdem Du dann jetzt 11. Jahre raus bist aus dem Job, ist Deine große Zeit gekommen um uns zu Erleuchten? Ja kann man machen, aber auf die Art und Weise wie Du es rüberbringst sicherlich nicht!

Jetzt bin ich aber gespannt, du superschlauer Superguru. Ich würde so gerne wissen, was da so "abgeht".
Und hier kommt wieder Deine Einfühlsame und überzeugende Art zur Geltung und wunderst Dich, wie man auf Deine Posts reagiert!
Müssen wir nicht. Der RT Algorithmus ist ziemlich simpel im Vergleich zu der Vielzahl an Methoden und Variationen beim Rastern.
Und gerade weil ich den Ansatz in Spielen seit vielen Jahren verfolge - das geht auf ein .PLAN Update von John Carmack zurück, der vor ca 15 Jahren behauptet hat, Raytracing wird am Anfang nur ein am Rande eingestztes Feature sein und ewig als Hybrid-Ansatz bestehen bleiben - beschäftige ich mich mit den verschiedenen Prototypen. Und du?
Und nur, weil Du Dich 15. Jahre damit beschäftigt hast, glaubst Du Dich über andere Stellen zu müssen und dann von oben herab Dein Wissen zu verbreiten? Wer sich so lange damit beschäftigt und dann versucht in der Art und Weise, wie Du es hier an den Tag legst, sein Wissen mitzuteilen, der wird sich noch 30. Jahre damit beschäftigen und sein Wissen nicht mitteilen können und schon gar nicht andere von dieser Technik vielleicht auch erst in Zukunft, überzeugen!

Natürlich nicht. Es ist ja auch eine WERBEveranstaltung.
Aber, dass es dennoch präziser und realistischer ist, als bisherige Methoden (wenngleich diese verstumpft dargestellt wurden) sollte auc hden größten Deppen klargeworden sein. Und darum gehts. Und, dass sowas enorme Power braucht ist klar. Denn, dass wir langsam nahe am Fotoroealismus sein können wissen wir, dass aber gerade die letzten paar Prozent lange dauern werden und viel Rechenaufwand benötigen, sollte auch klar sein.
Dass der Weg über Raytracing oder ähnliche Verfahren geht, sollte auch klar sein - für PCGH - E Forenuser und über deinen tollen Tellerrand hinaus.
Ach schau an, auch Herr Rollora hat verstanden wie Werbung funktioniert, um mal in Deiner schmeichelhaften Art zu antworten! Schaut man sich überall in den Foren um und liest die Reaktionen zur Vorstellung von der RTX Turing Serie, dann sind nach Deiner Argumentation ja wirklich noch eine Menge Deppen unterwegs.

Und genau das ist Deine Wahrnehmung, alle die es eben nach dieser tollen Präsentation von Nvidia noch nicht verstanden haben, was auch mit dieser desaströsen Veranstaltung was Information und Präsentation zu tun hat, in Bezug auf Raytracing, sind für Dich nur Deppen! Vielleicht liegt es aber auch daran, dass Nvidia es einfach nicht geschafft hat, die Leute so zu informieren, das jeder sofort den Wert dieser neuen Technik verstanden hätte, auch wenn wir hier noch am Anfang stehen.

Stattdessen hat Nvidia die Leute nur noch mehr verwirrt, weil man es nicht geschafft hat eine Vernünftige und Informative Veranstaltung durchzuführen, nein man hofft obendrein noch, wer nicht weiß wie es genau funktioniert und wo wirklich der Nutzen liegt, der wird dann auf jeden Fall vorbestellen!

Ich bin prinzipiell der erste, der sagt "nett, aber erst in 5 Jahren praktisch zu haben".
Und bei Raytracing sah ich bislang den Nutzen erst in 10 Jahren und bei neuen Prozessoransätzen. Dass es jetzt doch schon in kleinem Teil praktisch möglich ist, ist gigantisch. DIe Leute die nörgeln "sooo scheiBe diese Technik, ist nicht gleich @ 8K@HDR@144hz möglich, schlecht Nvidia einfach nur schlecht" haben nicht verstanden, was das eigentlich bedeutet.
Also wenn selbst so eingefleischte Fachleute die sich seit Jahren mit dieser Technik befassen, sagen, das diese Technik nett ist, aber erst in 5. Jahren oder mehr praktisch zu haben ist, weil erst dann auch die Hardware das Rendern in Echtzeit in den Griff bekommt, der wundert sich, wie sich die Leute / User sich jetzt aufregen, ehrlich? Und wenn sich Nvidia dieses "nette" Feature dann auch noch mit einem so "netten" Preisaufschlag bezahlen lässt, für ein Feature das wir also praktisch jetzt noch gar nicht brauchen, was hat man denn für Reaktionen erwartet, nach Deiner Meinung?


Wäre AMD näher dran an Nvidia, hätte Nvidia es sich nichtmal leisten können Transistoren für diese Features zu opfern, aber weil sie es nunmal nicht sind, gibt es einen Hersteller der hier etwas neues bringt ohne Angst haben zu müssen, von der Konkurrenz überrollt zu werden. Stell dir mal vor: AMD hat eine gleich gute Architektur zur Verfügung und baut nun gleich komplexe CHips aber ohne Raytracing. Automatisch sind AMD 30% vorne (weil Nvidia 25-30% der Transistoren für dieses Feature opfert). Und Raytracing müsste warten.
Mal von den ganzen wenn’s und aber`s abgesehen, wäre das so schlimm, wenn AMD mal für eine Zeit den Primus gibt? Aber wäre es nicht besser eine Technik auf den Markt zu bringen, wenn diese Technik auch ausgereift ist und nicht, jetzt ein Feature zu bringen, bei dem wir alle Beta Tester sind und ein Feature teuer bezahlen, dessen Nutzen derzeit äußert fraglich ist und dazu noch richtig Geld kostet?

Was also die Laien über meine Posts sagen ist mir egal, sie werden in einigen Jahren sehen, ob Raytracing zur physikalischen Korrektheit von Grafik beigetragen hat oder nicht. Und losgetreten hat es Nvidia.
Ja, am besten das Ganze noch einrahmen und in die Vitrine gestellt, zurücklehnen und an die ach so gute alte Zeit denken! Nicht immer ist es wichtig, wer es als erstes auf den Markt gebracht hat, vielleicht es viel wichtiger, wer es als erste schafft, es dann auf den Markt zu bringen, wenn auch die Nutzer dieser Technik wirklich davon profitieren und es einen wirklichen Mehrwert hat, mal daran gedacht?

Gruß, ein seit 2001 ewiger ATI/ AMD User (davor 3dfx), der nach 10 Jahren der schlafenden 3D Entwicklung endlich einen neuen Ansatz begrüßt. Sorry, wenn du das nicht verstehst
Ich weiß nicht genau was dein PRoblem ist. Eine Grafikkarte abseits eines gewissen Preises ist Luxus. Der Mainstream liegt unter 200€ und alles darüber ist ein Investment in Features abseits des Mainstreams. Und wer jetzt also mehr bezahlt für besondere Features (4K, besondere AA Modi usw usf) der bezahlt halt mehr. Nvidia kann diese Preise aus 2 Gründen bezahlen 1. keine Konkurrenz und 2. Leute die das bezahlen wollen.
Ich glaube der Mainstream liegt schon lange nicht mehr unter 200,00 Euro, wenn man sich so mal die Preise der Grafikkarten der letzten 2. Jahre anschaut! Es wird immer Leute geben, die jeden Preis bezahlen, aber schaut man sich so die Reaktionen an, sind doch viele User auch hier im Forum, von den neuen Preisen für die RTX Serie nicht so sehr begeistert. Ich glaube Nvidia hat mit dieser neuen RTX Technik und den einhergehenden Preisen etwas überzogen, man wird sehen wie sich das entwickelt.
 
Ja gut, aber das heißt doch, dass es skalierbar ist, eben nicht nur an oder aus. Wenn später die Leistung steigt, dann wird auch die Qualität besser.

Es gibt eine Ray Tracing Demo, die in diesem Fall mit einer Vega genutzt wird und mit deutlich weniger Strahlen, als die 10 GRays/s auskommen muss.
YouTube

Es ist zwar nicht wirklich mit einem reinen Ray Tracing für Beleuchtung vergleichbar, aber hier sieht man deutlich, was eine Reduzierung der Rays an Einbußen bringt.
 
Liegt vielleicht daran wie Erhaben Du Deine Meinung postest und wie es auf andere wirkt, schon mal darüber nachgedacht?
Nein, ich bin gänzlich unreflektiert :D
Ist natürlich -selbst wenn es so wäre- für dich ausreichend Grund zumzubeleidigen. Wow...
Du bist mein Held, nachdem Du dann jetzt 11. Jahre raus bist aus dem Job, ist Deine große Zeit gekommen um uns zu Erleuchten? Ja kann man machen, aber auf die Art und Weise wie Du es rüberbringst sicherlich nicht!
Wo schreibe ich, dass ich gänzlich "raus" bin?
Und woher willst du wissen, dass ich nicht immer wieder mal über Raytracing schreibe bzw mich informiere? Lächerliches nachträgliches Rechtfertigen deinerseits
Und hier kommt wieder Deine Einfühlsame und überzeugende Art zur Geltung und wunderst Dich, wie man auf Deine Posts reagiert!
Mooooiiii der Mensch der mich beleidigt hat, darf sich das selbst jetzt nicht gefallen lassen!
Du bist süß. Zuerst rumdiffamieren, dann aber auf eine provokante Gegenfrage sagen "na schau, das ist ja nur weil du so gemein bist"
Und nur, weil Du Dich 15. Jahre damit beschäftigt hast, glaubst Du Dich über andere Stellen zu müssen und dann von oben herab Dein Wissen zu verbreiten? Wer sich so lange damit beschäftigt und dann versucht in der Art und Weise, wie Du es hier an den Tag legst, sein Wissen mitzuteilen, der wird sich noch 30. Jahre damit beschäftigen und sein Wissen nicht mitteilen können und schon gar nicht andere von dieser Technik vielleicht auch erst in Zukunft, überzeugen!
Ich stelle mich nicht über andere. Ich das ist allein deine Behauptung.
Ich stelle fest, dass andere nichts gelernt haben aus der Vergangenheit, wenn ein Feature vorgestellt wurde, das Rechenleistung kostet und erst in Zukunft nutzbar ist.
Aber das kapierst du einfach nicht, dass es mir hauptsächlich darum geht. Gut, du fragst ja auch nicht nach, du behauptest einfach irgendwas bzw interpretierst.

Es geht mir um das seltsame Gehabe der Leute hier, die sich nachdems seit 20 Jahren nicht anders ist im 3D Business PLÖTZLICH anfangen aufzuregen. Ja, neue Features kosten Leistung. Oh welch Wunder.
Aber du kannst trotzdem weiterhin in jeder Zeile einen persönlichen Angriff einbauen und mir irgendwas andichten, das rechtfertigt das rumgeheule wegen einem rechenintensiven Feature nunmal dennoch nicht.
Ach schau an, auch Herr Rollora hat verstanden wie Werbung funktioniert, um mal in Deiner schmeichelhaften Art zu antworten! Schaut man sich überall in den Foren um und liest die Reaktionen zur Vorstellung von der RTX Turing Serie, dann sind nach Deiner Argumentation ja wirklich noch eine Menge Deppen unterwegs.
.
Tatsächlich geht man im heutigen Zeitalter - wenn man sich so einfach blenden lässt - von einem Gewissen Grad an unbildung aus, denn schließlich ist es heutzutage 100x leichter als noch vor 20 Jahren, sich zu informieren. Einfach mal Medienpsychologen und Medientheoretiker zum Thema Trump fragen und wie der gewinnen konnte (bzw. jeder Populist heutzutage). Das ist übrigens nicht meine Aussage, falls du sie wieder in meinen Mund legen möchtest. Aber es ist ger Grund warum das nun langsam in den Schulen unterrichtet wird

Und genau das ist Deine Wahrnehmung, alle die es eben nach dieser tollen Präsentation von Nvidia noch nicht verstanden haben, was auch mit dieser desaströsen Veranstaltung was Information und Präsentation zu tun hat, in Bezug auf Raytracing, sind für Dich nur Deppen!
Das ist eine glatte LÜGE die DU in den Raum stellst um mich in schlechtes Licht zu rücken.
Tatsache ist, dass Raytracing - und das kann man in 1 Minute Googlen - enorm Rechenaufwändig ist, es gab dazu auch einige verlinkte Beispiele.
Und sich dann doch zu beschweren, dass es Leistung kostet, ist halt sehr oberflächlich. Als Deppen bezeichnest grade nur du viele Menschen.

Vielleicht liegt es aber auch daran, dass Nvidia es einfach nicht geschafft hat, die Leute so zu informieren, das jeder sofort den Wert dieser neuen Technik verstanden hätte, auch wenn wir hier noch am Anfang stehen.
Man hat doch gesagt: Guckt mal, realistischer und mehr Blingbling. Das physikalische dahinter interessiert doch niemanden - bzw diejenigen die das Interessiert wissen es doch hoffentlich schon längst, schließlich ist Raytracing immer mal wieder Thema
Stattdessen hat Nvidia die Leute nur noch mehr verwirrt, weil man es nicht geschafft hat eine Vernünftige und Informative Veranstaltung durchzuführen, nein man hofft obendrein noch, wer nicht weiß wie es genau funktioniert und wo wirklich der Nutzen liegt, der wird dann auf jeden Fall vorbestellen!
Ich stimme zu, dass Informationen fehlen. Aber ich kann mir kaum vorstellen, dass Nvidia JEMALS vollständige Informationen beim Produktlaunch rausgehauen hat

Also wenn selbst so eingefleischte Fachleute die sich seit Jahren mit dieser Technik befassen, sagen, das diese Technik nett ist, aber erst in 5. Jahren oder mehr praktisch zu haben ist, weil erst dann auch die Hardware das Rendern in Echtzeit in den Griff bekommt, der wundert sich, wie sich die Leute / User sich jetzt aufregen, ehrlich? Und wenn sich Nvidia dieses "nette" Feature dann auch noch mit einem so "netten" Preisaufschlag bezahlen lässt, für ein Feature das wir also praktisch jetzt noch gar nicht brauchen, was hat man denn für Reaktionen erwartet, nach Deiner Meinung?

Mein Hauptkritikpunkt - aber das ignorierst du wohl gerne bewusst und mit voller Absicht - liegt genau daran: Es ist nunmal seit Jeher so, dass Features oft viele Jahre brauchen sich durchzusetzen und deshalb ist der PLÖTZLICHE Aufschrei, der ja nie so da war, mir unbegreiflich, noch dazu, da dieses Feature nunmal kein "Trick" ist, sondern eine Physikalische Berechnungsmethode für die Zukunft.



Mal von den ganzen wenn’s und aber`s abgesehen, wäre das so schlimm, wenn AMD mal für eine Zeit den Primus gibt? Aber wäre es nicht besser eine Technik auf den Markt zu bringen, wenn diese Technik auch ausgereift ist und nicht, jetzt ein Feature zu bringen, bei dem wir alle Beta Tester sind und ein Feature teuer bezahlen, dessen Nutzen derzeit äußert fraglich ist und dazu noch richtig Geld kostet?
Ich würde eine AMD Führerschaft begrüßen. Ich selbst kaufe eigentlich nur AMD Karten. Deshalb war mein Projekt ja auch auf dem R600
Es ist bei manchen Features nicht möglich, das "in House" fertig zu entwickeln, es braucht einfach das Reifen mit vielen Herstellern gemeinsam. Einen Algorithmus kannst du entwerfen, aber es braucht oft die "out-of-the-box" Denkweise von Leuten die das aus der Distanz verbessern.

Ja, am besten das Ganze noch einrahmen und in die Vitrine gestellt, zurücklehnen und an die ach so gute alte Zeit denken! Nicht immer ist es wichtig, wer es als erstes auf den Markt gebracht hat, vielleicht es viel wichtiger, wer es als erste schafft, es dann auf den Markt zu bringen, wenn auch die Nutzer dieser Technik wirklich davon profitieren und es einen wirklichen Mehrwert hat, mal daran gedacht?

Es gibt bereits einen Mehrwert. Schon mal daran gedacht? Und natürlich muss das Ding reifen, wie JEDE Technik. Schon mal daran gedacht? Oder warum spielst nicht noch mit einer Voodoo 1. Warum machst du ab und an GPU Upgrades?


Ich glaube der Mainstream liegt schon lange nicht mehr unter 200,00 Euro, wenn man sich so mal die Preise der Grafikkarten der letzten 2. Jahre anschaut! Es wird immer Leute geben, die jeden Preis bezahlen, aber schaut man sich so die Reaktionen an, sind doch viele User auch hier im Forum, von den neuen Preisen für die RTX Serie nicht so sehr begeistert. Ich glaube Nvidia hat mit dieser neuen RTX Technik und den einhergehenden Preisen etwas überzogen, man wird sehen wie sich das entwickelt.
Ja doch, der Mainstream liegt wohl bei unter 200€, weil der Mainstream inzwischen oft integrierte Grafikchips miteinbezieht
 
UFF! Ganz schön magere Framerate. Also unter diesem Gesichtspunkt ist mir dieses Raytracing-Feature mitsamt neuer Graka nicht wert meine GTX1080 abzulösen. Dann bleib ich lieber bei herkömmliche Licht-/Schatten-/Reflexionsberechnung mit besseren FPS-Werten, auch wenn der WOW-Effekt dabei ausbleibt (trotzdem bleibt das Spiel in seiner Optik auch so Bombe).
 
Mal von den ganzen wenn’s und aber`s abgesehen, wäre das so schlimm, wenn AMD mal für eine Zeit den Primus gibt? Aber wäre es nicht besser eine Technik auf den Markt zu bringen, wenn diese Technik auch ausgereift ist und nicht, jetzt ein Feature zu bringen, bei dem wir alle Beta Tester sind und ein Feature teuer bezahlen, dessen Nutzen derzeit äußert fraglich ist und dazu noch richtig Geld kostet?

Da rede ich schon länger gegen an, denn eigentlich müßten die Nutzer für den Beta-Test bezahlt werden, wenn man schon keine Fachleute dafür bezahlen möchte!
Aber wundern über solch einen inoffiziellen Beta-Status mit Alpha-Status-Mäntelchen, brauchst du dich wirklich nicht!
Das ist seit mindestens 10 Jahren Standard in allen Branchen.
Zum wirklichen Testen bleibt einfach keine Zeit übrig, auch nicht mit künstlich erzeugten Rahmenbedingungen im Simulationszeitraum!
Dafür ist der Trend zu immer schnelllebigeren Produkten schuld, den wir als Nutzer sogar fordern.
Ob bewußt, oder unbewußt fordernd, kommt ganz auf die Interessen an, oder auf seine Anpassungsfähigkeit zum Umfeld.
Einen Großteil erzeugt aber die Industrie selbst, da man eben solche noch nicht vollständig ausgereiften Techniken auf den Markt wirft, ohne zeitnahes umfängliches Nutzungsumfeld und mit "must have" direkt, oder indirekt bewirbt.
Das ganze in prächtigster Bild- und Filmdarstellung und nur mit dem Hervorheben der Alleinstellungsmerkmale, halt so, wie es Nvidia wieder so schön bewiesen hat!
Hier sind die meisten Menschen einfach nur empfänglich, ohne das Hirn zu benutzen.
Das man obendrein dann nur noch Produkte mit solchen Alleinstellungsmerkmalen Kaufen kann, ohne wirklich individelle Optionen für sich selbst vor dem Kauf für sich passend zu filtern, ist glatt eine Frechheit!

Den Schritt in Richtung realitätsnahe Darstellung in Games, bzw. in künstlich erzeugten Filmsequenzen begrüße ich grundsätzlich!
RT muß sich nur erst noch durchsetzen und das wird die Zeit zeigen!
Die Chancen stehen dazu nicht schlecht, aber ob da die Gaming-Sparte das wirkliche Zugpferd darstellt, bezweifle ich erst mal noch, denn ich sehe da weit wichtigere Anwendungsbereiche im Vordergrund.

("Gott" erschuf den Menschen, der Mensch erlangte Bewußtsein und rebellierte, der Mensch wollte Gottgleich sein, der Mensch wurde zu Gott!
Nun schimpft er, das alle Anderen gegen ihn rebellieren!
Warum wohl?
)
 
Zuletzt bearbeitet:
Jep, eine dreckige Ti, diese absolute Mainstream (<150€) GPU

Die Karte wird 60 fps in 4K bieten. Nur halt in derselben Uralt-Grafik, die wir seit 10 Jahren haben. Aber immerhin ist sie nun scharf, damit wir sehen, welche uralt-Grafik wir betrachten :D

Deshalb ist der AUflöshungswahn eine Fehlinvestition: Wir sehen eine alte Grafik, diesmal aber scharf.

wieso wird auf einmal von uralt-grafik gefaselt? ja, die grundlegende technik dahinter hat sich vielleicht nicht verändert, trotzdem sehen die spiele von jahr zu jahr besser aus und können mich optisch (auch dank 4k) immer wieder aus den socken hauen, asscreed origins hat zb eine überragende beleuchtung, wenn man aus einer pyramide zurück ans tageslicht geht oder wenn licht von draussen in eine pyramide scheint, der übergang sieht schon phänomenal aus. der red dead redemption 2 gameplay trailer sieht beleuchtungstechnisch auch absolut überragend aus, das wird IMO die neue messlatte unter der alten technik.

ich habe bis jetzt jedenfalls zu keiner zeit gedacht, "hmm, in der hinsicht muss sich mal langsam echt was tun!"

fortschritt ist immer eine gute sache, raytracing ist sicherlich die zukunft, aber ich habe keinen bock zu anfang derartige performance-einbußen in kauf nehmen zu müssen, nur damit jetzt jede lichtquelle und jeder schatten korrekt dargestellt wird. für mich hätten die noch mind. 5 jahre damit warten können.

aber gut, ist auch egal, solange man es ausstellen kann, will ich mal nicht weiter meckern ;D
 
wieso wird auf einmal von uralt-grafik gefaselt? ja, die grundlegende technik dahinter hat sich vielleicht nicht verändert, trotzdem sehen die spiele von jahr zu jahr besser aus und können mich optisch (auch dank 4k) immer wieder aus den socken hauen, asscreed origins hat zb eine überragende beleuchtung, wenn man aus einer pyramide zurück ans tageslicht geht oder wenn licht von draussen in eine pyramide scheint, der übergang sieht schon phänomenal aus. der red dead redemption 2 gameplay trailer sieht beleuchtungstechnisch auch absolut überragend aus, das wird IMO die neue messlatte unter der alten technik.

ich habe bis jetzt jedenfalls zu keiner zeit gedacht, "hmm, in der hinsicht muss sich mal langsam echt was tun!"

fortschritt ist immer eine gute sache, raytracing ist sicherlich die zukunft, aber ich habe keinen bock zu anfang derartige performance-einbußen in kauf nehmen zu müssen, nur damit jetzt jede lichtquelle und jeder schatten korrekt dargestellt wird. für mich hätten die noch mind. 5 jahre damit warten können.

aber gut, ist auch egal, solange man es ausstellen kann, will ich mal nicht weiter meckern ;D

Naja sie es logisch. Raytracing braucht nunmal für heutige Grafik viel mehr Rechenleistung als Rastern. Völlig egal WANN du es einführen willst, wird man immer viel Transistorbudget dafür aufwenden müssen. Haben wir also in 5 Jahren die Einführung, hast du wieder ein ähnliches Problem. Und irgendwann muss es eingeführt werden damit traditionelle Methoden langsam abgelöst werden. Der Übergang wird also so oder so dauern und du kannst ja auch erst in 5 Jahren eine RT fähige Karte kaufen. Bis dorthin hält eine traditionelle Rasterkarte ja aufgrund des hohen Performancekosten von RT locker
 
Raytracing FHD 2080Ti 30fps... das sah trotz G-Sync Moni. Selbst im Video aus wie´n Daumenkino. Und die hat 10 mal so viel Rechenleistung in RT wie die alte Gen.?
Hauptsache das Spiel läuft ohne RT auf einem akuraten Level in WQHD... sonst können die sich das in die Haare schmieren. denn Optisch scheint da nicht soooo viel Passiert zu sein. Ich freu mich nur auf die Story.

edit:
ich habe schon damals als die Animationsfilme in so richtig in Mode kamen, vor 10-15Jahren gedacht; Warum können Spiele das eigentlich noch nicht??? Rechenleistung und Inovationen müssen her sofort.
Mich Irritiert ehr das es schon so lange dauert. So lange müssen wir noch mit alten maps ausharren^^Pixel Tapeten
 
Zuletzt bearbeitet:
Zurück