Nvidia Ampere: Angeblich 2020 im 7-nm-Prozess, AMDs Navi im Juli

Naja die RT-Cores tricksen ja nicht. Die rechnen halt RT. Rasterization ist in den aller meisten Dingen schneller. Und das wird vermutlich so bleiben. (Die Diskussion hatten wir ja schon :D)
Ich erinnere mich nicht an eine diskussion, dass Rastern schneller wäre, denn Rasterizing ist nicht per se schneller und wird dies auch nicht immer bleiben. Es gibt Teilbereiche, wo das so sein wird, aber je komplexer manche Sachen werden, desto ineffizienter wird Rastern.
Ich sag ja nicht, dass der Denoising Trick mit den Tensor-Cores schlecht ist und ich stör mich auch nicht an Tricks. (Auch die Diskussion hatten wir auch schon :D) Mich interessieren ja primär mal die Ergebnisse.
Aber ich wollte nur darauf hinweisen, dass Denoising leider nicht ganz so gut ist wie echte Rays.
Na klar. Hochskalieren ist nunmal nicht so gut wie nativ genug zur Verfügung zu haben. Das ist nicht überraschend und überall so. Solange es aber nur für Teilbereiche verwendet wird (Schatten, Licht, Reflexionen etc) und nicht für das ganze Bild ist es eher irrelevant.
Der Denoiser von Nvidia macht trotzdem nen recht guten Job. Die Frage ist ob jemand irgendwann quasi wieder was besseres für Rasterization findet was man statt Raytracing verwenden kann (wieder frei nach dem Motto, der Weg ist egal, das Ziel ist entscheidend)
Nein, nicht wenn es darum geht Beleuchtung oder ähnliches realistisch darzustellen. Hierbei liegen die Stärken von Raytracing und ähnlichen Techniken.
. Bei Reflektionen lässt sich ja mit planaren Reflektionen einiges machen. Die Frage ist wo man mit RT hin will. Warum RT verwenden wenn man das auch billiger haben kann.
Billiger hat man es halt jetzt 20+ Jahre probiert und ist nun am Ende angelangt. Physikalisch korrektes Licht geht eben nur, wenn man simuliert wo das Licht abprallt und streut. Näherungsweise versuchen wir das ja schon seit 15 Jahren mit dynamischer Beleuchtung und Schatten in Doom 3 und später.
Sollte das nicht passieren kommt man um RT natürlich nicht rum. Planar Reflektions funktionieren ja z.B. nur auf glatten Oberflächen, die waren nur mal ein Beispiel.
Es wird zur Optimierung immer ein Zwischenweg aus mehreren Methoden sein. Aber welcher Designer hat so viel Zeit jedes Asset so lange zu optimieren? Wird entweder eine Sache für KI unterstütze Entwicklung werden oder es wird das Optimieren einfach ausgespart und lässt die Zeit die "Wunden heilen" (also man wartet 2 Jahre und die RT Performance erhöht sich weiter). Es wird einfach nach und nach immer mehr durch RT gemacht werden, weil es sich nicht auszahlt 10 verschiedene Methoden zu verwenden. Macht das ganze auch simpler.
Zu meiner Aussage zurück, ich hab ja gesagt mehr Rays weniger Denoising ist im Moment unrealistisch. Ich bin auch immernoch der Meinung, dass Raytracing sich jetzt nicht in naher Zukunft durchsetzt. (also so in den nächsten 2-3 Jahren). Dazu funktioniert Rasterization zu gut, aber ich bin kein Hellseher und kann mich irren. Aber naja wir werden sehen was kommt. Ob Raytracing Rasterization ablöst hängt stark davon ab wie und ob sich Rasterization noch weiterentwickelt. Raytracing ist ja im Endeffekt nur der Brute-Force weg.
Was genau meinst du mit durchsetzt? Raytracing wird sich gemeinsam mit Rastern als Hybridlösung etablieren. Dass sich Raytracing in den nächsten 10-15 Jahren nicht durchsetzt im Sinne von 100% der Berechnungen werden Raytraced, kann man jetzt schon sagen. Dass es sich aber für einen Teil der Bildberechnungen gegenüber der näherungsweisen Verfahren im Rastern durchsetzen wird auch.
 
Und noch mal ein Jahr auf 7nm warten bei den guten Nvidia Karten, nur weil AMD zu gammlig ist und Nvidia sich ausruhen kann. Vielen Dank AllesMegaDung.
 
Das Rauschen das beim Raytracing entsteht wird durch die Tensor Cores oder simple AI Berechnungen geglättet. So besser? Im Prinzip ist das als würden zigfach mehr Rays zur Verfügung stehen


Richtig, das ist einer der Gründe. Einer der Wirtschaftlichen. Und auch einer der Gründe, warum man es unbedingt auch jetzt eingeführt hat, während AMD 1 Jahr lang zuschauen muss - damit sich das ganze ETWAS etwabliert in dieser Teil-Proprietären Form. Natürlich sichert es den Umsatz.
Es gibt aber eben auch technische Gründe und die sind nunmal, dass Rasterizing optisch nur noch geringe Vorteile bringt.

Beide Perspektiven verstehe ich, auch, dass nach Jahren des technischen Stillstands endlich mal was neues eingeführt werden muss.
Gerade im Bereich Tempo hat sich ja kaum was getan die letzten 7-8 Jahre, da müssen eben Gründe geschaffen werden, dass Spieler doch höhere Performance und teurere Karten wollen. 4K, HDR, 144fps, 8K usw sind alles Dinge die eingeführt wurden, damit man sich nach mehr Performance sehnt.


Weder 2019, noch 2020 ist man gezwungen eine (Echtzeit)Raytracing-fähige Karte zu kaufen. Ich hab mit meiner 7970 jetzt so lange gewartet, ich habe kein Problem weiter zu warten bis AMD sich wirklich erholt hat oder Intel vielleicht tatsächlich mitmischen kann. Wenns 2021 wird ists mir auch egal, es gibt kein Spiel (welches ich Spiele) das bei mir nicht läuft. Sollte Cyberpunk tatsächlich kaum mehr fressen als Witcher 3 und Doom Eternal wird ja auch wieder super laufen dank ID Tech (das sind die Spiele auf die ich mich 2019 freue) habe ich eigentlich nach wie vor alles richtig gemacht mit meinem Kauf 2011 und sehe noch keinen Grund für Panik oder Aufrüstzwang.

Ersetze hier Nvidia durch "einem x-beliebigen Hersteller", denn das ist bei allen Herstellern und allen Entwicklungen so.
2001, als Shader aufkamen, konnte man auch Karten ohne Shader kaufen und musste niemanden unterstützen außer die kleinen (Kyro etwa ;) )


Dann kauft man sich eben weniger häufig Luxusartikel. Kein Smartphone um 800€ alle 2 Jahre, einen günstigeren Handyvertrag, keine neue GPU/CPU alle paar Jahre. Funktioniert wunderbar. Ja, wir gehen auf neue Zeiten zu, bei denen wir alles per Abo an oder abwählen. Fernsehen (Streaming-Dienste), Autos (Shared Autonom. Cars), diverse weitere Dienste (vielleicht Haushalt oder ähnliches) kommen ja auch schon. "Gehören" tut uns immer weniger, in unserer Gegend sind die Preise für Wohnungen explodiert: 102 m² für 800.000€ (neu), wer verdient so viel, dass das nicht die Enkelkinder noch ableisten müssen - und, wer sagt, dass das auf Dauer tatsächlich günstiger ist? Ich selbst habe 2004 eine Wohnung gekauft in dieser Gegend, 96m² - für 40.000€. Unser Haus habe ich dann doch am Land gebaut, 600m² Wohnfläche und riesiger Garten. 150k insgesamt.
Ja, alles wird teurer, vieles wird unleistbar werden in 50 Jahren wird man sich dran gewohnt haben, dass wir nicht mehr für Besitz, sondern Services zahlen und vielleicht wird es einzelne Bevölkerungsgruppen geben, die eigentlich nur noch dadurch im Leben angetrieben sind, dass diese Dienste bzw. deren Abos bezahlen können.- worst case, aber nicht unrealistisch (nie für alle gemeint, sondern einzelne Bevölkerungsschichten. Klug ist wer vorsorgt und schon jetzt investiert, sodass man in 30 Jahren nicht zu dieser Schicht gehört und auch die Angehörigen nicht).

Andererseits höre ich das "alls wird teurer und schlechter" seit ich geboren bin. In dieser Zeit ist es so gewesen, dass sich eine Familie grad mal so ein Telefon (Festnetz) leisten konnte und einer in der Familie hatte halt ein Auto. Inzwischen haben viele Haushalte 2 Autos und ein Motorrad, kaufen ständig neue teure Handies, abonnieren 5 verschiedene Streaming-Dienste (Sky, Amazon, Netflix usw), Rauchen 5€ Packungen täglich, die Wohnungsgrößen haben sich knapp verdoppelt für Familien. Es geht uns also gleichzeitig auch vielfach besser als noch vor einigen Jahren wo wir uns angeblich schon nicht mehr genug Leisten konnten um umseren Lebensstandard zu erhalten

Das ist wohl wahr, in 7-8 sind wir gerade an einem Punkt, als ob 6k nochmal 7-8 Jahre dauern könnten. Diese 4k würden mir die nächsten 5 Jahre ja reichen aber das habe ich vorher bei 2k auch gesagt.
Luxussartikel sind für mich Dinge die ein halbes Gehalt auffressen aber man auch ohne damit leben könnte.
Ich wohne am Rand einer Stadt um etwas mehr Lebenszeitqualität zu gönnen, 10 Minuten zur Arbeit.
Wenn du älter wirst hast keine Lust 1 Stunde am Morgen, Abend im Berufsverkehr herum zu gammeln.
Das Haus auf dem Land aufgegeben und zur Miete gewohnt, Warmpreis 14 Euro der Quadratmeter. Eigentum 3 Zimmer unter 370000 nicht bezahlbar. Reihenhäuser das Doppelte.
Du hast recht, man hat immer die Wahl, muss man nicht alles haben.
Ich kann mich an Arbeitskollegen erinnern, die in der DMark Zeit mehr Rente hatten als vorher Gehalt.
Besser ist es nicht geworden aber du hast auch hier recht, gejammert wurde auf deutschen Neviau schon immer ganz gut.
 
Zuletzt bearbeitet:
AMD GPU PC Gaming 15% .... Nvidia hat stabile 75% >>> Steam Hardware & Software Survey
AMD CPU läppische 17.7% .... INTEL immer noch 82,3 % >>> trotz dem angeblichen Riesenerfolg von AMD Ryzen & Threadripper - welch ein Wunder ???
AMD VR Nutzerbasis 7,8% .... Nvidia hat derweil 92,2 % - RTX ist auch schon vertreten ohne AMD >>> Oculus Developer Center | Hardware Report
AMD Raytracing (DXR) API DirectX .... 0% >>> Nvidia RTX (DXR) dominiert im Gaming & professional Visualization - Quadro RTX - Marktsegment 100% in Nvidia Hand
AMD GPU HPC Marktanteile .... ohne CUDA & NVLink nicht erwähnenswert - wahrscheinlich unter 1% >>> GCN Fiji & Vega ist ein Riesen-Flop im ganzen HPC Supercomputing Segment >>> CUDA Zone | NVIDIA Developer
AMD CPU HPC Marktanteile .... wahrscheinlich bei unter 2% - bis Ende 2019 evtl. 5% wenn's gut läuft (unglaubliche +150% Wachstum werden erhofft) >>> AMD's EPYC CPUs have already snatched server market share away from Intel - NotebookCheck.net News

AMD Ryzen, Threadripper & EPIC der ersten Generation wurden in allen Marktsegmenten mehrheitlich gemieden, da zu schlechte AMD IPC Performance, diverse RAM Probleme und zu Unausgewogen, nur weniger Early Adopter, siehe .... >>> AMD trollt Intel - Werbeplakate am San Jose Airport - GameStar .... und hofft auf endlich mehr Kunden auch im Professional HPC Markt-Segment .... endlich in 2019!

Taiwan Semiconductor Manufacturing Company 7nm .... muss AMD endlich den ganz Grossen Durchbruch bringen .... Danke TSMC - WoW !

Derweil hoffen AMD Fans auf brandneue 7nm VEGA 20 Gaming GPU's mit 16GB oder gar 32GB HBM2 (die neue schnellere Version) mit allen freigeschalteten 'PS' FEATURES & VR-Link für VR Gaming ....
>>> ab Frühling H1 / 2019 für nur 299$ zu kaufen !!!

Bin auch echt AMD-Super-Hyped .... AMD RTG not for Only 1% - 4K Gaming & VR - at the HEART of 83% of the VR System Globaly (Polaris fake AMD PR 2016)

Ist das ein Bot? So viel Werbung tut sich doch kein vernünftiger Mensch an und Investiert dafür noch seine kostbare Lebenszeit o.O
 
Das Rauschen das beim Raytracing entsteht wird durch die Tensor Cores oder simple AI Berechnungen geglättet. So besser? Im Prinzip ist das als würden zigfach mehr Rays zur Verfügung stehen

Nein und wie kommst du darauf? Was Schaffe schreibt einfach ignorieren. Dieser BS passt schon lange nicht mehr ins Forum.

Durch zu wenige Rays (ein Ray pro Pixel in einem Hybridverfahren das nicht auf Vollbilder angewendet werden kann) wird das Bild nachträglich gefiltert um das "Verrauschen" der Pixel zu glätten (vor allem helle). Diesen Effekt des Verrauschens gibt es schon lange und nicht erst seit RT. Man glättet das Bild mit einem KNN über die Pixelshader.

Es gibt bereits Raytracer "Fakemodi" wie man die Anzahl der Pixel die für ein sauberes Frame berechnet werden müssen, verringern kann. Man experimentierte auf Volta. In dem man die maximale Länge relevanter Rays (sekundäre/primäre), die man für eine Szene braucht, einfach manuell festlegt. Dann kalkuliert die (Spiele-) Engine anhand des ersten Rays (pro Pixel) die Durchgänge aller weiteren Rays und per Abtastung, nur für die Pixel die eine bestimmte Helligkeit überschreiten. Damit kann Pixelrauschen schon bei der Festlegung der Laufzeit von Rays sichtbarer unterdrückt werden. Die Frage ist inwieweit die Engine das unterstüzt und nVidia es zulässt.

Tensor ist AI und hat mit RT eigentlich nichts zu tun, sondern wird für nVidias DLSS (als eine Art AA) genutzt, wo die Cores auf der Karte anhand eines antrainierten Algorithmus entscheiden, wo letztlich und in welchem Sichtbereich Pixel hinzugefügt werden, um Kanten zu glätten. Da AA immer viel Leistung kostet und bei derzeitigen Modi auch an nicht sichbaren Stellen angewandt wird (am Vollbild), spart das Leistung.

Die Tensor Cores werden derzeit nicht angesprochen (warum auch immer). Da 4A drei Rays pro Pixel als Ziel hatte, müssen sie womöglich nicht in so hohem Ausmaß glätten wie Dice, wenn ihre Engine ein manuelles Laufzeitmodell der Ray (manuelle Festlegung der maximalen Länge) unterstützt. Das hilft die Berechnungszeit für jedes Frame deutlicher zu senken. Daher womöglich auch 60fps@1080p mit RTGI und RTAO, wobei GI weniger Leistung kostet als Reflectionen.

Der Algorithmus der für das Denoising gebraucht wird, mag zwar per AI antrainiert werden, wird aber nicht auf den Tensor Cores ausgeführt, sondern wird wenn in nVidias Netzwerk antrainiert. Weder werden dadurch Rays generiert oder hat das was damit zu tun.

Du musst DLSS und Denoising auseinanderhalten. Bidirektionale oder gaußische Filter kannst du schon seit DX10 auf der Hardware ausführen. Filterverfahren führen zu Unschärfeeffekten (je nach Modi), mit DLSS kann nVidia das Bild gezielt nachschärfen und feine Details besser abbilden.
 
Zuletzt bearbeitet:
Es wird zur Optimierung immer ein Zwischenweg aus mehreren Methoden sein. Aber welcher Designer hat so viel Zeit jedes Asset so lange zu optimieren? Wird entweder eine Sache für KI unterstütze Entwicklung werden oder es wird das Optimieren einfach ausgespart und lässt die Zeit die "Wunden heilen" (also man wartet 2 Jahre und die RT Performance erhöht sich weiter). Es wird einfach nach und nach immer mehr durch RT gemacht werden, weil es sich nicht auszahlt 10 verschiedene Methoden zu verwenden. Macht das ganze auch simpler.
Was genau meinst du mit durchsetzt? Raytracing wird sich gemeinsam mit Rastern als Hybridlösung etablieren. Dass sich Raytracing in den nächsten 10-15 Jahren nicht durchsetzt im Sinne von 100% der Berechnungen werden Raytraced, kann man jetzt schon sagen. Dass es sich aber für einen Teil der Bildberechnungen gegenüber der näherungsweisen Verfahren im Rastern durchsetzen wird auch.

Ich geh jetzt nicht auf alles ein. Mit durchsetzen meine ich, dass es weite Verbreitung findet. Sprich, dass viele Spiele es unterstützen. Im Moment haben wir 1 + Metro falls das direkt mit RT-Support kommt. SotT haben manche ja schon aufgegeben.

Was die Diskussion angeht, Kern war glaube ich ob Raytracing revolutionär, bzw. die Zukunft ist. War keine freundliche Diskussion wenn ich mich recht erinnere^^ Jedenfalls muss ich auch einen Teil besagter Diskussion revidieren und sagen mit der aktuellen BF5 Performance sieht das auch schon freundlicher aus. (Ich hatte damals gesagt, dass ich da schwarz seh wenn das so bleibt)

Was die effizienz von Rastergrafik angeht, naja wie gesagt. KP wo da die Reise hingeht, aber richtig effizient ist RT im Moment eben auch noch nicht. (was ja vermutlich noch kommt)
 
Zuletzt bearbeitet von einem Moderator:
Typische Realitätsverweigerung in diesem Thread, jetzt gibt es also bei Nvidia einen Stillstand während AMD nach drei Jahren im July 2019 mit einer neuen Mittelklasse GPU kommt.

Was soll sich im gleichen Fertigungsprozess denn groß verändern, da gut 30% bei halbwegs gleicher Leistungsaufnahme anliegen ist das eh gut.

Und du kennst schon die Ampere Leistung?

Jetzt werden wieder die Erwartungen an AMD geschürt die sie nicht einhalten können.

Nö, keine R-Verweigerung.
AMDs Vorstellung der letzten Jahre ist eben nur traurig, während die von Nvidia, einfach nur frech ist.

Der Unterschied ist:
AMD kann es (CPUs/GPUs gleichzeitig) nicht (stemmen), während Nvidia nicht will, bzw. lieber kräftig diesen Vorteil (Monopol) gegenüber den Kunden ausnutzt.

Schön für Nvidia und die Aktionäre (jedenfalls in der Vergangenheit), aber für den Käufer weniger erheiternd.
Nvidia steigert nicht, oder nur unwesentlich die Leistung pro Euro, sondern verschiebt lediglich seit ein paar Jahren, das ganze Portfolio ins nächst höhere Preissegment.

mfg
 
es ist echt vollkommen normal, dass GPUs mehr kosten, umso mehr sie leisten können. Wir zocken nicht mehr an ner Röhre mit 1024*768 Pixeln. Die Preisnörgler können das ja gerne wieder machen. dann kostet die GPU auch keine 1000 Tacken ...

Innerhalb einer Generation (1070, 1080, 1080Ti, oder 2070, 2080, 2080Ti) vielleicht schon, aber nicht von einer Generation zur Nächsten, mit Preisaufschlägen von 50-100%!

Denn dann könntest du dir z.B., heute keine aktuelle CPU mehr leisten, oder eben auch nur einen 4K Monitor/TV...
Ein hochwertiger 32" Röhren-TV hat 2002 auch (wesentlich) mehr als 1000€ gekostet...
Nach deiner "Logik", dürftest du heute, allein von der Pixelanzahl, keinen 4K-TV unter 20.000€ bekommen...
Aber weißt du, wo hier der Unterschied zu Nvidia besteht?
Es gibt einfach mehr TV-Hersteller... ;)

mfg
 
Die effekte um 50% verringern kann auch nur bei Nvidia als Optimierung durchgehen:lol:
*Gähn* Der nächste, der plump als Provokation eine Reduzierung um 50% in den Raum wirft. Tolle Fakenews, die du verbreitest. RT wurde vereinzelt zurückgefahren, das ist richtig, jedoch nicht annähernd um 50%. Dass die anderen vorhandenen RT Spiegelungen in ihrer Qualität gesteigert wurden, verschweigst du selbstverständlich. Sonst würde dein schwacher Versuch nämlich sofort an Substanz verlieren.
 
Und mir tun die Nörgler leid die sich die Karten nicht leisten können und als einzige Provokationsschiene bei Nvidiathemen den Preis ins Spiel bringen um stänkern zu können, das ist schon armselig immer auf AMD warten zu müssen weil Frau den Kauf einer GPU nicht genehmigt. Die tun mir auch leid. Achtung Ironie :schief:.

...dazu ein paar "Weisheiten"... ;)

Zu einer ironischen Bemerkung gehören immer zwei: einer,
der sie macht, und einer, der sie versteht.
Otto Weiß (1849 - 1915) ;)

Ironie ist die letzte Phase der Enttäuschung.
Anatole France (1844 - 1924)

Die Ironie ist die Kaktuspflanze, die über dem Grab unserer toten Illusionen wuchert.
Elbert Hubbard (1856 - 1915

Ironie ist die humorvollste Art der Selbstkritik.
Sinan Gönül (*1973)

Ironie macht fremde, Selbstironie eigene Schwächen erträglich.
Jürgen Große (*1963)

Ironiker sind auf dem Rückweg von der Verzweiflung.
Michael Richter (*1952)

mfg
 
Siehe den 2. RT Patch für BF V. Innerhalb weniger Wochen konnte sehr gut optimiert werden und 4A Games traue ich mehr zu als Dice. Gut möglich, dass ich zu hohe Erwartungen an 4A Games habe. Das Studio aus der Ukraine hat bisher aber immer delivered, deshalb bin ich in dem Fall vorsichtig optimistisch.

Da haben nur mal wieder Nvidia-Programmierer ausgeholfen, finanziert von Nvidia, um mögllichst rasch gute Ergebnisse beim derzeit einzigen Vorzeigetitel zu erzielen... ;)
Money rules the World...

mfg
 
Nach deiner "Logik", dürftest du heute, allein von der Pixelanzahl, keinen 4K-TV unter 20.000€ bekommen...

Man könnte sich aber auch mal vor Augen halten, dass es eben nicht so ist. Ich habe noch CS in 640x480 mit 80 Fps gezockt, weil mein Rechner nicht mehr konnte und hier wird manchmal getan, als würden einem bei allem unter WQHD und 120 Fps sofort die Augen rausfallen. Die Regler müssen dabei natürlich auch bei dem neusten Spielen auf dem Maximum kleben.
 
Man könnte sich aber auch mal vor Augen halten, dass es eben nicht so ist. Ich habe noch CS in 640x480 mit 80 Fps gezockt, weil mein Rechner nicht mehr konnte und hier wird manchmal getan, als würden einem bei allem unter WQHD und 120 Fps sofort die Augen rausfallen. Die Regler müssen dabei natürlich auch bei dem neusten Spielen auf dem Maximum kleben.

Kommt drauf an was du willst^^ Es gibt die Hauptsache Ultras, die Max Res macht High und die Schaut aus wie Kartoffel aber läuft Fraktionen. - Wacht auf - Gesicht sagt - "Wilkommen im Lager" - Faust ins Gesicht -

Oder ohne Schmarrn und Gothic-Referenzen:

-Es gibt die Leute die alles auf Ultra brauchen
-Es gibt die Leute die alles auf Ultra 4K wollen
-Es gibt die Leute denen Auflösung wichtiger als Detail-Stufe ist (ich z.B.)
-Es gibt die Leute die Hardware haben bis neue Spiele auf 1280-720 Low nicht mehr laufen.

und unterteil das alles nochmal in 30FPS reicht, 60FPS reicht und alles under 144Hz ist Müll.

Such dir eine Gruppe aus.
 
Mit klassischer Rasterisierung stoßen die Entwickler inzwischen an immer mehr Grenzen, der nächste logische Schritt konnte nur Echtzeitraytracing sein. Techniken wie SSR sind minderwertig, fehlerbehaftet und vom Konzept her schon broken, bei anderen Aspekten wie Ambient Occlusion, Echtzeitschatten oder der Beleuchtung sieht es ähnlich aus. Der Durchschnittsgamer von heute verlangt für seine 60-70 EUR oder noch mehr Bombastgrafik bei AAA Titeln, die hohen Erwartungen können inzwischen nur längst nicht mehr erfüllt werden. Das soll keinesfalls heißen, dass heutige AAA Titel schlecht aussehen, ein Fortschritt bei der Grafik ist nur eben nicht mehr wirklich zu erkennen.


1080p reicht der Mehrheit offenbar immer noch, anders lässt sich der Erfolg der RX 580/590 oder GTX 1060 nicht erklären. Ich kann das genauso wenig nachvollziehen wie du, die Realität ist aber leider so.


Sofern die LoD Abstufungen nicht zu sehr auffallen, ist das ein guter Kompromiss um Leistung zu sparen.

Wenn der "Fortschritt" bei der Grafik, von Titeln wie Fortnite, Ashen, oder Fallout 76 gemessen wird, gebe ich dir recht! ;)

Glücklicherweise gibt es auch Titel, die gegenteiliges zeigen...selbst Taktikspiele wie "Mutant Zero" sehen grafisch besser aus, als viele Mainstream-Titel der letzten Zeit....

mfg
 
Ich finde es irgendwie lustig, wenn man bei nVidia von Leistung 'rumdümpelt' spricht während die schnellste AMD Karte gerade mal auf die halbe RTX 2080 Ti Leistung kommt. Ja offensichtlich ist unser Problem wirklich das die nVidia Grafikkarten Leistung vor sich hin 'dümpelt' und nichts voran geht :ugly:

Da werden wieder Birnen mit Äpfel verglichen.

Jeder weiß, das AMD keine besonderen Anstrengungen auf GPU Seite in den letzten Jahren unternommen hat, da sie sich nach eigener Aussage(!), voll auf CPUs konzentriert haben.
Was nun ja auch Früchte trägt... ;)

Nur mal ein paar Zahlen, um zu zeigen mit wem sich AMD seit Jahren gleichzeitig(!) "anlegt"... ;)

Börsenwerte:
AMD 18,4 Milliarden US-Dollar

Nvidia 81,4 Milliarden US-Dollar
Intel 219,5 Milliarden US-Dollar

Und deshalb muss sich (und leider auch wir), Nvidia nur mit Nvidia (derzeit) messen.
Und ja, Nvidia kann (fast) tun, was sie wollen, und ja, Nvidia ist Quasi-Monopolist, und ja, P/L-technisch "dümpelt" Nvidia seit über 2 Jahren vor sich hin, einfach weil sie es können... ;)

Aber deshalb muss man dies alles noch lange nicht gut finden...

mfg
 
Ich geh jetzt nicht auf alles ein. Mit durchsetzen meine ich, dass es weite Verbreitung findet. Sprich, dass viele Spiele es unterstützen. Im Moment haben wir 1 + Metro falls das direkt mit RT-Support kommt. SotT haben manche ja schon aufgegeben.
Naja immer bei einer neuen Tech. Das sollte nicht verwundern
Was die Diskussion angeht, Kern war glaube ich ob Raytracing revolutionär, bzw. die Zukunft ist. War keine freundliche Diskussion wenn ich mich recht erinnere^^ Jedenfalls muss ich auch einen Teil besagter Diskussion revidieren und sagen mit der aktuellen BF5 Performance sieht das auch schon freundlicher aus. (Ich hatte damals gesagt, dass ich da schwarz seh wenn das so bleibt)
Ich habe ehrlich gesagt nicht daran geglaubt, dass Spiele die Raytracing im Nachhinein drangepappt bekommen, überhaupt so gut laufen werden. Aber ich lag erfreulicherweise falsch.
Aber auch wenn die ersten 2 Jahre kein Spiel wirklich läuft ist das noch lange kein Hinweis darauf, ob die Technik sich durchsetzt. Sie ist ja eben notwendig und besser sie wird jetzt eingeführt als in 5 Jahren (dafür haben wir in 5 Jahren die ersten Titel die vielleicht von Haus aus für Raytracing geplant wurden. Ähnlich Doom 3).
Was die effizienz von Rastergrafik angeht, naja wie gesagt. KP wo da die Reise hingeht, aber richtig effizient ist RT im Moment eben auch noch nicht. (was ja vermutlich noch kommt)
Naja Raytracing selbst hat eine lineare Effizienz, während die Effizienz von Rasterizing immer mehr abnimmt je komplexer die Grafik wird. Also wenn du dir eine Grafik vorstellst ist Raytracing ein linie die parallel zur Komplexität der Szene verläuft, wärhend Rasterizing eine Kurve ist die steil nach oben geht je komplexer die Szene wird
 
Naja Raytracing selbst hat eine lineare Effizienz, während die Effizienz von Rasterizing immer mehr abnimmt je komplexer die Grafik wird. Also wenn du dir eine Grafik vorstellst ist Raytracing ein linie die parallel zur Komplexität der Szene verläuft, wärhend Rasterizing eine Kurve ist die steil nach oben geht je komplexer die Szene wird

Deshalb sag ich ja auch "wenn sich bei Rastergrafik nicht irgendwas cooles tut"^^ Wer weiß, vielleicht hat ja noch wer ne gute Idee. Ich würde da jetzt keine Hellseherei wagen.
 
Du schnallst es auch nicht. Was damals teuer war, kriegste heute hinterhergeschmissen.
Wer dermaßen intelligenzresistent ist, kann gerne im Gestern leben. go for it

Nö, was damals teuer war, bekommste heute nicht mehr! ;)

Dafür gibt es dann 2016,2017, 2018, 2019 Varianten, Versionen, Neuauflagen.... ;)

Und was es nicht "neu" gibt, ist meist auch recht preisstabil.

Schau dich bei TVs, Monitoren, Receiver, ect. um, dann weisst du, was ich meine... ;)
Ein Modell wird durch ein Neues, meist gleich teures, oder teures Modell abgelöst, welches aber meist auch effizienter und damit kostengünstiger produziert werden kann.

mfg
 
Zurück