Radeon-Chef David Wang: AMD wird auf DirectX Raytracing antworten

Hört sich für mich nach einem Widerspruch an.
Es geht ja auch darum, sich dem Fotorealismus anzunähern und "effizient" heißt nicht automatisch, dass damit auch das bestmögliche Ergebnis zu erzielen wäre.^^
Ja, nicht Automatisch - aebr ein Widerspruich? da hast du eine sehr... eigene... Ansicht.

Das erste Crysis verwendete für die Terrain-Darstellung Heightmaps und Voxel und auch John Carmack äußerte sich hinsichtlich Fotorealismus schon negativ gegenüber Polygone hinsichtlich ihrer Fähigkeit, echten Fotorealismus in Spielen zu erzeugen.
Crysis nutzt ganz normale polygone fürs Terrain - die modelierung erfolgt aber eben nicht traditionell übere eine flache gleichfärmige fläche und einer 2D heightmap sondern über einen octree.


Deswegen postuliere ich mal, dass Polygone ohne Raytracing langsam am Ende ihrer "effizienten" Möglichkeiten angelangt sind.:schief:
Tja - kannst ruhig postulieren und hat dann den selben Wahrheitsgehalt als würdest du behaupten Multicore ist am ende und Singlecore sei die zukunft.
 
Crysis nutzt ganz normale polygone fürs Terrain - die modelierung erfolgt aber eben nicht traditionell übere eine flache gleichfärmige fläche und einer 2D heightmap sondern über einen octree.
Du meinst eher einen so genannten Sparse Voxel Octree?;)
Ich weiß nur, dass die Terrain-Darstellung in Crysis defnitiv Voxel-basiert war, die Engine war dazu fähig. So weit ich weiß, wurde eine Technik verwendet, die dem "Marching-Cube"-Prinzip nicht unähnlich war (ich hatte mal einen Artikel darüber gelesen, nur finde ich den nicht mehr.:wall:)

Wie gesagt - die Typen, die das angewendet haben, sind ebensowenig wie der werte Herr Carmack irgendwelche Idioten ohne Ahnung, sondern hatten wohl Gründe dafür zu behaupten, dass Polygone irgendwann irgendwo ihr Limit hinsichtlich darstellbaren, grafischen Realsimus haben werden.
Wie du jetzt im selben Atemzug auf Single- und Multicore-Prozessoren kommst, ist mir dagegen schleierhaft.:ka:
 
Die PS4-Pro gibt es ja auch noch und kann mir eigentlich nicht vorstellen das die PS4 SD ausgibt.
Ich freue mich auf die neue PS und bin sehr gespannt was die leisten kann.
Uncharted war ja nun auch nah am Grafiklimit, es kommt halt auch sehr darauf an ,wie sehr man auf die Hardware optimiert.
Das schwächste Glied in der Hardware der PS ist wohl die CPU, damit geht's leider nicht schnell.
 
@Locuza: Das ist ja wirklich prekär. Funzt DLSS überhaupt ohne DX12? Wenn Hitman das jetzt noch nicht an Board hat wirds wohl auch wieder düster.

DLSS ist der verzweifelte Versuch uns Spielern die für uns vollkommen nutzlosen Die-Flächen-Verschwendung und daraus exorbitant gestiegene Preise schmackhaft zu machen. Es gäbe andere, ähnlich performante Wege, diese Bildaufhübschung umzusetzen...
RT hingegen ist grundsätzlich genial und wirklich die Zukunft für Computerspiele aber in 16/12nm leider etwas zu früh. AMD wird es sicher irgendwann implementieren aber sicher noch nicht mit Navi, also frühestens 2021 mit dem GCN-Nachfolger.
 
Aber auch nur wenn AMD mit der DX12 Unterstützung nicht hinterher hinken würde. So wie früher auf nvidia wegen Dx 11.1 herumgehackt wurde könnte man jetzt anbringen das AMD DX12.1 noch immer nicht unterstützt


Dir ist schon klar, dass AMD mit der Vega mehr Features als NV mit der GTX1XXX-Serie bietet. Erst mit Turing hat NV wieder aufgeschlossen.
 
Nope:
PhysX Source on GitHub | NVIDIA Developer

Man muss noch immer eine EULA von Nvidia akzeptieren und sich für deren Developer Programm registrieren.
Damit ist es eben nicht mehr Open Source.

Edit: aber das sage ich dir ja schon in jedem Thread, in dem du die Open Source Behauptung aufstellst.

kein wunder, das du das immer wieder erzählen musst, deine "definition" von open source hat mit der realität nichts zu tun.
 
@Lamaan
Du vergleichst abgespeckten Mobile-Plunder mit Desktop-Hardware!? Erzähle Du mir noch, dass eine GeForce GTX 1080 Max-Q über die Performance der GTX 1060 hinauskommt, dann lache ich kräftig! Nimm Dein minderwertiges Spielzeug für Technik-Dilettanten und offeriere es einem anderen für großartig!
 
kein wunder, das du das immer wieder erzählen musst, deine "definition" von open source hat mit der realität nichts zu tun.

Ist dir diese hier lieber?

Open Source – Wikipedia

Deswegen gibt es doch die Open Source Lizenzen GPL, FreeBSD, Apache und, und, und...
Weil es eben genau das bedeutet.. jeder darf den Code nicht nur einsehen, sondern auch nach belieben bearbeiten und verteilen - teilweise nur unter Bereitstellung des Source Codes, wenn man ein Programm draus macht (siehe GPL), teilweise reicht eine Nennung des Original Autors...

Wie kommst du auf deine Definition von Open Source?
 
kein wunder, das du das immer wieder erzählen musst, deine "definition" von open source hat mit der realität nichts zu tun.
Gemeinhin versteht man Open Source nicht als etwas, wo man nur Einsicht zum Quellcode bekommt, wenn man zuvor einer restriktiven EULA zustimmt und ansonsten fast nichts mit dem Code machen kann.
Man kann man eher die Definition von Open Source hinterfragen, welche du im Kopf hast.
Open-source model - Wikipedia

Tatsächlich das Featurelevel von Turing aktuell noch ohne Definition, zumindest offiziell.
Solange MS keine weiteren Feature-Levels definiert, ist es FL12_1 und viele GPUs haben schon ein größeres Feature-Set, als bei FL12_1 verlangt wird.
 
DLSS ist der verzweifelte Versuch uns Spielern die für uns vollkommen nutzlosen Die-Flächen-Verschwendung und daraus exorbitant gestiegene Preise schmackhaft zu machen. Es gäbe andere, ähnlich performante Wege, diese Bildaufhübschung umzusetzen...
RT hingegen ist grundsätzlich genial und wirklich die Zukunft für Computerspiele aber in 16/12nm leider etwas zu früh. AMD wird es sicher irgendwann implementieren aber sicher noch nicht mit Navi, also frühestens 2021 mit dem GCN-Nachfolger.

DLSS, ist das nicht wieder so eine großartige Sache wie TXAA?
Ich glaub ich habe das mit meiner 1080 mal irgendwo in Watch Dogs angehabt, weil der Prozi am oberen Ende bei 100 Bildern oder so limitiert hat und ich es gratis dazuschalten konnte.
Eigentlich alles für den normalen Anwender Unsinn, da man bei Grafikkarten so etwas imerm als erstes ausschaltet, weil irgendwie immer Leistung fehlt.
Das gleiche gilt für Physix und erst recht für Raytracing.
Alles Leistungsfresser und bringen nichts.
Lieber über 100 Bilder als eine Ruckelorgie mit dezenten Extradetails, die man so beim normalen Spiel gar nicht vermissen würde, wenn man nicht extra darauf achtet.
Hätten die eine Grafikkarte rausgekloppt mit ordentlich mehr Leistung, hätte man es sich sicher kaufen wollen.
2080 Ti mit doppelt so viel Leistung wie die alte Ti, dann darf die für Enthusiasten auch ruhig doppelt so teuer sein, weil der Chip deswegen so groß sein muss.
Dann haben die endlich eine tolle Karte für 4K mit Option auf Zuschaltung von diversen Ultra Details und trotzdem hohen Bildraten.
Und wäre die 2070 mit einer Leistung der 1080 Ti rausgekommen, ja holla, das Ding hätte sich für ab 500 Euro doch als Bestseller ever verkauft, da auch viele Normalsterbliche den Umstieg auf 4K hätten vollziehen können, passend zur Weihnachtszeit.
Aber dann schmeißen die so paar teure Ziegelsteine auf den Markt und stopfen da nur Features rein, die der Großteil der Leute garnicht braucht oder kaum nutzen kann.
 
Dieser Konsolen-Schrott liefert dann bestenfalls Kepler-#1~2-Performance. Mein Neffe zockt FC5 auf 'ner PS4 in SD und Augenkrebs-Qualität mit 20-30 FPS. Eine GTX 660 packt in 1080p mehr. Seht es endlich ein, Konsoleros, ihr seid von der Realität noch Äonen fern! Hier ist PC Games Hardware! Akquiriert euren Plunder unter euresgleichen auf GamePro!
Jo, so siehts aus...
Was mir nicht in den Kopf will, wie kann man nur einen Shooter mit einem Gamepad zocken!?
 
Zurück