Nvidia: DX11-Tesselation ist Trumpf - beeindruckende Demoszenen

Bei der Wasser Animataion : We need 3 Minutes per frame" ^^ ja klasse also mit 0,05 FPS das ist doch was ( Warscheinlich bei 4xGTX480 )
Ich meine Rendern kann man doch alles.

Kann sein das ich mich da verhört habe aber naja ^^

Ja, hast du ...
Er sagt das sie ne single GPU für die gesamte Szene benutzen und man siehts ja auch, dass es in Echtzeit abläuft.

Die Aussage über die 3 Minuten / Frame bezieht auf ein Rag mit Opteron Quadcore CPUs, damit man mal ein Verständnis dafür bekommt, was eine GPU leisten kann.
So als Vergleich.
 
Die Darstellung im Video bzw. auf bild 2-3 und 4-5 könnte einem den Eindruck erwecken das Tesselation aus einer unförmigen masse ein XYZ super modell macht. Das ist komplett falsch, ohne vorhergehende Richtige Modelle+evtl. Texturen lässt sich die Polygonzahl bzw. der Detailgrad nicht so extrem ändern.

Im Endeffekt macht Tesselation aber genau dies... Natürlich muss man im Vorfeld ein Modell komplett durchdesignt haben, aber Tesselation lässt dann, mit den nötigen Infos, ein Low-Poly-Modell wie ein Modell mit allen Details aussehen. Durch Tesselation kann man Leistung einsparen und an Ecken einsetzen wo es nötig wird, leider wird es nur zum "Aufpumpen" verwendet um es überhaupt implementiert zu haben :ugly:
Also aus meiner Sicht passt die Demo völlig und Nvidia hat bei der GTC überwiegend Fachpersonal sitzen, die wissen also schon was Sache ist.

@Rollora: Ja, Tesselation gab es auch schon früher, jedoch viel primitiver und nicht in so einer flexiblen Form wie heute in DX11 implementiert. --> 3DCenter Forum - Ist Truform = Tesselation?
 
Ich bin mir ziemlich sicher das es DX11 war, da Fermi im Verzug war und NV die Leute ja irgend wie beschlichtigen musste.

Hab nur gerade nicht die Zeit einen Link zu suchen.

Die Zeit solltest du dir schon nehmen, btw es war DX 10.1. welches NV erst mit der Geforce300 Serie sehr verspätet im Vergleich zu ATI unterstützte.

mfg eMMe
 
Tesselation selbst ist mit entsprechenden Programmen wie 3DS MAX schon seit Jahren verfügbar. Ich habe auch schon oft aus Jucks einfach mal Tesselation angeworfen. Die Neuerung der Grafikkarten ist jetzt einfach, dass sie es in Echtzeit schaffen.

Die Diskussion ist doch sinnlos, weil man es bisher nicht sinnvoll in Spielen nutzen könnte.

Aber wenn mir wer zeigen kann, wie ich für Gothic I und II Tesselation (in Echtzeit!) aktivieren kann hätte ich da ein paar alte Spiele, die ich mal wieder gerne zocken würde...
(ich zocke sie auch so, aber mit Tesselation wäre super. Die älteren Spiele haben noch so unschön kantige Figuren :()
Vielleicht gibt es ja irgendwann ein externes Programm, das Unterstützung bringt ähnlich dem SSAA-Tool für GeForce-Karten. Keine Ahnung was da genau möglich/nötig ist um es zu implementieren.

@ Demo: Sehr interessant. Vor allem die Stadt hatte mir gefallen (auch wenn sie ein Extrembeispiel war)
 
Zuletzt bearbeitet:
Durch Tesselation können auch Ladezeiten in Spielen verringert werden. Außerdem kann Detail zum Beispiel für MMORPGs hinzugefügt werden, ohne viel Aufwand betreiben zu müssen. Der Leitungsvorteil ist enorm, WoW läuft unter DX11 schneller als DX9 trotz der zusätlichen Shader.
Man sollte solche Demos trotzdem mit Vorsicht betrachten, denn die sind extrem optimiert für nur diese einen Auftritt.
Ich sehe die Fusion von CPU und GPU kommen, denn das akutelle System ist häufig suboptimal, die CPU hat viel Power, doch sie wird nicht mehr richtig genutzt und verbraucht zuviel Strom, während GPU mit XXX ALUs um ein vielfaches schneller werkelt. Die ganzen Mehrkerntechnologien stecken noch in Kinderschuhen. Das muss sich ändern.
Und wenn wir uns vorstellen, dass wir in 10 Jahren eine Art Photorealismus in Echtzeit-3D erreicht haben, dauert es nicht lange bis wir es in Handys darstellen können.

Dazwischen stellt sich aber das Cloud-Computing, welches diesen Prozess ausbremst, aufgrund der Schieren Masse an Servern.
 
Im Endeffekt macht Tesselation aber genau dies... Natürlich muss man im Vorfeld ein Modell komplett durchdesignt haben, aber Tesselation lässt dann, mit den nötigen Infos, ein Low-Poly-Modell wie ein Modell mit allen Details aussehen. Durch Tesselation kann man Leistung einsparen und an Ecken einsetzen wo es nötig wird, leider wird es nur zum "Aufpumpen" verwendet um es überhaupt implementiert zu haben :ugly:
Also aus meiner Sicht passt die Demo völlig und Nvidia hat bei der GTC überwiegend Fachpersonal sitzen, die wissen also schon was Sache ist.

Ja sicher soll es das machen, aber doch bitte nicht aus so einem unförmigen ding etwas geniales :ugly:
Wenn man so durch manche seiten/foren guckt, denken einige gleich das Tesselation aus etwas unförmigen sofort ein ordentliches Gebilde zaubert.
In erster linie soll es nunmal die Details verbessern und dabei weniger bis keine Leistung futtern. Funktioniert bekanntlich bisher eh eher weniger mit der Leistung aber kommt zeit kommt rat.

Naja ne grafikdemo evtl. noch benchmark von Nvidia würde ich genauso wenig vertrauen wie einem von ATI. :ugly:
 
Ja sicher soll es das machen, aber doch bitte nicht aus so einem unförmigen ding etwas geniales :ugly:
Wenn man so durch manche seiten/foren guckt, denken einige gleich das Tesselation aus etwas unförmigen sofort ein ordentliches Gebilde zaubert.

Und genau diese Leute zähle ich nicht zum fachkundigen Personal, welches Nvidia ja ansprechen möchte. Aber ich verstehe was du meinst :)

In erster linie soll es nunmal die Details verbessern und dabei weniger bis keine Leistung futtern. Funktioniert bekanntlich bisher eh eher weniger mit der Leistung aber kommt zeit kommt rat.

Naja ne grafikdemo evtl. noch benchmark von Nvidia würde ich genauso wenig vertrauen wie einem von ATI. :ugly:

Richtig eingesetzt bietet Tesselation zumindest mehr Details für deutlich weniger Leistung, aber es wird ja eben fast nur zum "Aufpumpen" verwendet. Wobei auch hier die Leistung nicht so stark verbraten wird wie mit "realen" Polygonen.

Techdemos sind halt was schönes für's Auge und zeigen was möglich ist, wie die Technik dann letztendlich umgesetzt wird ist natürlich wieder was anderes.
 
Die Diskussion ist doch sinnlos, weil man es bisher nicht sinnvoll in Spielen nutzen könnte.

Aber wenn mir wer zeigen kann, wie ich für Gothic I und II Tesselation (in Echtzeit!) aktivieren kann hätte ich da ein paar alte Spiele, die ich mal wieder gerne zocken würde...
(ich zocke sie auch so, aber mit Tesselation wäre super. Die älteren Spiele haben noch so unschön kantige Figuren :()
Vielleicht gibt es ja irgendwann ein externes Programm, das Unterstützung bringt ähnlich dem SSAA-Tool für GeForce-Karten. Keine Ahnung was da genau möglich/nötig ist um es zu implementieren.

@ Demo: Sehr interessant. Vor allem die Stadt hatte mir gefallen (auch wenn sie ein Extrembeispiel war)

Mein Modell auf den Bildern war übrigens für ne G1-Mod^^

Und zur Tesselation: Es war ja die Diskussion, wie lange das hardwareseitig schon angeboten wird. Ich wollte nur zeigen, dass das softwareseitig schon laaaange machbar ist.
 
tja nvidia investiert wenigstens in die zukunft, was man von amd leider nicht behaupten kann. finde ich eigentlich sogar ein wenig traurig, da es sogar ein deutsches unternehmen ist, leider aber, wie typisch für deutschland, zu spät neue wege einschlägt. natürlich bringt es mehr leistung in kurzer zeit, alt bewehrtes zu perfektionieren, aber früher oder später steht die neuste technologie vor der tür und dann ist man den anderen herstellern wieder weit hinterher. sowas sieht man ja überall in deutschland, das perfekte beispiel ist, meiner meinung nach, die autoindustrie. deutsche motorenautos sind super effizient, super zuverlässig, super schön etc. , doch deutsche elektroautos sind im vergleich zur asiatischen konkurenz ein witz. die haben da halt schon vor jahren drin investiert, als wir noch gezögert haben.
 
Civ 5 zeigt sehr schön, wie man mit Tessellation und DirectCompute die Leistung und die Optik unter DX11 gegenüber DX9 verbessern kann.
 
tja nvidia investiert wenigstens in die zukunft, was man von amd leider nicht behaupten kann. finde ich eigentlich sogar ein wenig traurig, da es sogar ein deutsches unternehmen ist, leider aber, wie typisch für deutschland, zu spät neue wege einschlägt. natürlich bringt es mehr leistung in kurzer zeit, alt bewehrtes zu perfektionieren, aber früher oder später steht die neuste technologie vor der tür und dann ist man den anderen herstellern wieder weit hinterher. sowas sieht man ja überall in deutschland, das perfekte beispiel ist, meiner meinung nach, die autoindustrie. deutsche motorenautos sind super effizient, super zuverlässig, super schön etc. , doch deutsche elektroautos sind im vergleich zur asiatischen konkurenz ein witz. die haben da halt schon vor jahren drin investiert, als wir noch gezögert haben.

Die Radeon Karten des U.S.-amerikanischen Herstellers AMD beherrschten diese Technologie schon, bevor sie überhaupt ein DX-11 Standardfeature wurde.
 
Die Radeon Karten des U.S.-amerikanischen Herstellers AMD beherrschten diese Technologie schon, bevor sie überhaupt ein DX-11 Standardfeature wurde.

Wenn du schon verbesserst, dann musst du noch anmerken das die Karten der Radeon Reihe bis vor kurzem noch vom Kanadischen Unternehmen ATI stammten....

.....und die unterstützten Tesselation schon seit der Radeon 8500 mit der Bezeichnung TruForm unter DX8. Als Paradespiel gabs Unreal Tournament mit entsprechendem Patch.
 
Die Radeon Karten des U.S.-amerikanischen Herstellers AMD beherrschten diese Technologie schon, bevor sie überhaupt ein DX-11 Standardfeature wurde.

Nvidias Geforce 3 konnte das auch... RT-Patches und N-Patches. Hat sich nicht durchgesetzt, da es eben zwei Hersteller und zwei Systeme gab und keine einheitliche Schnittstelle. Verschwand dann mit der GF4 wieder.
 
Nvidias Geforce 3 konnte das auch... RT-Patches und N-Patches. Hat sich nicht durchgesetzt, da es eben zwei Hersteller und zwei Systeme gab und keine einheitliche Schnittstelle. Verschwand dann mit der GF4 wieder.
Ja wir wissen es: Tesselation gibts schon lange. 1999 konnte es die Quake 3 Engine per Software, 2001 kam es in der Radeon als TruForm und theoretisch konnte es auch die GF3, nur wurde das nie groß angekündigt und schon gar nicht verwendet, während es in der Radeon sehr Wohl in vielen Spielen verwendung fand und auch dank der Quake 3 Engine, welche das Feature der Radeon später auch auf der Hardware berechnen konnte (RTCW als Beispiel).
ATI bzw AMD ist darüber hinaus doch bekannt dafür, immer schon etwas mehr "in die Zukunft" investiert zu haben als Nvidia, aber das will der Fanboy nicht wahrhaben. Zumindest wenn man vom Direct X Featureset ausgeht, überall sonst (Cuda, Professioneller Markt usw) ist Nvidia vorne, aber bei den DX Features war AMD fast(!) immer erster mit ihrem Produkt: Shader 1.4 ->Radeon 8500. DX9 ->Radeon 9xxx Serie, Shader 3 war Nvidia vorne, DX10 auch weil die Radeon sich so stark verzögerte, diese unterstützte dann aber schon sowas wie DX10 extended sowie Tesselation im heutigen Sinne, die HD3000 Serie DX10.1, HD4000 eben so, HD5000 war die erste mit 9 Monaten vorsprung, DX11. Und jetzt kommt die HD 6000, die Frage ist ob diese auf der 5000er aufbaut oder doch etwas "neues" ist. Ich vermute aber (leider) ersteres, also keine Revolution bei der Architektur
 
Zurück