Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen

AW: Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen

Das ist ein Fake!

Wenn man genau hinsieht, besonders bei den Augen und Bart, erkennt man keinerlei Unschärfen oder mindestens Anzeichen für Texturen oder Pixel.

So gut sind die heutigen Karten noch lange nicht.:P
 
AW: Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen

Das sieht mir stark danach aus, das einfach ein Foto genommen wurde und das Nvidia Logo und der Text eingefügt wurde.
Das sind ganz sicher kein Renderbilder :daumen2:
 
AW: Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen

Nunja, beim dritten Bild bin ich mir nicht so sicher, das zumindest könnte echt sein ..... die Frage wäre dann halt ob in Echtzeit berechnet oder nicht, wenn nicht in Echtzeit kann man jedes noch so perfekte Bild rendern, egal mit welcher GPU, dauert nur etwas, in dem Falle könnten auch die ersten beiden echt sein, kommt alles nur drauf an, wie viel Zeit die GPU hat. :ugly:

Aber die Überschirft sagt doch schon alles: Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen :lol:


Das hier niemand einfach mal bis ~Jan. '10 warten kann ....
 
Zuletzt bearbeitet:
AW: Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen

mal ein kleiner einwurf von mir bezüglich nicht machbar innerhalb der nächsten x jahre.

diese Demo hat Nvidia vor über 2 Jahren veröffentlicht für die 8800: http://www.nzone.com/docs/IO/42736/screenshot5.jpg

Human Head Demo genannt, also selbst ne 8800 hat vor Jahren schon geschafft relativ real aussehende Gesichter zu rendern, in echtzeit !

Das die Bilder aus dem Video sind will ich damit nicht dementieren, aber trotzdem mal zu denken geben was machbar ist !

mfg
 
AW: Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen

Oh man, wie manche hier übertreiben.

Crysis 2 wird fotorealistisch, so ne Grafik wie im Artikel haben wir in 1-2 Jahren, Fermi wird ne über GPU, die alles in den Boden stapft usw... bla bla bla.. Was da in manchen Köpfen vorgeht....


Hier mal ein Vergleich zwischen Crysis und dem Bild im Artikel:
http://www.abload.de/img/unbenannt-1h852.png

Wir wir alle wissen ist Crysis immernoch das Maß der Dinge. Der Unterschied zu dem anderen Bild ist aber gigantisch. Sowas zu vergleichen ist lächerlich.
So ne Grafik liegt in ferner Zukunft und nicht in 1-2 Jahren.

Ausserdem wird Crysis mit der Cry Engine 3 entwicklet. Die läuft bekanntlich auch auf Konsolen und wie man anhand der CE3 und Crysis Videos im internet sieht ist der Unterschied zu Crysis nicht allzu groß.
 
Zuletzt bearbeitet:
AW: Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen

ich finde hier geht es nicht darum, wann das in Spielen kommt , sondern ob es möglich ist diese Qualität überhaupt möglich ist, z.b. in ner Techdemo von NVidia.

In spielen würdest du die Qualität der Gesichter eh nur in Nahaufnahmen sehen, also in z.b. in Intros oder Zwischensequenzen, aber nicht im normale Spielgeschenen, oder rennst du bei Crysis zu jedem Mitspieler und schaust dir an ob er nen Kratzer im GEsicht hat ?!
 
Zuletzt bearbeitet:
AW: Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen

ich finde hier geht es nicht darum, wann das in Spielen kommt , sondern ob es möglich ist diese Qualität überhaupt möglich ist, z.b. in ner Techdemo von NVidia.

In spielen würdest du die Qualität der Gesichter eh nur in Nahaufnahmen sehen, also in z.b. in Intros oder Zwischensequenzen, aber nicht im normale Spielgeschenen, oder rennst du bei Crysis zu jedem Mitspieler und schaust dir an ob er nen Kratzer im GEsicht hat ?!
dafür gibts ja LOD ...
 
AW: Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen

ich weiss, das es lod gibt damit es performat wird, aber trotzdem sind nachaufnahmen in spielen wirklich nich nen bissl hin bis das was wird, aber in techdemos wird es meiner meinung nach möglich sein.

nehmen wir mal die mad mod mike techdemo, die war damals für die 7800 gtx machbar, in spielen aber nicht. mittlerweile ist die damalige detailfülle möglich in "normalen" games. das ganze ist jetzt 4 Jahre her. also zwischen machbarkeit (sprich techdemos) und machbarkeit in spielen ist es schon ein großer unterschied.

das was hier gezeigt wurde wäre ja auch erstmal eine Techdemo und das muss man auch bedenken.
 
AW: Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen

So wie ich den Fermi verstehe, soll das hier gar nicht in Echtzeit gerendet werden sondern Profianwendungen beschleunigen. Dafür muss das Rendering möglichst nah dem der CPU kommen. Somit können Szenen, die sonst einen Quadcore stundenlang schwitzen lassen, in kürzerer Zeit berechnet werden.

Wieso also soviel Aufregung ob Echtzeit oder nicht? o_0
 
AW: Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen

Krass...

Wenn man überlegt, was die aktuellen Grafikkarten können, und was dann am Ende von den Spieleherstellern auf den Markt geschmissen wird (trotz bombastischer Hardwareanforderungen) könnte man weinen.

lach mich weg in welcher welt lebst du denn wenn man von nichts ne ahnung hat einfach mal die klappe:nene: halten und informieren bevor man so nen mist labert:klatsch:.
 
AW: Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen

lach mich weg in welcher welt lebst du denn wenn man von nichts ne ahnung hat einfach mal die klappe:nene: halten und informieren bevor man so nen mist labert:klatsch:.
Einen wunderschönen guten Tag in die Runde,

eine nette Dame hat mir gerade den Link zu diesen Thread geschickt, mit den Hinweis "was zum schmunzeln!" und ich muss sagen sie hat wie immer nicht gelogen. Aber bevor ich hier wirklich ein paar Sachen zur Diskussion schreibe, erst mal vorweg, ich glaube auch nicht das diese Bilder das sind was man behauptet.

Allerdings halte ich solche Bilder in Echtzeit nicht für Unmöglich! Wenn man sich das Video ansehe, dann wird schnell klar das es sich um eine recht statische Scene handelt. Bis auf Kamerafahrten ist faktisch keine Bewegung enthalten. Das bedeutet man könnte den gesamten Workload der GPU optimieren und auf komplexe Verwaltungssystem (Scene Graphen) verzichten. Wenn man jetzt noch viel Speicher zurverfügung hat, könnte man über die Verwendung von Sequenzrenderingverfahren nachdenken und Teile von Komplexen Renderingaufgaben in Zeitabschnitte verschieben, in den viel GPU Zeit über wäre (der Bereich in den Schriften hinzu kommen und sonst nicht groß was weiter passiert). Wenn Fermi die ~1,5 TFlops Rechenleistung hat (real) die man ihn nach sagt, dann könnte das durch aus möglich sein!

Was wissen wir denn über die Scene? So gut wie nichts! Also behaupten Sie bitte nicht, dass etwas nicht möglich ist, wenn Sie es nicht wissen können! Ich habe schon Sachen in meiner Berufslaufbahn erlebt, in dennen man erst gesagt hat, das geht nicht und wenn man dann gesehen hat wie, schlägt man sich vor den Kopf und fragt sich warum man nicht selber auf diese Idee gekommen ist!

In diesen Sinne!
Raistlin
 
AW: Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen

Allerdings halte ich solche Bilder in Echtzeit nicht für Unmöglich! Wenn man sich das Video ansehe, dann wird schnell klar das es sich um eine recht statische Scene handelt. Bis auf Kamerafahrten ist faktisch keine Bewegung enthalten. Das bedeutet man könnte den gesamten Workload der GPU optimieren und auf komplexe Verwaltungssystem (Scene Graphen) verzichten. Wenn man jetzt noch viel Speicher zurverfügung hat, könnte man über die Verwendung von Sequenzrenderingverfahren nachdenken und Teile von Komplexen Renderingaufgaben in Zeitabschnitte verschieben, in den viel GPU Zeit über wäre (der Bereich in den Schriften hinzu kommen und sonst nicht groß was weiter passiert). Wenn Fermi die ~1,5 TFlops Rechenleistung hat (real) die man ihn nach sagt, dann könnte das durch aus möglich sein!
Ich habe ja schon Probleme damit mir vorzustellen, dass das CGI is aber dann noch zu behaupten diese Szene wäre in Echtzeit möglich... :ugly:

Ne tut mir leid - ne andere Reaktion fällt mir dazu nicht mehr ein. Der Szenengraph is eh ne Datenstruktur für, die auf der CPU traversiert wird, d.h. wenn man das weglässt, dann entlastet man jedenfalls nicht die GPU. Allein die abschließende Kantenglättung in dieser Qualität würde warscheinlich schon enorm viel Leistung brauchen. Dazu kommt das SSS (also subsurface-scattering) der Haut, MotionBlur und der Killer schlechthin Global illumination.
 
AW: Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen

So ist das im Moment auf keinem Fall in echtzeit möglich. Wie bereits erwähnt wurde, kann man kaum glauben, dass sie nicht echt sind, sondern nur gerändert wurden! In Echtzeit wird man auf so eine Grafik wohl noch ein paar Jahre warten müssen...;)
 
AW: Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen

Ich habe ja schon Probleme damit mir vorzustellen, dass das CGI is aber dann noch zu behaupten diese Szene wäre in Echtzeit möglich... :ugly:

Ne tut mir leid - ne andere Reaktion fällt mir dazu nicht mehr ein. Der Szenengraph is eh ne Datenstruktur für, die auf der CPU traversiert wird, d.h. wenn man das weglässt, dann entlastet man jedenfalls nicht die GPU. Allein die abschließende Kantenglättung in dieser Qualität würde warscheinlich schon enorm viel Leistung brauchen. Dazu kommt das SSS (also subsurface-scattering) der Haut, MotionBlur und der Killer schlechthin Global illumination.
Nun, deine Ausführungen sind soweit ja ganz richtig. Nur gehst du/ihr davon aus, dass hier nicht getrickst wird. Nachmal, es ist eine fast statische Scene ... ja, der Scene Graph ist eine Datenstruktur die mit der CPU bearbeitet wird und das weglassen alleine entlastet nicht die GPU. Aber, bei fixen Workload, der ja sonst aus den Informationen im Scene Graph erzeugt wird, kann man diesen deutlich stärker Optimieren ... die in großen Bereich sich kaum verändert. Mir fallen auf Anhieb viele Möglichkeiten ein, sowas zu beschleunigen. Wenn du genau sagen kannst wie das ganze funktionieren soll, dann können wir genau diskutieren ob das noch geht, so ist das nicht möglich.

Und noch mal, auch ich halte das für ein Fake! Nur halte ich es halt nicht für Unmöglich!
 
AW: Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen

@Raistlin

Sicher kann man Informationen für GI bspw. bei rein statischen Geometrien (mit bewegter Kamera) wiederverwenden - geht ja z.B. bei Radiosity recht gut. Aber Radiosity bräuchte bei jeder Szenenänderung eine erneute Berechnung (wenigstens teilweise) und die brauch natürlich recht lang. Außerdem is Radiosity ohnehin ja nich so das wahre.

Aber bester Beweis is wohl, dass bei der Fermi Präsi doch so ne Szene mit nem Auto gezeigt wurde und dort auch GI zum Einsatz kam. Wenn man die Kamera bewegt hatte, dann wurde das Bild neu gerednert. Das ging bei sehr guter Quali auch recht fix, so bis max. 5 Sekunden für ein annähernd rauschfreies Bild. Ich nehme mal an, dass dann der Stand der Technik bei denen ist.

Aber wenn wir schon beim tricksen sind - man könnte es bei starker Einschränkung der Kameraposition und -ausrichtung ja mit Impostern machen aber Bilder kann mir meine CPU auch ohne OpenCL, DirectX und co anzeigen. ^^
 
AW: Angebliche Fermi-Renderings sorgen für vermeintliches Aufsehen

Aber wenn wir schon beim tricksen sind - man könnte es bei starker Einschränkung der Kameraposition und -ausrichtung ja mit Impostern machen aber Bilder kann mir meine CPU auch ohne OpenCL, DirectX und co anzeigen. ^^
Jetzt verstehen wir uns. ;-)
 
Zurück