News Unlimited-Detail-Entwickler im Interview: Reaktion auf Kritik und Live-Demo

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Unlimited-Detail-Entwickler im Interview: Reaktion auf Kritik und Live-Demo gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

arrow_right.gif
Zurück zum Artikel: Unlimited-Detail-Entwickler im Interview: Reaktion auf Kritik und Live-Demo
 
Ich warte ja mehr als gespannt auf ein Video welches tausende einzigartige Models zeigt mit "unendlichen" Details, dazu noch schön PP, Ai und flüssige Animationen. Am besten noch ein Multiplayertitel mit vielen anderen Spielern die ebenso noch mit der Welt interagieren, noch Physikberechnung wie die Havoc Engine oder PhysX mit rein und es kann losgehen! :ugly:
 
Also ich bin einer von den Kritikern dieser Technik und behaupte dass sie bis dato nicht durchführbar ist und viel Luft produziert wird.
Selbst wenn sich die Engine darauf konzentriert immer nur für den entsprechenden Pixel das zugehörige "Atom" zu finden, bedarf es doch vieler Rechen- und Vergleichsoperationen um diesen Pixel zu finden. Anhand der Betrachterposition und dem Blickwinkel kann zwar anhand der Atom-Koordinaten und einem Vektor schnell das vordere Atom finden und die dahinter liegenden ausblenden, bzw. Verwerfen. Allerdings müssen diese Daten erstmal vorgehalten werden und dann durch Matritzenoperationen oder Quaternionen transformiert und rotiert werden, was bei dem "unlimited" Unmengen an Rechenpower fordert. Immerhin kann erst DANACH der unnötige Rest ausgeblendet werden. Bis zur nächsten "Bewegung". Daher denke ich dass in den bisherigen Demos und Videos viel Blenderei ist.
Wenn man bedenkt, dass man pro Atom 3 Koordinaten und Farbinformationen braucht. Im Minimum!!!! Für ein schnelleres Culling noch Normalen, dann kann man sich vorstellen wieviele Rechenoperationen notwendig sind. Vom Speicherverbrauch mal abgesehen. Da kann man noch so gut komprimieren. Immerhin muss es ja auch dekomprimiert werden.
Dann noch die Ausflüchte auf "zukünftige" Milestones. Ich denke die haben selbst noch keine Idee und haben sich mit ihren Versprechen etwas übernommen.
 
Schöne Demo ab der 22. min. wenn man bedenkt das das auf nem Notebook gemacht wird und genau so aussieht wie in der selbst laufenden Demo. Ich denke das dies eine heiße Technologie der Zukunft sein wird.
 
Sollte es jemals marktreif werden, bräuchte man nie wieder eine neue grafikkarte oder cpu zu kaufen. Weil mehr als unendlich geht ja nicht und da läuft das gabze nur auf der cpu im laptop. Ich wünsche dem team nur das beste.
 
Sollte es jemals marktreif werden, bräuchte man nie wieder eine neue grafikkarte oder cpu zu kaufen. Weil mehr als unendlich geht ja nicht und da läuft das gabze nur auf der cpu im laptop. Ich wünsche dem team nur das beste.

Du verstehst da was Falsch die Technologie kann zwar mit unendlich Details Skalieren aber deine Grafikkarte garantiert nicht. Es wird auch wie heute sein je besser deine Graka desto besser das Bild was du auf deinen Monitor zaubern kannst kannst :)
 
Ich warte ja mehr als gespannt auf ein Video welches tausende einzigartige Models zeigt mit "unendlichen" Details, dazu noch schön PP, Ai und flüssige Animationen. Am besten noch ein Multiplayertitel mit vielen anderen Spielern die ebenso noch mit der Welt interagieren, noch Physikberechnung wie die Havoc Engine oder PhysX mit rein und es kann losgehen! :ugly:

Multiplayer kostet gar nicht (im Gegenteil: Man spart KI), Interaktionen fehlen bislang komplett, wären aber größtenteils in Havoc enthalten und PhysX sollte bei dieser Technik auch keine zusätzliche Grafiklast erzeugen. Zudem sind das alles Sachen, die nichts mit der Grafikausgabe zu tun haben und die sich genauso auf einem weiteren Kern abwickeln lassen sollten, wie bei anderen Spielen auch. (Und damit würde das Ding dann vielleicht einen High-End-Dekstop-Quad voll auslasten - aber das imho noch ziemlich eindrucksvoll, oder schafft irgendwer anders, diese Grafik auf einem i7 2600K ohne seperate Grafikkarte darzustellen?)
Bleiben (neben "PP", was mir in diesem Zusammenhang gar nichts sagt) noch die unterschiedlichen Modelle. Da frage ich mich langsam, ob das überhaupt einen Unterschied macht, wenn das Rendering so abläuft, wie beschrieben. Denn alles, was man bei einem Polygonrenderer durch Instancing an Rechenleistung spart -Geometrie, z.T. Beleuchtung, Texturierung-, ist hier sowieso fest vorgegeben. Wenn man per se mit einem Voxel pro Pixel arbeitet, dann muss eben nicht mittels einer Textur die Farbe auf einer zwischen drei Eckpunkten gespannten Fläche ermitteln und kann sich auch keine Arbeit sparen, in dem man es nur einmal für mehrere Objekte braucht. Die beschriebene Technologie müsste gänzlich unabhängig vom Inhalt des Bildes skalieren (bis auf den Speicherverbrauch, irgendwo muss eine so detaillierte Welt halt erstmal als Datensatz vorliegen - aber RAM ist gerade billig und das Problem ist zumindest nicht größer, als bei anderen Engines).

Was ich -nach erfolgter Demonstration der Interaktivität- als nächsten kritischen Punkt betrachten würde, wäre die Beleuchtung. Denn da kämpfen schon Polygon-Engines mit zu hohen Details.

Hat eigentlich schon jemand gehört, wie sie Unterabtastung bekämpfen? Im Prinzip entspricht dieses "ein Atom rausgreifen" ja einfachem Pointsampling auf einem extrem fein aufgelösten Objekt. Das sollte eigentlich Flimmern wie sau, insbesondere da man bei der fließenden Skalierung der Objekte bis auf Größe 0 immer einen ganzen Haufen an ein-Pixel-großen Objekten im Blickfeld hat. Die einzig anwenderbare Lösung wäre imho x4-x9 faches Super-/Downsampling, was die Performance noch wesentlich eindrucksvoller erscheinen ließe.
 
PP steht für Post Processing. Und ich meinte auch einen Multiplayer mit Ai, ie. Coop Games.

Ich halte bis jetzt nicht viel von dem Projekt. Wenn ich mir anschaue was Crysis 2 mit HQ Textures und DX11 Patch auf höchsten Einstellungen für Leistung frisst, und das Spiel ist nun wirklich nicht schlecht optimiert, glaube ich kaum dass wir in den nächsten Jahren diese "unendlichen" Details in aufwendingen Spielen wie einem Crysis zu sehen bekommen. Ebenso wird hier ja nur demonstriert, wie ein paar Objekte die multipliziert wurden, dargestellt werden und sich auf die Leistung auswirkung. Es ist ja nicht so als hätten wir eine Szene mit tausenden von einzigartigen Objekten welche eben zustätzlich mit Post Processing, Ai und Scripts laufen. Dynamische Beleuchtung die auf jedem einzelnen Objekt berechnet werden muss gibt es auch nicht.

Es ist sicherlich ein Schritt in die richtige Richtung, nur denke ich wird es noch eine ganze Weile dauern bis wir sowas in Spielen sehen dürfen.
 
Hmmm... ich hoffe, dass das wirklich funktioniert was die da erzählen. Aber vieles aus der Demonstration lässt sich auch heute schon realisieren. Schaut euch bitte mal die Endless City Demo von Nvidia an.

Endless City: Beeindruckende DirectX-11-Techdemo für Geforce GTX 580 - directx 11

fixiert mal eine Statue und fahrt dann die Kamera weg, so wie im Euclideon-Video. Ich kann dabei kein "herausploppen" erkennen, genauso wie in dem Euclideonvideo. Ich frage mich deshalb ob die Demo von Euclideon nicht doch aufe der GTX 460M des Notebooks läuft mit Tesselation. Ich hoffe trotzdem, dass das wirklich keine verarsche ist.
 
Was die machen ist doch der Hammer, bin echt schon gespannt auf die nächste Demo. Joa wenn die das auch mit der GPU zum laufen bekommen wird das bestimmt noch krasser. Stellt euch doch mal Doom 5 in Unlimited Detail vor, oder noch besser C&C 5...... :hail::hail::hail::hail::hail::hail::hail::hail::hail: Euclideons :daumen::daumen::daumen::daumen::daumen:
 
Was die machen ist doch der Hammer, bin echt schon gespannt auf die nächste Demo. Joa wenn die das auch mit der GPU zum laufen bekommen wird das bestimmt noch krasser. Stellt euch doch mal Doom 5 in Unlimited Detail vor, oder noch besser C&C 5...... :hail:Euclideons :daumen:

Vor Doom 10 brauchste damit nicht rechnen.
 
Warum? Die wollten das doch bis 2012 marktreif kriegen und verkaufen, dann kann man denke ich 2014/2015 mit den ersten Spielen rechnen. Und warum sollte kein Remake von Doom kommen? ;)
 
fixiert mal eine Statue und fahrt dann die Kamera weg, so wie im Euclideon-Video. Ich kann dabei kein "herausploppen" erkennen, genauso wie in dem Euclideonvideo. Ich frage mich deshalb ob die Demo von Euclideon nicht doch aufe der GTX 460M des Notebooks läuft mit Tesselation. Ich hoffe trotzdem, dass das wirklich keine verarsche ist.

Mangels DX11 bin ich auf Videos beschränt - in denen macht endless City aber einen sichtbar weniger detaillierten/kantigeren Eindruck.

Warum? Die wollten das doch bis 2012 marktreif kriegen und verkaufen, dann kann man denke ich 2014/2015 mit den ersten Spielen rechnen. Und warum sollte kein Remake von Doom kommen? ;)

Ein Doom 5 wird es sicherlich geben, aber Doom ist immer noch von iD/John Carmack, nicht von Euclideon ;)
 
Was alle vergessen, dass ein Baum schon über ein gigabyte an speicherplatz verbraucht. Schaut euch mal z-brush modelle an!

@ruyven
Genau und die Meinung von John Carmack zu Point Cloud Engines kennen wir ja. Ich denke er wird wohl eher auf raytracing setzen in zukunft.
 
Nun ja. Raytraycing ist nur ein Teil des Konzeptes, nämlich die Abtastatung. Darüber wissen wir bei Euclideon noch gar nichts. Der andere Teil ist die Speicherung der Modelle und da war für iD6 schonmal ein Octtree Voxelsystem im Gespräch, dass in seinen Auswirkungen gar nicht soweit vom hiesigen hier entfernt sein dürfte.
 
Also wenn die Hardwarehersteller ihre Produkte darauf optimieren statt wie seit längerer Zeit nur auf Polygone könnts was werden.In den letzten 1-3 Jahren hat sich ja auf dem Gebiet auch nicht so viel getan,von Tesselation mal abgesehen.Doch das auch (fast) nur für PC-exclusive Spiele,ne XBox 360 kann kaum tesseln.Und Gamehersteller müssen bei CrossPlatformTiteln immer darauf achten dass die Spiele auf allen Plattformen ungefähr gleichgut aussehen,also beisst sich der Hund doch in den eigenen Schweif...:ugly:
 
ich stehe dieser technik ebenso skeptisch, aber auch optimistisch gegenüber.
1. anwendungen wären in der medizin denkbar.
ich spinne mal ein szenario:
durch neue techniken in der medizin sind aufnahmen vom menschen gewebe möglich, die sogar einzelne zellen erfassen.
um eben diese darzustellen halte ich diese grafik-engine für ideal. denkt selber weiter... sci-fi lässt grüßen ;)

spiele auf der basis dieser technik wird es sicherlich in den nächsten jahren nicht geben.
licht, physik ... 2 wichtige aspekte einer game-engine fehlen noch.
hier sehe ich aber gute chancen, wenn nicht nur ein unternehmen daran mitwirkt.
gerade was licht und dessen berechnung angeht, könnte raytracing sogar der schlüssel für Euclideon sein, eine funktionierende und "resourcen-schonende" darstellung zu erreichen.
john carmack schießt nicht ohne grund scharf. er wird sich seine gedanken gemacht haben und die sache auch mathematisch aufgeschlüsselt haben.
die entwicklung neuer computer-hardware wird aber weiter gehen und die leistung heutiger pc's steigt stetig.
mal schauen ob ich in 5 jahren den 1. ego-shooter mit der neuen engine spielen kann ;)
ich kann mir ein soldier of fortune 4 mit brachialer und realistischer gewaltdarstellung gut vorstellen ...
... mit genug geld würd ich es sogar selber entwickeln :D natürlich nur zu promo-zwecken der neuen engine von Euclideon :devil:
 
also ich halte das system nicht für unmöglich. und ich kann mir auch gut vorstellen, dass das auch so läuft. es ist ja auch eine live demo aufgetaucht, in welcher ein typ mit gamepad durch den level gelaufen ist. also durch dieses "datenbankähnliche" konzept halte ich es schon für möglich, dass das zu machen ist. aber trotzdem müssen die enormen datenmengen ja irgendwo liegen. mich würde interessieren, wie viel speicherplatz diese demo in anspruch nahm. und diese basierte ja auf vielen wiederholungen. es wäre mal interessant ne richtige spielwiese zu kreieren und dann zu schauen, wie viel speicher das einnimmt.^^ wenn dann ein game an der tb grenze kratzt, sollte das auch nicht der sinn der sache sein. :-D
 
Zurück