Intel: Quake Wars Raytraced mit neuen Effekten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Intel: Quake Wars Raytraced mit neuen Effekten gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: Intel: Quake Wars Raytraced mit neuen Effekten
 
Naja, nichts was von der Qualität her aktuelle (und weniger aktuelle) Grafikkarten nicht schaffen würden. Ich glaube bis sowas wie Raytracing im Spielealltag möglich wird, dauert's noch 'ne Weile
 
Und immer noch ist ein Großteil des Bildes Rasterising, mit einer kleinen Prise Raytracing.

Noch dazu die Lüge "aktuelle Grafikkarten sind nicht dafür geeignet" - natürlich wären sie das, wenn man die Software nur darauf portieren würde. Aber das will Intel natürlich (logischerweise nicht).

Aber stimmt, zwei Xeons (wahrscheinlich die absolute Top-Version) sind billiger als ne Grafikkarte :stupid:

@Intel: Zeigt bitte mal ein ZEIGEMÄSSES spiel mit KOMPLETTER raytracing-engine. Und wenn ihr das auf nem i7 zum laufen bekommt - DANN können wir gern weiterreden!

Wenn Intel ihren Hauptmarkt verteidigen wollen, werden sie wirklich billig. Ich weiß schon wo Fräulein von der Leyen nach ihrem Ministerjob eine Stelle als PR-Chefin kriegen könnte.... Obwohl, hat die nicht schon der ehemalige Irakische Informationsminister?! :ugly:
 
Bin da sowieso etwas bescheidener. Ich freu mich, dass Wolfenstein bei mir wie geschmiert läuft, zwar nur mit mittleren Details aber immerhin.
 
Und immer noch ist ein Großteil des Bildes Rasterising, mit einer kleinen Prise Raytracing.

Noch dazu die Lüge "aktuelle Grafikkarten sind nicht dafür geeignet" - natürlich wären sie das, wenn man die Software nur darauf portieren würde. Aber das will Intel natürlich (logischerweise nicht).

Aber stimmt, zwei Xeons (wahrscheinlich die absolute Top-Version) sind billiger als ne Grafikkarte :stupid:

@Intel: Zeigt bitte mal ein ZEIGEMÄSSES spiel mit KOMPLETTER raytracing-engine. Und wenn ihr das auf nem i7 zum laufen bekommt - DANN können wir gern weiterreden!

Wenn Intel ihren Hauptmarkt verteidigen wollen, werden sie wirklich billig. Ich weiß schon wo Fräulein von der Leyen nach ihrem Ministerjob eine Stelle als PR-Chefin kriegen könnte.... Obwohl, hat die nicht schon der ehemalige Irakische Informationsminister?! :ugly:

Also was war denn anderes von Intel zu erwarten? Nix gegen deren Technologie und Produkte, aber diese Firma ist halt nun mal von sich selbst überzeugt.
 
Und immer noch ist ein Großteil des Bildes Rasterising, mit einer kleinen Prise Raytracing.
Wie kommst du darauf? Ich finde im Text keinen Hinweis darauf das hier auch gerasterisiert wird. Und wenn du dir mal den Artikel von Daniel Pohl auf CB (den hier) durchliest dann siehst du das da nur Raytracing zum Einsatz kommt.
@Intel: Zeigt bitte mal ein ZEIGEMÄSSES spiel mit KOMPLETTER raytracing-engine. Und wenn ihr das auf nem i7 zum laufen bekommt - DANN können wir gern weiterreden!
Es geht bei dieser Demonstration keineswegs darum eine zeitgemaße Grafik auf Raytracing Basis zu zeigen, sondern die Effekte die mit Raytracing möglich sind und das ist doch gar nicht mal so schlecht gelungen.
 
Zuletzt bearbeitet:
Mein Prof freut sich wie ein kleines Kind auf Raytracing :D

Ich blicke der Entwicklung entlassen entgegen: Sollen sie sich Zeit lassen und alles vernünftig machen. Irgendwann ist es für den breiten Markt da und dann nutzen wir es halt einfach. Ich hätte auf jeden Fall nix gegen ingame Grafik auf dem Niveau von cinematic Trailern.
 
Mein Prof freut sich wie ein kleines Kind auf Raytracing :D

Ich blicke der Entwicklung entlassen entgegen: Sollen sie sich Zeit lassen und alles vernünftig machen. Irgendwann ist es für den breiten Markt da und dann nutzen wir es halt einfach. Ich hätte auf jeden Fall nix gegen ingame Grafik auf dem Niveau von cinematic Trailern.
wieso tut er das, Raytracing gibts schon seit 20 Jahren? In Spielen wird es sowieso nur in einer Mischform mit Rasterizing verwendung finden, da Raytracing für manche Effekte und Berechnungen einfach deutlich langsamer ist als Rastern

Naja, nichts was von der Qualität her aktuelle (und weniger aktuelle) Grafikkarten nicht schaffen würden. Ich glaube bis sowas wie Raytracing im Spielealltag möglich wird, dauert's noch 'ne Weile
ja und dann wird der große "AHA!!!" Effekt ausbleiben, weil sich bis dahin das Rastern weiterentwickelt hat. Raytracing wird, wenn überhaupt, eh nur in Kombination mit Rastern kommen, da kann der Herr Pohl noch so lange die Probleme von Raytracing totschweigen.

ganz interessant zu lesen ist der Bericht über Raytracing und die Zukunft davon:
http://www.tomshardware.co.uk/ray-tracing-rasterization,review-31636.html

nicht zuletzt war auch vor ein paar Jahren mal interessant was Carmack über RT gesagt hat und immer noch gilt

Ich wünsche Daniel Pohl noch viel Erfolg und Fortschritte bei seiner Arbeit. Vorallem aber wünsche ich ihm einen Englishcoach, der ihm endlich mal ein bisschen Aussprache beibringt... ist ja grauenhaft wie der Mann redet und der lebt dann auch noch bei den Amis, denen muss es ja die Zehennägel aufstellen, wenn der luftholt zum Reden
 
Zuletzt bearbeitet:
Wie kommst du darauf? Ich finde im Text keinen Hinweis darauf das hier auch gerasterisiert wird. Und wenn du dir mal den Artikel von Daniel Pohl auf CB (den hier) durchliest dann siehst du das da nur Raytracing zum Einsatz kommt.
Wenn dem so wäre, dann würde der Hintergrund ganz anders aussehen. So wie das aussieht, ist der Großteil Rasterising und für ein paar kleine Effekte gibts dann Raytracing.

Es geht bei dieser Demonstration keineswegs darum eine zeitgemaße Grafik auf Raytracing Basis zu zeigen, sondern die Effekte die mit Raytracing möglich sind und das ist doch gar nicht mal so schlecht gelungen.
Wenn man rumläuft und alle zwei Minuten jeden typen mit Presseausweis die "Bald ist nur noch Raytracing In" in den Block brüllt, sollte man schon langsam mehr vorweisen können, als so halbgares Zeug und noch dafür auf 5.000€ Hardware - während die Grafikkarte für 50€ ein besseres Bild macht.

Und aus dem Standpunkt des Raytracings betrachtet, sah die Nvidia-Demo letztes Jahr auf der Siggraph deutlich besser aus, als das was Intel bisher gezeigt hat. Aber stimmt, Herr Pohl, Grafikkarten können das nicht :ugly:
 
Lies den Artikel dann wirst du sehen das Herr Pohl nichts von solchen Kombinationen hält und nur auf Raytracing setzt.
Da kann der Herr Pohl mir verdammt viel erzählen (dadrin ist Intel auch wirklich am besten bezüglich Grafik), ich sag nur wie es ausschaut. Und vorallem die Bodentextur im ersten Bild sieht ja mal mehr als nur schlecht aus, da rollen einem ja die Fußnägel auf.

Aber so ist das wohl, wenn man als Firma merkt, dass es Konkurrenten gibt, die einem die Marge gibt. Da erzählt man halt einfach verdammt viel über nicht-konkurrenzfähige Technologien.
 
Das die Bodentextur nicht gut ausschaut liegt dann halt an der Textur hat doch wohl nichts mit der Rendermethode zu tun, oder?
 
Das die Bodentextur nicht gut ausschaut liegt dann halt an der Textur hat doch wohl nichts mit der Rendermethode zu tun, oder?
Selbstverständlich, wäre die die Rendermethode nicht so extrem aufwendig, könnte man die Textur noch ein paar mal filtern oder auch bessere einsetzen. Man sieht ja schon daran wie wenig Reflexionen in den ganzen Screens zu sehen sind, wie sehr das Raytracing die Hardware ans Limit treibt.
 
Da kann der Herr Pohl mir verdammt viel erzählen (dadrin ist Intel auch wirklich am besten bezüglich Grafik), ich sag nur wie es ausschaut. Und vorallem die Bodentextur im ersten Bild sieht ja mal mehr als nur schlecht aus, da rollen einem ja die Fußnägel auf.

Aber so ist das wohl, wenn man als Firma merkt, dass es Konkurrenten gibt, die einem die Marge gibt. Da erzählt man halt einfach verdammt viel über nicht-konkurrenzfähige Technologien.

Die Textur hat nichts mit der Rendertechnik zu tun.
Erkundige Dich bitte über Raytracing genauer. Die Hardware von heute können einfach keine bessere Grafik in annehmbaren FPS darstellen.

Schau dir die diesen Link an:
Gallery
3D Total - The cg artists home page

ciao
 
Selbstverständlich, wäre die die Rendermethode nicht so extrem aufwendig, könnte man die Textur noch ein paar mal filtern oder auch bessere einsetzen. Man sieht ja schon daran wie wenig Reflexionen in den ganzen Screens zu sehen sind, wie sehr das Raytracing die Hardware ans Limit treibt.
Ich finde die Performance verdammt gut- mein PC braucht z.T. für per Raytraytracing berechnete Bilder über 2h- naja, die sind dann auch aufwändiger, aber echtzeit-Raytracing in diesen Auflösungen- wow :D
was ich noch schade finde sind - wie schon erwähnt - 1. die Texturen (aber daran kann man ja noch was ändern) und 2. der schwache Detailgrad der Figuren =/ (sind halt ohne Bumpmaps gerendert^^)
aber mit steigender Performance lässt sich da sicher was machen^^
 
Solange das nicht auf echter Hardware lauft (Larebee) sondern als Simulation mit 2 Xeon sind da Vergleiche zw. Rasterungstechnik und Raytracing gegenstandslos.
 
Ich finde die Performance verdammt gut- mein PC braucht z.T. für per Raytraytracing berechnete Bilder über 2h- naja, die sind dann auch aufwändiger, aber echtzeit-Raytracing in diesen Auflösungen- wow :D
Naja, da sind ja auch nicht viele anspruchsvolle Objekte, im Endeffekt ist nur der Glastyp rechenaufwendig. Da war die Nvidia-Demo letztes Jahr schon DEUTLICH besser, wo man die Reflexion eines objekts in einem Fenster in der nächsten Spiegelung sehen konnte.

Solange das nicht auf echter Hardware lauft (Larebee) sondern als Simulation mit 2 Xeon sind da Vergleiche zw. Rasterungstechnik und Raytracing gegenstandslos.
Auch der Larrabee ist auf Rasterising gebaut, der kann genauso gut (oder genauso schlecht, wie man es sehen will) Raytracing betreiben wie jede andere aktuelle GPU.
 
Zurück