Intel Xe: Intel erweitert Roadmap um hardwarebeschleunigtes Raytracing

Haben sich SLI und Crossfire jemals durchgesetzt? Nein

das problem lag nicht an nvidia, amd oder den spieleentwickler, sondern an der windows 7,8,10 DX11/12 handbremse.
mit linux und durchgehender vulkan unterstützung hätte sich sli/cf prächtig entwickelt.
und jetzt hat man high-high end hardware wie die RTX2800+ und die windows 10 DX12 handbremse limitiert weiter.
raytracing wird sich am pc deswegen genauso wenig wie sli/cf, vulkan durchsetzen.

Geht es dem Soundkarten-Markt gut? Nein.

doch denen geht es gut!
die externen USB soundkarten verkaufen sich gut und das auch im hochpreissegment.
einzig die internen soundkarten sind verschwunden. aber die braucht auch niemand mehr.

vorteil der externen ist nun mal, das man sie auch leicht mit anderen geräten verwenden kann und sie haben oft einen anständigen headphone pre-amp mit eingebaut.
auf grund der abschirmung haben externe auch einen vorteil.
 
Zuletzt bearbeitet:
Es sind nicht die Tech Konzerne, sondern die Verbraucher, die das alles haben scheitern lassen. SLI und CF boten einfach nicht die Vorteile, die man versprochen hatte. Einerseits waren da die Microruckler und anderseits funktionierte das ganze auch nur in wenigen Spielen so richtig gut. Wenn das ganze wenigstens durch die Bank 70% mehr FPS (85% Effizienz) einbringen würde, dann sähe das wohl völlig anders aus. Irgendwann, vermutlich wenn es technisch nicht mehr weiter geht, wird man sich dem SFR zuwenden, gemeinsam genutzer RAM (und damit fast doppelt soviel) sowie keine Microruckler und schon wird sich das breit durchsetzen. Die Soundkarten haben sich selbst versenkt, allen voran Creative, erst wollten sie das EAX nicht lizenzieren, was in einem kleinen Formatkrieg mündete und dann haben sie sich im Treiberwirrwar selbst beerdigt, das war es dann, den Rest kann der Onboardsound fast genauso gut. Bei PhysX fehle es einfach an guten Gründen, warum man sich so eine Karte für viel Geld kaufen sollte.



Du schreibst das der Verbaucher Schuld sei am scheitern dieser Technologien, aber widerspricht dich direkt im ersten Satz. [...]SLI und CF boten einfach nicht die Vorteile[...] Die Technoloie hat nicht genug Vorteile bereitgestellt und viele versprechen nicht gehalten. Wie war nochmal der Einflus des Verbauchers?

Die Soundkarten haben sich nur bedingt selbst versenkt, sondern Microsoft hat stumpf seine Monopolstellung ausgenutzt und entschieden es nicht mehr zu implementieren in dem man die Grund Lade Direct 3D Audio entfernten, eines der besten Feature für Windows Betriebsysteme, meiner Meinung nach. Das man Creative nötigen wollte die Technologie zu lizensieren, hätte man heute mit Nvidia mal machen sollen.

Bis jetzt hat MS weder Gameworks noch Physx verbannt, scheinbar konnte NV besser verhandeln.

Creative konnte die fehlende Direct 3D Audio unterstützung nur bedingt kompeniseren, durch Open AL in Quake 4 Zum Beispiel.

Und wenn dein Treiber zu einem großen Teil auf etwas basiert, dass im Betriebsystem nicht mehr vorhanden ist, so bleibt der Treiber halt ein Mischmasch aus Resten.

Bei Physx Karten hat mich eher der Preis abgeschreckt, als die fehlende Anzahl an Spielen.

Auch NV hätte es auch mit AMD Karte unterstützen können, somit hätte ein AMD FAN auch eine NV Karte im Rechner.

Aber das ist halt so mit Sätzen die mit hätte anfangen. ...
 
Zuletzt bearbeitet:
Pu244 schrieb:
Es sind nicht die Tech Konzerne, sondern die Verbraucher, die das alles haben scheitern lassen.
Hä? Musst du auf Teufel komm raus widersprechen, obwohl nur Dünnpfiff dabei herumkommt? Wenn ein Produkt nicht überzeugt weil es zu viele Nachteile hat, einen zu geringen Mehrwert bietet oder zügig durch etwas besseres ersetzt wird, dann scheitert es eben. Das ist völlig normal, was soll der Unsinn dem Verbraucher die Schuld in die Schuhe zu schieben? Die Konzerne müssen den Fehler bei sich suchen und sich fragen, warum das Produkt nicht angenommen wurde. Der Endverbraucher ist die Zielgruppe, also muss das Produkt nach deren Bedürfnissen gestaltet werden.

sam10k schrieb:
das problem lag nicht an nvidia, amd oder den spieleentwickler, sondern an der windows 7,8,10 DX11/12 handbremse.
mit linux und durchgehender vulkan unterstützung hätte sich sli/cf prächtig entwickelt.
Selten so einen Quatsch gelesen. SLI gibt es seit 3dfx Zeiten, weit vor Vulkan oder irgendeiner Relevanz von Linux.

sam10k schrieb:
raytracing wird sich am pc deswegen genauso wenig wie sli/cf, vulkan durchsetzen.
Was ist das für eine sinnbefreite Schlussfolgerung? RT benötigt keine Spezialhardware, RT basiert auf keiner Insellösung. Es ist Bestandteil von DX12 in Form von DXR, Vulkan unterstützt es ebenfalls. An der hardwareseitigen Implementierung wird bei allen Herstellern gearbeitet. Durch die Standardisierung spricht rein gar nichts für ein Scheitern von RT.

sam10k schrieb:
doch denen geht es gut!
Definiere gut.
 
Zuletzt bearbeitet:
doch denen geht es gut!
die externen USB soundkarten verkaufen sich gut und das auch im hochpreissegment.
einzig die internen soundkarten sind verschwunden. aber die braucht auch niemand mehr.

vorteil der externen ist nun mal, das man sie auch leicht mit anderen geräten verwenden kann und sie haben oft einen anständigen headphone pre-amp mit eingebaut.
auf grund der abschirmung haben externe auch einen vorteil.


Nein das verwechselst du, Sound Interfaces sind etwas anderes als "Gaming USB Schrott", Sound Interfaces (per TB3, USB oder Firew. angebunden) bieten natürlich zum einen ASIO, und zum anderen gute Verstärker je nach Preis
und werden in der Musik oder Streamer Branche verkauft wie geschnitten Brot.
Was aber als Gaming USB Schrott vermarktet wird, da ist ein Onboard Sound ala Supreme FX ALC1220 oder AORUS Master mit 2 Amps und DSD überlegen.
 
Selten so einen Quatsch gelesen. SLI gibt es seit 3dfx Zeiten, weit vor Vulkan oder irgendeiner Relevanz von Linux.
RT braucht auch Tensor nicht oder RT Cores zur Raytraversierung, derzeit ist das bekannte RTX inklusive Hardware eine Insellösung. Intel wird RTX nimmer unterstützen.

Ich würde jedem empfehlen sich dazu mit dem Rendering Framework zu beschäftigen (IFR), derzeit sind integrierte RT Cores vermutlich völlig aussen vor, was Xe betrifft. Wozu auch? Weder Intel noch AMD braucht sie für die eigene Plattform aus GPU und CPU. In Intels speziellen Fall kann es sich lediglich um eine Version handeln, die die eigens verfügbaren Hardwareressourcen wie Xeon und damit Renderprojekte mit enormen Speichermengen pusht. Damit eher was für die Filmindustrie wo Raytracing schon viel länger zum Einsatz kommt und man auch ordentlich verdienen kann. RTX macht da nur einen geringen Teil aus.
 
Zuletzt bearbeitet:
das problem lag nicht an nvidia, amd oder den spieleentwickler, sondern an der windows 7,8,10 DX11/12 handbremse.
mit linux und durchgehender vulkan unterstützung hätte sich sli/cf prächtig entwickelt.
und jetzt hat man high-high end hardware wie die RTX2800+ und die windows 10 DX12 handbremse limitiert weiter.
raytracing wird sich am pc deswegen genauso wenig wie sli/cf, vulkan durchsetzen.



doch denen geht es gut!
die externen USB soundkarten verkaufen sich gut und das auch im hochpreissegment.
einzig die internen soundkarten sind verschwunden. aber die braucht auch niemand mehr.

vorteil der externen ist nun mal, das man sie auch leicht mit anderen geräten verwenden kann und sie haben oft einen anständigen headphone pre-amp mit eingebaut.
auf grund der abschirmung haben externe auch einen vorteil.

Windows hat sich durchgesetzt und nicht Linux, damit hat sich das Ganze auch schon. Raytracing wird sich zu 100% durchsetzen, spätestens mit der Sony Ankündigung, ist ein Scheitern ausgeschlossen. Sobald die Hardware stark genug ist um auf reines Raytracing zu setzen, wird auch noch jedes kleine Spiel auf RT setzen, da es weniger Arbeit macht als Rasterisierung.
 
Dedizierte Spezialhardware hat noch nie funktioniert. Das würde RT kein bisschen voranbringen.
Bei Grafikchips, bzw. 3D-Beschleuniger hatte es funktioniert, sie werden heute noch in jedem PC verbaut (nur in manchen Server wird darauf verzichtet, da eh keine Bildausgabe nötig ist).
Grafikchips waren anfangs auf 2D-Funktionalität beschränkt, für 3D-Berechnungen gab es dann später die 3D-Beschleunigerkarten. Letztere konnte aber keine 2D-Bilder berechnen, war daher auf eine vorhandene 2D-Grafikkarte angewiesen.
Relativ schnell wanderten die 2D-Chips und 3D-Beschleuniger zusammen auf eine Karte, bis sie irgendwann zu einem einzigen Chip verschmolzen.

Nie ist daher falsch.
 
Bei Grafikchips, bzw. 3D-Beschleuniger hatte es funktioniert, sie werden heute noch in jedem PC verbaut (nur in manchen Server wird darauf verzichtet, da eh keine Bildausgabe nötig ist).
Grafikchips waren anfangs auf 2D-Funktionalität beschränkt, für 3D-Berechnungen gab es dann später die 3D-Beschleunigerkarten. Letztere konnte aber keine 2D-Bilder berechnen, war daher auf eine vorhandene 2D-Grafikkarte angewiesen.
Relativ schnell wanderten die 2D-Chips und 3D-Beschleuniger zusammen auf eine Karte, bis sie irgendwann zu einem einzigen Chip verschmolzen.

Nie ist daher falsch.
Wollte ich ursprünglich auch schreiben, aber 1. der Trend gibt ihm recht und 2. gibts zu jeder Regel ja auch immer die Ausnahmen und zu der zählen GPUs halt - weil sie so viel Leistung brauchen.

Davon abgesehen: kleine korrektur, es gab natürlich schon von Anfang an 2D Karten mit 3D Funktionen und eigentlich nur die Voodo 1 und 2 waren "3d Beschleuniger" zum dranstecken.
 
Es sind nicht die Tech Konzerne, sondern die Verbraucher, die das alles haben scheitern lassen. SLI und CF boten einfach nicht die Vorteile, die man versprochen hatte.

Tech Konzerne müssen Lösungen entwickeln und anbieten, die die Bedürfnisse der Verbraucher befriedigen.
Nicht die Verbraucher müssen Lösungen von Tech Konzernen kaufen, obwohl sie nicht dafür geeignet sind, die Bedürfnisse zu befriedigen.
SLI und CF sind gescheitert weil sie nicht funktionieren und Dinge die nicht funktionieren, muss man eben früher oder später auf den Müll werfen und werden durch Lösungen ersetzt die funktionieren oder zumindest besser sind.

Irgendwann, vermutlich wenn es technisch nicht mehr weiter geht, wird man sich dem SFR zuwenden, gemeinsam genutzer RAM (und damit fast doppelt soviel) sowie keine Microruckler und schon wird sich das breit durchsetzen.

Bevor man sich eine nicht zukunftsfähige Technik ans Bein bindet, wird man auf Hardwareebene andere Lösungen finden.

RT braucht auch Tensor nicht oder RT Cores zur Raytraversierung, derzeit ist das bekannte RTX inklusive Hardware eine Insellösung. Intel wird RTX nimmer unterstützen.

Ich könnte genauso danach fragen wann AMD oder Intel endlich Nvidias G-sync unterstützen, oder wann Linux endlich den Microsoft-Kernel vollständig unterstützt.
Raytracing benötigt zur Hardwarebeschleunigung sehr wohl dedizierte Einheiten zur Raytraversierung, alles andere wäre ineffizient.

Ich würde jedem empfehlen sich dazu mit dem Rendering Framework zu beschäftigen (IFR), derzeit sind integrierte RT Cores vermutlich völlig aussen vor, was Xe betrifft. Wozu auch?

Warum sollte man deiner Empfehlung folgen, wenn du daraus nur Vermutungen ableiten kannst und den Unterschied zwischen RTX und DXR nicht kennst? AMD wird eine Beschleunigung zur Raytraversierung auf die eine oder andere Weise umsetzen.
Wenn das nicht notwendig wäre, könnte AMD schon lange einen DXR Backend für Battlefield oder Metro anbieten.
Ich nehme an dir geht es darum die derzeitige Lösung von Nvidia in ein schlechtes Licht zu rücken. Inhaltlich gelingt dir das jedoch nicht.
 
Zuletzt bearbeitet:
Bei Grafikchips, bzw. 3D-Beschleuniger hatte es funktioniert, sie werden heute noch in jedem PC verbaut (nur in manchen Server wird darauf verzichtet, da eh keine Bildausgabe nötig ist).
Grafikchips waren anfangs auf 2D-Funktionalität beschränkt, für 3D-Berechnungen gab es dann später die 3D-Beschleunigerkarten. Letztere konnte aber keine 2D-Bilder berechnen, war daher auf eine vorhandene 2D-Grafikkarte angewiesen.
Relativ schnell wanderten die 2D-Chips und 3D-Beschleuniger zusammen auf eine Karte, bis sie irgendwann zu einem einzigen Chip verschmolzen.

Nie ist daher falsch.
In dem Fall hast du natürlich recht. Grafikkarten aka 3D-Beschleuniger habe ich bei der Aussage nicht berücksichtigt weil sie ... nun ja ... den Desktop PC fast von Anfang an begleiten. Zudem können Grafikkarten heutzutage so viel mehr als nur Polygone anschubsen.
 
In dem Fall hast du natürlich recht. Grafikkarten aka 3D-Beschleuniger habe ich bei der Aussage nicht berücksichtigt weil sie ... nun ja ... den Desktop PC fast von Anfang an begleiten. Zudem können Grafikkarten heutzutage so viel mehr als nur Polygone anschubsen.
Das finde ich jetzt aber etwas schwach als Verteidigung.
Grafikkarten mit 3D haben keineswegs den PC "von Anfang an begleitet".

DOS und frühe Windows Spiele waren 2D.
Damals hat man Unsummen für gute Sound-Karten ausgegeben.

Und auch die ersten 3D Beschleuniger wurden sehr kritisch betrachtet.
Die performanten 3dfx und nVidia Modelle konnten bei der 2D Bild-Qualität nicht mit Matrox und Ati Chips mithalten.
Schöne Grafik in Tomb Raider, aber unsauberes Bild auf dem Desktop?
Es war keineswegs selbstverständlich, dass sich die 3D Beschleuniger durch setzen.

Und bis heute ist es üblich Grafik-Beschleuniger als eigene Hardware-Komponente zu kaufen.
Schon deswegen war Ihre erste Aussage komplett falsch.
 
Ich könnte genauso danach fragen wann AMD oder Intel endlich Nvidias G-sync unterstützen, oder wann Linux endlich den Microsoft-Kernel vollständig unterstützt.Raytracing benötigt zur Hardwarebeschleunigung sehr wohl dedizierte Einheiten zur Raytraversierung, alles andere wäre ineffizient.

Warum sollte man deiner Empfehlung folgen, wenn du daraus nur Vermutungen ableiten kannst und den Unterschied zwischen RTX und DXR nicht kennst? AMD wird eine Beschleunigung zur Raytraversierung auf die eine oder andere Weise umsetzen.
Wenn das nicht notwendig wäre, könnte AMD schon lange einen DXR Backend für Battlefield oder Metro anbieten.
Ich nehme an dir geht es darum die derzeitige Lösung von Nvidia in ein schlechtes Licht zu rücken. Inhaltlich gelingt dir das jedoch nicht.
Ich könnte danach fragen woher deine Erkenntnis stammt, ziemlich vage Aussage. Dann klär mich doch bitte auf!
---------------------
AMD hat schon ein solches Softwarebackend für Entwickler, weil man DXR dafür einfach hernehmen kann, vllt. ist dir das entfallen und mit RadeonRay arbeiten sie seit GCN mit an dergleichen Entwicklungen. Das nVidia sie überrascht hat glaube ich nicht. Ist sogar auf Mac's lauffähig.

Was aus PhysX geworden ist, ist zweifelsfrei erkennbar. Jede dedizierte Techologie die nVidia die letzten Jahre versuchte zu vermarkten ist gescheitert. Zulasten der Käufer die das bezahlt haben. AMD hätte es laut nVidia mit einem GCN Solver unterstützen können, wollten sie wohl nicht.

PS: Du kannst gerne auf meine Beitragsliste zugreifen und dir die Diskussionbeiträge zu diesen Themen ansehen.

Was das Thema RTX unter Metro und BFV angeht - ist das so nicht auf AMD Hardware lauffähig, weil man dafür die jeweilige API in die Gameengine implementieren muss, also bitte spreche nicht davon wer hier keine Ahnung hat. Ich glaube nicht das AMD oder Intel RTX unterstützen will. Das wäre so als wollten sie GPU PhysX unterstützen, haben sie das?
 
Zuletzt bearbeitet:
AMD hat schon ein solches Softwarebackend für Entwickler, weil man DXR dafür einfach hernehmen kann, vllt. ist dir das entfallen und mit RadeonRay arbeiten sie seit GCN mit an dergleichen Entwicklungen.
RadeonRay ist schlicht eine Raytracing-Implementierung für OpenCL. Mit einem Support der Berechnungen in HW ala RTX hat das gar nichts zu tun.

Das nVidia sie überrascht hat glaube ich nicht.
Offensichtlich schon, schließlich wird es bei AMD vor 2020 nichts geben. Das ist ziemlich "überrascht".

Immerhin ist es ein Bestandteil von DirectX mit DXR. Mit dem Impact ist es ungefähr so, als wenn Microsoft mit 1809 ein DX13 veröffentlicht, NVIDIA beherrscht diesen Standard bereits und AMD liefert erst mit der übernächsten Generation diese DX-Version.

Wahrscheinlich hat bei AMD niemand damit gerechnet, dass NVIDIA so früh die passende HW fertig hat.

Was aus PhysX geworden ist, ist zweifelsfrei erkennbar. Jede dedizierte Techologie die nVidia die letzten Jahre versuchte zu vermarkten ist gescheitert. Zulasten der Käufer die das bezahlt haben.
Ok, NVIDIA hat also nie etwas wie CUDA oder G-Sync eingeführt. Na dann :lol:

Was das Thema RTX unter Metro und BFV angeht - ist das so nicht auf AMD Hardware lauffähig, weil man dafür die jeweilige API in die Gameengine implementieren muss, also bitte spreche nicht davon wer hier keine Ahnung hat. Ich glaube nicht das AMD oder Intel RTX unterstützen will. Das wäre so als wollten sie GPU PhysX unterstützen, haben sie das?
RTX ist nichts weiter als ein auf DXR-basierender Softwarestack. Wenn es mal DXR-Implementierungen fernab von NVIDIA gibt, wird RTX-Software darauf genauso laufen, wie auf den RTX-Karten.
 
Und AMD. AMD hat mit den Ryzen APUs den Markt auf dem Desktop für sich alleine, Intel hat nichts vergleichbares zu bieten. Bei den Notebooks sieht das noch anders aus, das ist aber nur eine Frage der Zeit. Wie bei der Serversparte ist viel Überzeugungsarbeit und Durchhaltevermögen gefragt.

Naja, Intel APUs haben schon eine erheblich größere Verbreitung, nicht zuletzt, weil eben die weit überwiegende Zahl der Intel CPUs eine iGPU haben.
Das AMD hier grafikseitig eine etwas stärkere Lösung hat ist klar, nur ist das eben für den weit überwiegenden Anwendungsfall "Bürorechner" völlig irrelevant, weil da eine stärkere GraKa als die von Intel gebotene gar nicht notwendig ist. SAP tut auch mit Intel...
 
RadeonRay ist schlicht eine Raytracing-Implementierung für OpenCL. Mit einem Support der Berechnungen in HW ala RTX hat das gar nichts zu tun.


Offensichtlich schon, schließlich wird es bei AMD vor 2020 nichts geben. Das ist ziemlich "überrascht".

Immerhin ist es ein Bestandteil von DirectX mit DXR. Mit dem Impact ist es ungefähr so, als wenn Microsoft mit 1809 ein DX13 veröffentlicht, NVIDIA beherrscht diesen Standard bereits und AMD liefert erst mit der übernächsten Generation diese DX-Version.

Wahrscheinlich hat bei AMD niemand damit gerechnet, dass NVIDIA so früh die passende HW fertig hat.


Ok, NVIDIA hat also nie etwas wie CUDA oder G-Sync eingeführt. Na dann :lol:


RTX ist nichts weiter als ein auf DXR-basierender Softwarestack. Wenn es mal DXR-Implementierungen fernab von NVIDIA gibt, wird RTX-Software darauf genauso laufen, wie auf den RTX-Karten.
Du meinst nVidia hat keine Ahnung von ihrem eigenen Gameworks RTX Implementierungen. RTX ist in erster Linie und derzeitiger Iteration eine weitere Entwicklerschnittstelle für die eigene Hardware die bestimmte Studios favorisieren (vermutlich weil sie genug Kohle im Gegenzug bekommen - EPIC z.Bsp.), aber bei weiten nicht alle. DXR lässt sich über Compute ausführen, ohne RT- und Tensorcores. Genau dafür wurde es entwickelt. Da fließen keine RTX Standards ein, weil das eine Bevorzugung eines Herstellers wäre die Microsoft zu unterbinden hätte. Dein Beitrag ist wieder so pro nVidia und wissentlich unwahr - das man sich an den Kopf fassen muss, aber wie eigentlich jeder deiner Beiträge irgendeinen Pro-nVidia-Spekulatius enthält.

Natürlich ist RR openCL, genau deshalb braucht man auch RTX nicht. RTX ist nVidias Softwarebackend das auf DXR aufsetzt, es ermöglicht Cuda, Tensor und RT Cores überhaupt erst über deren Code diese Hardwareressourcen unter DXR nutzbar zu machen, und das soll AMD jetzt so ausführen können? RTX ist komplett auf nVidias Hardware ausgelegt, dass kann AMD so gar nicht umsetzen, dann müssten sie Hardware implementieren die man bei nVidia zertifizieren müsste.

Das macht weder AMD noch Intel. Die RT Cores nutzen eine eigens entwickelte BVH Structur zur Traversierung der Rays. NVidia ist für seine Schnellschüsse bekannt und die wollen keinerlei Zusammenarbeit, solange sich dies zu ihrem Vorteil ausmelken lässt.

GSync - gescheitert.
GPU PhysX - gescheitet.
RTX - ???

Cuda, was soll dieser Marketingname? Cuda ist nichts weiter als schöne Worte für Compute.

Immer dann wenn eine vermeintliche Benachteiligung anderer Hersteller bestehen könnte, sollte man vorsichtig sein - was diese selbst entwickeln und das Intel bei nVidia mitzieht, ist derzeit völlig ausgeschlossen, dass hat nicht nur Jensen selbst vergeigt. Koduri zertifiziert bei nVidia nicht mal die ausgefallenen Borsten des Besen vom Hausmeister. Da kann man sich vollkommen sicher sein. Und ob EA (Dice) und Pixar da mitmachen interessiert kaum jemanden. Die haben doch immer schon für nVidia mitentwickelt und auf deren Hardware optimiert. Das lässt sich schnell ändern, wenn Intel erst mal sein Buget ausbreitet.

DirectXR ist dabei die Schnittstelle zu Tools und Engines, und nVidias RTX ermöglich das Ausführen dieser auf der eigenen Hardware. Schreib doch nicht immer so einen St*ss. Was davon sollte in DX einfließen, nichts.
 
Zuletzt bearbeitet:
Zurück