Haben sich SLI und Crossfire jemals durchgesetzt? Nein
Geht es dem Soundkarten-Markt gut? Nein.
Es sind nicht die Tech Konzerne, sondern die Verbraucher, die das alles haben scheitern lassen. SLI und CF boten einfach nicht die Vorteile, die man versprochen hatte. Einerseits waren da die Microruckler und anderseits funktionierte das ganze auch nur in wenigen Spielen so richtig gut. Wenn das ganze wenigstens durch die Bank 70% mehr FPS (85% Effizienz) einbringen würde, dann sähe das wohl völlig anders aus. Irgendwann, vermutlich wenn es technisch nicht mehr weiter geht, wird man sich dem SFR zuwenden, gemeinsam genutzer RAM (und damit fast doppelt soviel) sowie keine Microruckler und schon wird sich das breit durchsetzen. Die Soundkarten haben sich selbst versenkt, allen voran Creative, erst wollten sie das EAX nicht lizenzieren, was in einem kleinen Formatkrieg mündete und dann haben sie sich im Treiberwirrwar selbst beerdigt, das war es dann, den Rest kann der Onboardsound fast genauso gut. Bei PhysX fehle es einfach an guten Gründen, warum man sich so eine Karte für viel Geld kaufen sollte.
Hä? Musst du auf Teufel komm raus widersprechen, obwohl nur Dünnpfiff dabei herumkommt? Wenn ein Produkt nicht überzeugt weil es zu viele Nachteile hat, einen zu geringen Mehrwert bietet oder zügig durch etwas besseres ersetzt wird, dann scheitert es eben. Das ist völlig normal, was soll der Unsinn dem Verbraucher die Schuld in die Schuhe zu schieben? Die Konzerne müssen den Fehler bei sich suchen und sich fragen, warum das Produkt nicht angenommen wurde. Der Endverbraucher ist die Zielgruppe, also muss das Produkt nach deren Bedürfnissen gestaltet werden.Pu244 schrieb:Es sind nicht die Tech Konzerne, sondern die Verbraucher, die das alles haben scheitern lassen.
Selten so einen Quatsch gelesen. SLI gibt es seit 3dfx Zeiten, weit vor Vulkan oder irgendeiner Relevanz von Linux.sam10k schrieb:das problem lag nicht an nvidia, amd oder den spieleentwickler, sondern an der windows 7,8,10 DX11/12 handbremse.
mit linux und durchgehender vulkan unterstützung hätte sich sli/cf prächtig entwickelt.
Was ist das für eine sinnbefreite Schlussfolgerung? RT benötigt keine Spezialhardware, RT basiert auf keiner Insellösung. Es ist Bestandteil von DX12 in Form von DXR, Vulkan unterstützt es ebenfalls. An der hardwareseitigen Implementierung wird bei allen Herstellern gearbeitet. Durch die Standardisierung spricht rein gar nichts für ein Scheitern von RT.sam10k schrieb:raytracing wird sich am pc deswegen genauso wenig wie sli/cf, vulkan durchsetzen.
Definiere gut.sam10k schrieb:doch denen geht es gut!
doch denen geht es gut!
die externen USB soundkarten verkaufen sich gut und das auch im hochpreissegment.
einzig die internen soundkarten sind verschwunden. aber die braucht auch niemand mehr.
vorteil der externen ist nun mal, das man sie auch leicht mit anderen geräten verwenden kann und sie haben oft einen anständigen headphone pre-amp mit eingebaut.
auf grund der abschirmung haben externe auch einen vorteil.
RT braucht auch Tensor nicht oder RT Cores zur Raytraversierung, derzeit ist das bekannte RTX inklusive Hardware eine Insellösung. Intel wird RTX nimmer unterstützen.Selten so einen Quatsch gelesen. SLI gibt es seit 3dfx Zeiten, weit vor Vulkan oder irgendeiner Relevanz von Linux.
das problem lag nicht an nvidia, amd oder den spieleentwickler, sondern an der windows 7,8,10 DX11/12 handbremse.
mit linux und durchgehender vulkan unterstützung hätte sich sli/cf prächtig entwickelt.
und jetzt hat man high-high end hardware wie die RTX2800+ und die windows 10 DX12 handbremse limitiert weiter.
raytracing wird sich am pc deswegen genauso wenig wie sli/cf, vulkan durchsetzen.
doch denen geht es gut!
die externen USB soundkarten verkaufen sich gut und das auch im hochpreissegment.
einzig die internen soundkarten sind verschwunden. aber die braucht auch niemand mehr.
vorteil der externen ist nun mal, das man sie auch leicht mit anderen geräten verwenden kann und sie haben oft einen anständigen headphone pre-amp mit eingebaut.
auf grund der abschirmung haben externe auch einen vorteil.
Klingt spannend. Mal sehen, wann AMD nachzieht.
Bei Grafikchips, bzw. 3D-Beschleuniger hatte es funktioniert, sie werden heute noch in jedem PC verbaut (nur in manchen Server wird darauf verzichtet, da eh keine Bildausgabe nötig ist).Dedizierte Spezialhardware hat noch nie funktioniert. Das würde RT kein bisschen voranbringen.
Eigentlich nicht. Außer du meinst die PS5 und dort ist unbekannt, ob AMDs Raytracing 1) ein PS5 exklusives Feature bleibt 2) dedizierte Hardwareeinheiten besitztIst doch längst bekannt, dass AMD spätestens mit Navi 20 hardwarebeschleunigtes Raytracing bringt.
Wollte ich ursprünglich auch schreiben, aber 1. der Trend gibt ihm recht und 2. gibts zu jeder Regel ja auch immer die Ausnahmen und zu der zählen GPUs halt - weil sie so viel Leistung brauchen.Bei Grafikchips, bzw. 3D-Beschleuniger hatte es funktioniert, sie werden heute noch in jedem PC verbaut (nur in manchen Server wird darauf verzichtet, da eh keine Bildausgabe nötig ist).
Grafikchips waren anfangs auf 2D-Funktionalität beschränkt, für 3D-Berechnungen gab es dann später die 3D-Beschleunigerkarten. Letztere konnte aber keine 2D-Bilder berechnen, war daher auf eine vorhandene 2D-Grafikkarte angewiesen.
Relativ schnell wanderten die 2D-Chips und 3D-Beschleuniger zusammen auf eine Karte, bis sie irgendwann zu einem einzigen Chip verschmolzen.
Nie ist daher falsch.
Es sind nicht die Tech Konzerne, sondern die Verbraucher, die das alles haben scheitern lassen. SLI und CF boten einfach nicht die Vorteile, die man versprochen hatte.
Irgendwann, vermutlich wenn es technisch nicht mehr weiter geht, wird man sich dem SFR zuwenden, gemeinsam genutzer RAM (und damit fast doppelt soviel) sowie keine Microruckler und schon wird sich das breit durchsetzen.
RT braucht auch Tensor nicht oder RT Cores zur Raytraversierung, derzeit ist das bekannte RTX inklusive Hardware eine Insellösung. Intel wird RTX nimmer unterstützen.
Ich würde jedem empfehlen sich dazu mit dem Rendering Framework zu beschäftigen (IFR), derzeit sind integrierte RT Cores vermutlich völlig aussen vor, was Xe betrifft. Wozu auch?
In dem Fall hast du natürlich recht. Grafikkarten aka 3D-Beschleuniger habe ich bei der Aussage nicht berücksichtigt weil sie ... nun ja ... den Desktop PC fast von Anfang an begleiten. Zudem können Grafikkarten heutzutage so viel mehr als nur Polygone anschubsen.Bei Grafikchips, bzw. 3D-Beschleuniger hatte es funktioniert, sie werden heute noch in jedem PC verbaut (nur in manchen Server wird darauf verzichtet, da eh keine Bildausgabe nötig ist).
Grafikchips waren anfangs auf 2D-Funktionalität beschränkt, für 3D-Berechnungen gab es dann später die 3D-Beschleunigerkarten. Letztere konnte aber keine 2D-Bilder berechnen, war daher auf eine vorhandene 2D-Grafikkarte angewiesen.
Relativ schnell wanderten die 2D-Chips und 3D-Beschleuniger zusammen auf eine Karte, bis sie irgendwann zu einem einzigen Chip verschmolzen.
Nie ist daher falsch.
Das finde ich jetzt aber etwas schwach als Verteidigung.In dem Fall hast du natürlich recht. Grafikkarten aka 3D-Beschleuniger habe ich bei der Aussage nicht berücksichtigt weil sie ... nun ja ... den Desktop PC fast von Anfang an begleiten. Zudem können Grafikkarten heutzutage so viel mehr als nur Polygone anschubsen.
Und ich finde es schwach, dass du nicht lesen kannst. Hauptsache den Schlaumeier raushängen lassen.Das finde ich jetzt aber etwas schwach als Verteidigung.
Atma schrieb:Grafikkarten aka 3D-Beschleuniger habe ich bei der Aussage nicht berücksichtigt weil sie ... nun ja ... den Desktop PC fast von Anfang an begleiten.
Ich könnte danach fragen woher deine Erkenntnis stammt, ziemlich vage Aussage. Dann klär mich doch bitte auf!Ich könnte genauso danach fragen wann AMD oder Intel endlich Nvidias G-sync unterstützen, oder wann Linux endlich den Microsoft-Kernel vollständig unterstützt.Raytracing benötigt zur Hardwarebeschleunigung sehr wohl dedizierte Einheiten zur Raytraversierung, alles andere wäre ineffizient.
Warum sollte man deiner Empfehlung folgen, wenn du daraus nur Vermutungen ableiten kannst und den Unterschied zwischen RTX und DXR nicht kennst? AMD wird eine Beschleunigung zur Raytraversierung auf die eine oder andere Weise umsetzen.
Wenn das nicht notwendig wäre, könnte AMD schon lange einen DXR Backend für Battlefield oder Metro anbieten.
Ich nehme an dir geht es darum die derzeitige Lösung von Nvidia in ein schlechtes Licht zu rücken. Inhaltlich gelingt dir das jedoch nicht.
RadeonRay ist schlicht eine Raytracing-Implementierung für OpenCL. Mit einem Support der Berechnungen in HW ala RTX hat das gar nichts zu tun.AMD hat schon ein solches Softwarebackend für Entwickler, weil man DXR dafür einfach hernehmen kann, vllt. ist dir das entfallen und mit RadeonRay arbeiten sie seit GCN mit an dergleichen Entwicklungen.
Offensichtlich schon, schließlich wird es bei AMD vor 2020 nichts geben. Das ist ziemlich "überrascht".Das nVidia sie überrascht hat glaube ich nicht.
Ok, NVIDIA hat also nie etwas wie CUDA oder G-Sync eingeführt. Na dannWas aus PhysX geworden ist, ist zweifelsfrei erkennbar. Jede dedizierte Techologie die nVidia die letzten Jahre versuchte zu vermarkten ist gescheitert. Zulasten der Käufer die das bezahlt haben.
RTX ist nichts weiter als ein auf DXR-basierender Softwarestack. Wenn es mal DXR-Implementierungen fernab von NVIDIA gibt, wird RTX-Software darauf genauso laufen, wie auf den RTX-Karten.Was das Thema RTX unter Metro und BFV angeht - ist das so nicht auf AMD Hardware lauffähig, weil man dafür die jeweilige API in die Gameengine implementieren muss, also bitte spreche nicht davon wer hier keine Ahnung hat. Ich glaube nicht das AMD oder Intel RTX unterstützen will. Das wäre so als wollten sie GPU PhysX unterstützen, haben sie das?
Und AMD. AMD hat mit den Ryzen APUs den Markt auf dem Desktop für sich alleine, Intel hat nichts vergleichbares zu bieten. Bei den Notebooks sieht das noch anders aus, das ist aber nur eine Frage der Zeit. Wie bei der Serversparte ist viel Überzeugungsarbeit und Durchhaltevermögen gefragt.
Du meinst nVidia hat keine Ahnung von ihrem eigenen Gameworks RTX Implementierungen. RTX ist in erster Linie und derzeitiger Iteration eine weitere Entwicklerschnittstelle für die eigene Hardware die bestimmte Studios favorisieren (vermutlich weil sie genug Kohle im Gegenzug bekommen - EPIC z.Bsp.), aber bei weiten nicht alle. DXR lässt sich über Compute ausführen, ohne RT- und Tensorcores. Genau dafür wurde es entwickelt. Da fließen keine RTX Standards ein, weil das eine Bevorzugung eines Herstellers wäre die Microsoft zu unterbinden hätte. Dein Beitrag ist wieder so pro nVidia und wissentlich unwahr - das man sich an den Kopf fassen muss, aber wie eigentlich jeder deiner Beiträge irgendeinen Pro-nVidia-Spekulatius enthält.RadeonRay ist schlicht eine Raytracing-Implementierung für OpenCL. Mit einem Support der Berechnungen in HW ala RTX hat das gar nichts zu tun.
Offensichtlich schon, schließlich wird es bei AMD vor 2020 nichts geben. Das ist ziemlich "überrascht".
Immerhin ist es ein Bestandteil von DirectX mit DXR. Mit dem Impact ist es ungefähr so, als wenn Microsoft mit 1809 ein DX13 veröffentlicht, NVIDIA beherrscht diesen Standard bereits und AMD liefert erst mit der übernächsten Generation diese DX-Version.
Wahrscheinlich hat bei AMD niemand damit gerechnet, dass NVIDIA so früh die passende HW fertig hat.
Ok, NVIDIA hat also nie etwas wie CUDA oder G-Sync eingeführt. Na dann
RTX ist nichts weiter als ein auf DXR-basierender Softwarestack. Wenn es mal DXR-Implementierungen fernab von NVIDIA gibt, wird RTX-Software darauf genauso laufen, wie auf den RTX-Karten.