AMD: Navi 3x mit doppeltem Cache pro Compute-Einheit und Shader-Array

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD: Navi 3x mit doppeltem Cache pro Compute-Einheit und Shader-Array

Nachdem AMD erste Linux-Treiber für die kommenden RDNA-3-Grafikkarten bereitgestellt hat, wurden diese in der Community genaustens beäugt und interessante Entdeckungen gemacht. Demnach sollen die neuen GPUs im Vergleich zu RDNA 2 wesentlich größere Cache-Mengen bieten und neue Instruktionen mitbringen. Lesen Sie dazu im Folgenden mehr.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMD: Navi 3x mit doppeltem Cache pro Compute-Einheit und Shader-Array
 
klingt gut

Mal schauen, ob bei Navi33 dann mooore Lvl 0+1 den geringeren IF-Cache + nur 128bit kompensieren kann, vgl. mit meiner 6800 bis zu einer 6900
(für FHD+WQHD wirds sicher gut funzen und evtl. klappts ja auch mit der Effizienz, weil der kleinere IF und die mickrigen 8GB dann weniger verbrauchen und es kommen ja die IPC-Dingens, die Moore´s Law erklärt dazu)

... soll trotzdem mit 6nm@200W ungefähr die Rasterleistung der 6900-7nm@300W haben, Hut ab!
(das wäre ja tatsächlich 50% effizienter)

btw.
Da hat Intel mit A770-6nm@225W noch viiiiel zu tun, ... um konkurrenzfähig zu werden.
 
Zuletzt bearbeitet:
Da hat Intel zweifellos noch viel zu tun, aber der Vergleich ist auch vollkommen schief, denn Alchemist ist ja gerade mal deren Erstlingswerk. Intel selbst sieht sich erst mit der 3rd Gen Celestial mit der Konkurrenz "vollends auf Augenhöhe", d. h. in 2024. Ob das so kommen wird, wird man abwarten müssen.
Will man derartige Vergleich, wie von dir vorgelegt, anstellen, müsste man wohl eher gegen das durchwachsene Navi10 / RDNA(1) vergleichen, dass es trotz deutlich modernerem Fertigungsprozess nur gerade so schaffte mit Turing mitzuhalten und featuretechnisch zudem noch deutlich schwächer aufgestellt war als die Konkurrenz. Und entgegen Intel handelte es sich hierbei noch um ein relativ aktuelles AMD-Produkt und nicht etwa um irgend eine Art "Erstlingswerk".

Btw ... RX 6900 XT-Leistung bei nur 200 W und nur im N6 (weil Navi33) erscheinen nicht übermäßig wahrscheinlich. Bereits die RX 6700 XT ist mit 230 W spezifiziert und recht weit entfernt von dem Topmodell und der Wechsel auf den N6 gibt nicht viele Power Savings her zumal man sich hier implementationstechnischzwischen zwischen den beiden P's entscheiden oder einen Mittelweg nehmen muss. Und ein architektonisches "Wunder" wird man wohl nicht erwarten können, also wird es entweder mehr Verbrauch oder weniger Leistung werden um deine Aussage in brauchbarer Form beibehalten zu können.

*) Die bisherigen Perf/Watt-Werbeaussage von AMD zu RDNA3 inkludieren zweifellos die Zugewinne durch den 5nm-Prozess und beziehen sich garantiert nicht nur auf architektonische Verbesserungen. Entsprechend werden nur wenig Zugewinne zum N6 zu realisieren sein, zumal AMD bereits auf der 2nd-7nm-Gen N7P fertigte und jetzt für den neuen Mittelklassechip nur auf die 3rd-Gen in Form des N6 wechselt.
 
Du bist auch gut darin die Dinge auszulegen wie du sie haben willst. Jedenfalls manchmal. Die Radeon Technology Group musste viel vertrautes und gewohntes über den Haufen werfen und quasi ebenfalls ein ganz neues Konzept entwerfen. Du bist doch wohl erfahren genug um zu wissen wie schwer es fällt alte Muster abzulegen, oder? Intel hat zudem bereits einmal den Desktopmarkt betreten und hatte durch über zehn Jahre iGPUs auch schon Erfahrungen sammeln können. Gerade was die Treiber anbelangt. Nein, Intel war nicht grün hinter den Ohren und AMD musste zwar nicht zurück bis auf los, aber auch von der neuen Straße ist es ein weiter Weg, wenn man nicht die geübten Pfade nutzen darf. Deine Aussage ist ansonsten okay, aber hier hast du schlicht eine größere Distanz segen wollen als wirklich vor ihnen lag.
Zudem denke ich, dass Intel noch eine Gen mehr brauchen wird als du oben meintest. Den bitte dran, dass Intel auch der Meinung war man würde etwa auf Höhe eine 3060ti bis 3070 landen. Das haben sie nicht geschafft. Wenn man jetzt einfach davon ausgeht dass es ähnlich weiterhin verläuft, dann ist die 4th Gen das früheste zu erwartende Produkt welches wirklich in die Enthusiastenklasse schaffen könnte. Wie gesagt, das denke ich. Meinst du nicht, dass nur zwei weitere Inkarnationen etwas zu optimistisch ausfallen könnten?
 
Zuletzt bearbeitet:
Zudem denke ich, dass Intel noch eine Gen mehr brauchen wird als du oben meintest.
Das hat er nicht gesagt, er hat nur Intels eigene Aussage zitiert...

Den bitte dran, dass Intel auch der Meinung war man würde etwa auf Höhe eine 3060ti bis 3070 landen.
Mit den aktuellen Treibern liegt die größte ARC Karte auf Augenhöhe oder über der 3060 in DX11 / 12 Titeln. Das ist für Intels erste dGPU seit Ewigkeiten, die zudem bereits mehr oder weniger veraltet ist, gar nicht mal schlecht. Finde ich zumindest.

Das haben sie nicht geschafft. Wenn man jetzt einfach davon ausgeht dass es ähnlich weiterhin verläuft, dann ist die 4th Gen das früheste zu erwartende Produkt welches wirklich in die Enthusiastenklasse schaffen könnte. Wie gesagt, das denke ich. Meinst du nicht, dass nur zwei weitere Inkarnationen etwas zu optimistisch ausfallen könnten?
Ich denke die nächste Intel Gen könnte bereits mit der dann aktuellen Mittelklasse von NV/AMD mithalten, solange Intel nicht wieder 6-9 Monate verspätet auf den Markt kommt. Eine weitere Gen und man könnte bereits im oberen Segment angekommen sein.

Warum auch nicht? AMD hat auch innerhalb von 4 Jahren eine ernsthafte DLSS Konkurrenz auf die Beine gestellt, und beim Raytracing legen sie auch zu. Wieso sollte das für einen Konzern mit quasi unendlichen Mitteln nicht möglich sein? Am Ende kochen die alle nur mit Wasser, und es sind ja diverse AMD / NV Mitarbeiter abgeworben worden (nicht nur Raja...).
 
Der cache sagt erstmal nix außer da der SI entlastet wird.
Sprich da gehen schneller daten durch was der Bandbreite zum vram wirkt.

So zu den grenzen die min nötig sind für 1080p 1440p 2160p
Derzeit Konsole maßgebend
1080p +200gb/s entspricht der ps4
1440p ~350gb/s entspricht der ps4 pro
2160p ~930gb/s entspricht derzeit keiner Konsole

Nu zu n33 diese hat 4096 alu die vermutlich bei 2,8ghz ihre grenze Erreicht was am 6nm liegt da geht schlicht nicht mehr. Mit glück bei Anpassung der arch vielleicht 3,0ghz daraus ergibt sich maximal 23tf die bei nen 128bit Si mit 20gbps ~320gb/s + 2,8*128*0,47= 489gb/s
Eventuell schafft man durch den vergrößerten cache nochmal die hitrate auf 0,75 zu setzen was dann 588gb/s ergibt.
Die rx6800 (19tf) erreicht mit dem 256bit si und 16gbps + inf cache= 800gb/s
Amd muss also bei der neuen arch arg am Speichersystem gearbeitet haben damit man diesen Bandbreiten Verlust aufheben kann.
Außer amd nutzt 24gbps dann sieht das anders aus ~652gfb/s bei 2,8ghz und 672gb/s bei 3,0ghz
Die tf bleiben aber identisch und nein die ipc kann man mit cache nicht steigern das geht nicht bei nen linearen Aufbau von directx/ogl/vulkan.
Bei cpu's ist das eine andere Geschichte da man da daten vorausberechnen kann.
 
Schau Dir erstmal das Video von ML an.

Es geht bei Lvl 0+1 um ganz andere Zugriffe, ... und OREO spart anscheinend Zugriffe von 0 auf 1, 1 auf 2, 2 auf 3/IF
und 3/IF auf Vram. ... würde denken, das die größere Effizienz net erst beim Zugriff auf den Vram entsteht.
Ganz nebenbei entsteht weniger Leerlauf/Wartezeit für die Shader, wenn die Daten net erst in nem weiter entfernten
Lvl 2+3-Cache oder gar Vram zwischengespeichert werden müssen. (Leerlauf kostet unnötig Watt)
zusätzlich
In dem Sinne auch mehr kleinere WG`s und mehr ROP´s / Shader, die Diese dann noch besser auslasten.
(sollte man bei Deferred Lighting messen können)
Wenns dann mit mehr Takt bei 80% Shadercount für dieselbe Perf. reicht, ... hat AMD alles richtig gemacht.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

btw.
Ob INTEL zig Gens braucht um aufzuschließen, weiss ich net. Man könnte ja erstmal nächstes Jahr das Problem
mit dem Speicherkontroller angehen. (war schon komisch, das ohne rBar gar nix geht)
 

Anhänge

  • ML@RDNA3.jpg
    ML@RDNA3.jpg
    354,7 KB · Aufrufe: 7
  • ROP per Shader.png
    ROP per Shader.png
    13,6 KB · Aufrufe: 5
Zuletzt bearbeitet:
Also wenn man davon ausgehen muss, dass die Einzelchips wie bei den CPU's dann miteinander über langame Leitungen kommunizieren müssen, ist der Cache natürlich extrem wichtig, wie wir ja schon gesehen haben.
Aber das ist ja auch der Vorteil von AMD, dass man jetzt schon Jahre der Erfahrung in den Ring wirft, während andere das noch vor sich haben und experimentieren müssen, um die Kosten und den Nutzen auszuloten, und evt. Optimierungen zu erreichen, um die letzten Prozent aus der Technik hrauszukitzeln.
 
Mit den aktuellen Treibern liegt die größte ARC Karte auf Augenhöhe oder über der 3060 in DX11 / 12 Titeln. Das ist für Intels erste dGPU seit Ewigkeiten, die zudem bereits mehr oder weniger veraltet ist, gar nicht mal schlecht. Finde ich zumindest.
Warum soll die Intel-GPU veraltet sein wenn sie noch nicht mal offiziell released ist? Man kann ja nur vergleichen, was es auch auf dem Markt gibt. Was gleichzeitig auch bedeutet: die Bewertung der Alchemist-GPUs kann man erst dann realistisch vornehmen wenn man sie testen kann. Ahnen ist nicht wissen, und so....🤷‍♂️
 
Warum soll die Intel-GPU veraltet sein wenn sie noch nicht mal offiziell released ist? Man kann ja nur vergleichen, was es auch auf dem Markt gibt. Was gleichzeitig auch bedeutet: die Bewertung der Alchemist-GPUs kann man erst dann realistisch vornehmen wenn man sie testen kann. Ahnen ist nicht wissen, und so....🤷‍♂️

Weil die Karten bereits seit 6+ Monaten draußen sein sollten, hat sich halt verzögert aufgrund der Treiber. Das wird bei der nächsten Intel Gen nicht passieren.
 
Weil die Karten bereits seit 6+ Monaten draußen sein sollten, hat sich halt verzögert aufgrund der Treiber. Das wird bei der nächsten Intel Gen nicht passieren.
Noch ist bei Intel nichts in Trockenen Tüchern und Intel hatte schon mal eine GPU Abteilung die geschlossen wurde wenn ich mich richtig entsinne um die 2010er Jahre.
 
Du bist auch gut darin die Dinge auszulegen wie du sie haben willst. [...]
Nein, in dem Falle hast es eher du dir zurechtgebogen wie du es brauchtest. AMD ist seit Jahrzehnten im Consumer-Geschäft unterwegs, glaubt man der hiesigen Fanbase von LowEnd bis HighEnd (und gar vollends konkurrenzfähig zum Marktführer ;-)) und jetzt auf einmal soll Intel, nur damit man sie ordentlich "abstrafen" (oder was auch immer) kann, im GPU-Segment einen zu AMD vergleichbaren Stand haben? War das ein ungewollter Witz von dir?
Intel hatte mal mit der i740 vor über 20 Jahren (!) einen (!) zaghaften Versuch, bei dem es sich zudem auch noch nur um ein zugekauftes Design handelte und als dieses relativ schnell von ATI und nVidia überholt wurde, stellte Intel das Projekt ein und das eingekaufte Design wanderten in die Chipsatzgrafik, die jedoch einem vollkommen anderen Zweck diente.
Und ja, die waren im Vergleich zu den etablierten beiden Grafik-Playern sehrwohl relativ grün hinter den Ohren, denn in jedem anderen Kontext käme wohl niemand auf die Idee Intel hier im GPU-Segment mit AMD oder nVidia gleichzustellen oder Intel auch nur annährend in deren Nähe zu rücken.

Und nein, es gibt es auch nichts zu bedenken, da es niemals offizielle Aussagen von Intel zu dem anvisierten Leistungsbereich gab (sondern immer nur ein schwammiges "Enthusiast GPUs", mehr dazu unten). Die kolportieren Aussagen zur 3060 Ti bzw 3070 stammten allesamt aus Leaks und letzten Endes scheint Intel diesen Korridor durchaus grob erreicht zu haben, denn so wie es sich aktuell darstellt, ist die A770 wohl etwas schneller als die einfache 3060 und verfügt zudem anscheinend über eine bessere Raytracing-Implementation als AMDs RDNA2. Darüber hinaus verbot es sich Intel anscheinend per se grundlegend hier mit konkreten Aussagen hausieren zu gehen, da es schlicht zu viele Variablen gab, zweifelsfrei auch bzgl. des Siliziums, im Besonderen aber bzgl. der Treiber. Die Release-Verzögerungen kommen ja nicht von Ungefähr, weil das ein Riesenberg Arbeit ist, denn Intel da für ihre 1st Gen abzuarbeiten hat und der ist dennoch natürlicherweise bei den Tausenden von Titeln nicht zu bewältigen, so dass man hier und da Abstriche macht und bspw. ältere DX-Versionen über Microsofts Kompatibilitätsschicht rendern lässt.
Natürlich hätte ein Konsument immer gerne ein vom Start weg perfektes Produkt gehabt, aber das Problem bei einem solchen ist grundsätzlich ebenso immer, dass der natürlich nicht bereit wäre, dieses perfektionierte Produkt zu bezahlen, denn die softwareseitigen Aufwendungen sind immens, da sich viele Entwickler anscheinend nicht an den DX-Standard halten, bzw. wie T. Petersen es mal nebenbei fallen ließ, den Eindruck machten, als wenn einige niemals einen Blick in die API-Spezifikation geworfen hätte und statt einem DX-Titel eher einen nVidia-Titel entwickelt hätten. ;-)
Beispielsweise Imagination Technologies hat nicht ohne Grund so lange gezögert mit ihrer recht guten Hardware eine Entscheidung zugunsten eines PC-Comebacks im unteren Marktsegment zu treffen und ob sie das nun mittlerweile trotz existierender Zusage auch tatsächlich durchziehen werden, bleibt vorerst weiterhin abzuwarten. Absehbar werden die aber bspw. bzgl. älterer DX-Versionen vergleichbare Shortcuts zu Intel treffen, weil das schlicht eine Frage der Wirtschaftlichkeit ist und sich ebenso auf DX12 und Vulkan konzentrieren.

Abschließend zu der von dir zitierten "Enthusiastenklasse": Da du keine Referenz definierst, kann man kaum über diese Aussage streiten, denn was Enthusiast-Grade-Hardware ist, ist durchaus frei definierbar und grundlegend ein sehr dehnbarer Begriff. Selbst bei einigen hier im Forum beginnt der Bereich bereits bei 300+ € (oder gar weniger) für eine dedizierte GPU.
Darüber hinaus hatte Intel aber auch niemals den Eindruck erweckt im "echten" (;-)) HighEnd mit dem ersten Wurf mitspielen zu wollen und nimmt man es noch genauer, kann man Intel bzgl. dieser schwammingen Aussage "Ethusiast GPU" kaum einen Strick drehen, da nahezu alles, was sie als dedizierte GPU rausbringen im Vergleich zu ihren bisherigen GPUs "Enthusiastenklasse" ist und da nicht vorgegeben ist, woran ein derartiger Vergleich gemessen werden muss, erscheint es durchaus legitim von ihnen derart zu formulieren. (Beispielsweise bei AMD fallen mir da bzgl. Raytracing und auch dem V-Cache weitaus fragwürdigeren Formulierungsweisen ein.)

Darüber hinaus, die Aussage zu Celestial, der 3rd Gen in 2024, ist lediglich das Zitat einer Intel-Aussage (Koduri, wenn ich mit recht erinnere) und nicht meine Interpretation. Darüber hinaus haben ich deren Aussage bisher so verstanden, dass sie sich Feature- und bspw. Effizienz-technisch ab Celestian (2024) in etwa gleichwertig zur Konkurrenz sehen. Der Rest ist lediglich eine Skalierungsfrage bzgl. der GPU-Bauweise und -Größe.

Konkret würde ich gar davon ausgehen, dass die bereits schon mit der 2nd Gen Battlemage in 2023 im HighEnd mitspielen werden, auch wenn ich nicht davon ausgehe, dass sie gegen die Top-Lovelace/RDNA3-Produkte konkurrieren werden. Xe war grundlegend auf eine MCM-Bauweise ausgelegt und (auch hier wieder einigen über die Monate erschienenen Brotkrumen folgend, die hier und dort jedoch durchaus Sinn ergeben und plausibel erscheinen) bereits HP demonstrierte dies und HPC setzte dies auch schon längst in beeindruckender Art in die Tat um. Koduri bestätigte schon vor längerer Zeit in einem Interview, dass man an einem Multi-Tile-GPU-Design arbeitet (übrigens etwas, das AMD mit ihrem ersten Wurf a la RDNA3 anscheinend in der allgmein verstandenen und erhofften Form nicht umsetzen wird, da es hier anscheinend nur ein monolithisches Graphics Chiplet pro GPU geben wird). Bei Alchemist und auch HP sprach wohl noch einiges dagegen, bspw. möglicherweise die Effizienz des damalig zur Verfügung stehenden EMIB, da der Kommunikationsaufwand in einem GPU-Produkt weitaus größer ist als in einem CPU-Produkt, so dass es sich möglicherweise noch nicht rentierte diese nomals aufwendigere Technik bereits mit Alchemist in den Markt zu bringen. Zudem bleibt auch hier die Frage nach der treibertechnischen Umsetzung, die ebensowenig trivial ist. Möglicherweise haben hier mehrere Faktoren zusammengespielt, aber dem aktuellen Vernehmen aus der gut informierten Gerüchteküche nach soll Battlemage in 2023 nun tatsächlich ein echtes MCM-Design werden, d. h. man kann die GPU-Größe vergleichsweise leicht skalieren und dürfte auch deutlich größere GPUs anbieten können. Der Rest ist eine Frage des Prozesses (Effizienz) und Packagings und hier hat Intel in beiden Fällen Zugriff auf modernste Technologie, sodass sie sich für den kosten/nutzentechnisch optimalen Weg relativ frei entscheiden können (also etwas, dass für Umsatz und Gewinn am besten ist und nicht etwa den Enthusiast-Gamern die meinsten FPS bringt; manche verwechseln hier nur allzu gerne die Perspektive eines solchen Unternehmens mit ihrer eigenen als einfacher Konsument; nicht auf dich bezogen).
Wie gesagt, denke ich nicht, dass es in 2023 für sie wirtschaftlich ist gegen das oder bspw. die beiden obersten, größten Modelle der Konkurrenz konkurrieren zu wollen, da man selbstredend immer noch weniger Vertrauen in ihre neue Hardware haben wird, aber ebenso würde ich erwarten, dass die das mit Battlemage unterstützte Leistungsspektrum nochmals ausbauen werden und zwar im Vergleich zu Lovelace und RDNA3.
Treibertechnisch, sofern das Multi-Tile-Design nicht ganz eigenen Probleme hinzufügt, werden sie per se keine größeren Probleme mehr haben, da bis Battlemage noch einiges Wasser den Rhein hinunterfließen wird und bereits den letzten Berichten zufolge lassen sich auf der aktuellen Alchemist-Serie die aktuelleren Titel schon recht gut spielen und Intel macht stetig Fortschritte bei der Treiberentwicklung, sodass ich davon ausgehen würde, dass der Launch der NextGen in diesem Sinne weitaus "unspektakulärer" verlaufen wird als noch in diesem Jahr, wobei man zudem natürlich auch bei dem ganzen Tohuwabohu um ARC auch berücksichtigen muss, dass es den Medienvertreter vielfach nur um Klicks geht und so manches zum hundertdrölfzigsten Male totberichtet wurde und dem ein oder anderen Forenuser es schlicht um die Pflege ihrer Feindbilder geht (nicht auf dich bezogen). Entsprechend, nichts wird so heiß gegessen wie es gekocht wird.
Sofern ein P. Gelsinger nicht noch irgendwann ums Eck kommt und den Consumer-Produkten den Stecker rauszieht (der AXG als Ganzes wird das per se nicht widerfahren), werden die Treiber zunehmend besser, die Leistung wird sich damit auch noch in kleinerem Rahmen softwaretechnisch weitersteigern und im kommenden Jahr wird es für den meisten, relevanten, aktuellen Content warscheinlich schlicht nur noch heißen "it just works".

Wenn Intel den richtigen Preispunkt trifft (bzw. es sich erlauben kann diesen zu treffen), werden die gesichert Abnehmer für ihre Produkte finden, schlicht weil der Markt im Großen und Ganzen primär nach P/L geht. Die aktuellen Verzögerungen sind aus wirtschaftlicher Sicht für sie zweifellos unschön, da man gegen Ampere und RDNA2 auf längere Zeit einen besseren Stand gehabt hätte, während man nach aktueller Stituation nur noch bestenfalls 4 - 6 Monate Zeit haben wird, bevor die NextGen in dem Leistungssegment kommt, aber das ist nun einmal etwas, das man sich selbst eingebrockt hat, jedoch darüber hinaus haben die schon in 3Q21 kommuniziert, dass es zu Beginn erst mal ausschließlich um den Markteintritt und eine Etablierung der neuen Produkte geht (mal ganze abgesehen von dem Henne-Ei-Problem, sprich es muss erst mal auch eine installierte Basis im Markt geben, damit sich Entwickler überhaupt nennenswert Gedanken über die neue Grafikarchitektur machen). Das Geldverdienen kommt erst später. Zudem bleibt auch weiterhin zweifelhaft, inwiefern Alchemist wirklich was für die hier im Forum diskutierende Klientel ist, denn glaubt man den hier und da vereinzelt an die Oberfläche kommenden Aussagen, so scheint Intel mit dem Alchemist-Kontingent grundsätzlich größtenteils den OEM-Markt anvisiert zu haben, letzten Endes auch eine plausible Strategie, da man hier leichter mit Volumen und Rabatten einen Einstieg hinbekommt, d. h. im Retail-Markt werden per se nur vergleichsweise wenig Karten laden und da darf man dann erst mal gespannt abwarten, was das mit deren Preisen machen wird.

Das schöne ist letzten Endes an der Geschichte, dass man sich deren Treiben auch erst mal in Ruhe ansehen kann (irgendwer wird deren Prodsukte per se kaufen), denn es ist ja nicht so, als wenn es keinen volumenproduzierenden GPU-Hersteller am Markt geben würde oder deren Produkte unbrauchbar wären. Produkte gibt es genug, so mancher kommt aktuell zu einer günstigen GPU ob der deutlich Preisnachlässe aufgrund des zu großen Lagerbestandes und wenn Intel in der kommenden oder gar erst in der übernächsten Generation (bei Intel ist das gemäß aktueller Roadmap im Jahresturnus eine neue Architektur) ein einigermaßen gutes Bild abliefern kann kann man die ja relativ entspannt in die nächste Kaufentscheidung miteinbeziehen ... oder man lässt es einfach. Warum hier dagegen so manche derart viel Energie in irgendwelche Hate-Speeches investieren, erschließt sich mir daher nicht bzw. ist per se vollkommen sinnlos, da der Markt insgesamt hier weitaus rationaler an eine Kaufentscheidung herangeht.
 
Erstmal Danke für die ausführliche Reaktion, aber wo genau schreibe ich denn, dass ich Intel mit AMD oder Nvidia gleichsetze? Ne, nicht im Ansatz. Intel bedient aber seit zehn Jahren den Desktopmarkt mit iGPUs und mindestens ebenso lange sind sie Marktführer im Bereich Notebooks. Dort ist die iGPU zu 99% die einzige Grafikeinheit und muss sowohl Anwendungen wie auch Spiele darstellen ohne Fehler. Erfahrung im Umgang mit Treibern, Spielen und Programmen haben sie also mehr als genug.
 
Zuletzt bearbeitet:
Zurück
Oben Unten