Radeon RX 6800: Raytracing- und 3DMark-Performance geleakt

Nachverfolgen? Ich würde sagen aufgrund des Themas aufmerksam geworden [...]
Bei den besprochenen GPUs handelt es sich um einfache Konsumgüter, bzw. man kann die schon fast als Luxusgüter bezeichnen, denn die braucht fast kein Mensch wirklich, sondern etliche wollen diese lediglich aus Spaß an der Freud. Das ist ein komplett anderer Sachverhalt und hat mal rein gar nichts mit Lebensmitteln oder einer dort künstlichen (oder anderweitigen) Verknappung, etc. zu tun. (Und diese konkreten Produkte haben ebensowenig etwas mit "dem Aktienhandel" zu tun.)
Darüber hinaus, war hier meinerseits keine Ironie zu finden. Die Ironie hast du eher mit deinem erneuten Post zu dem Thema aufgeworfen, denn erneut verschwendest du hier maßlos Energie darauf etwas anzuprangern (oder gar ändern?) zu wollen, das sich nicht einmal mittelfristig ändern wird. Es gibt keinen ethisch unantastbaren blütenweißen Markt oder was dir da auch immer in einer Art Idealwelt vorschweben mag. Jeder ist auf seinen Vorteil bedacht und der Markt bringt diese gegenläufigen Tendenzen mal mit mehr und auch mal mit weniger Erfolg in Einklang, sodass das Gesamtkonstrukt dennoch funktioniert und praktikabel ist.
Die Firmen wollen einen möglichst hohen Preis ausrufen und die Käufer wollen einen möglichst niedrigen Preis und i. d. R. trifft man sich irgendwo in der Mitte. Und was so mancher Konsument dann gerne aus den dem Blick verliert ... wenn sich die Position verändert und sie zum Verkäufer werden, bspw. weil die etwas auf Ebay verkaufen, ihr Auto oder ihre Wohnung, dann wollen sie natürlich für sich selbst einen möglichst hohen Preis erzielen (idealerweise natürlich immer über dem allgemein üblichen Marktwert).

Wenn du hier Lebensmittelknappheit und die weltweite Verteilung dieser Ressourcen diskutieren möchtest, bist du hier schlicht im falschen Forum und Gaming-GPUs haben mit Sicherheit nicht einen solchen Stellenwert, als dass sie in diesem Kontext eine derartige Diskussion überhaupt verdienen.
(Zumal das momentane Preisgefüge nicht mehr als ein (temporäres) Luxusproblem ist, dass sich zudem absehbar nivellieren wird ... wenn sich hier derzeit wer unter Druck gesetzt fühlt dennoch gegen seinen Willen zu kaufen, hat vermutlich eher andere Probleme ;-))
 
Zuletzt bearbeitet:
Also ich hab mir jetzt mal die 9700 pro bestellt.
Keinen Bock mehr, stundenlang Tests und Statistiken zu wühlen.
Falls die 6900 doch besser ist, hab ich halt Pech gehabt.

Aber wie es scheint, laufen Command & Conquer Generals und Unreal 2 darauf mit anständigen FPS in 1600x1200. Und mit etwas Overclocking ist vielleicht auch etwas Anti-Aliasing drin.
Was will man mehr?
Oh man.. jetzt wirste ständig von 9800 Besitzern runter gemacht.. beide sind zwar over 9000, aber die 9800 ist halt mehr drüber.
 
war auch der Grund, warum AMD in den vergangenen Jahren mit den damals noch beschränkteren Ressourcen nicht im HighEnd angegriffen hat, weil das schlicht unverhältnismäßig/unvertretbar für sie war.
Da kann man eher davon ausgehen das die CPU Sparte die dringenste Baustelle war und den Vorrang bei allen benötigten Resourcen hatte. Erst musste der grosse böse Zen Wolf endlich aus dem Zwinger gelassen werden. Einen parallelen 2. Fronten Krieg dafür war ist AMD sicher nicht gross genug. So muss man halt ein Fuss (Entwicklung) vor den anderen setzten um nicht zu stolpern und sich das Genick brechen.
Oh man.. jetzt wirste ständig von 9800 Besitzern runter gemacht..
9800pro wer gibt sich denn mit weniger zufrieden? Eure Armut kotzt mich aber sowas von an. Das ist hier ein Entusiasten Forum und keins von der Bahnhofsmission.
 
Zuletzt bearbeitet:
Hat wer eigentlich iwo Werte von zB einem 5700XT mit radikalem UV? Was ich bis jetzt so gefunden habe sind so Settings, wo man rund 20W einspart bei minimal höherer Performance. Was ich suche ist wirklich radikales UV, nicht minimal Spannung runter und leichtes OC dabei. Ich bin am überlegen ob es möglich ist mit einer 6800XT massiv undervolted die Performance meiner alten 1080Ti zu erreichen, die hat ja rund 150-200W verbraucht mit 0.762V (je nach Game) und dies würde ich schon gerne toppen wollen verbrauchstechnisch, von mir aus mit minimal höherer Performance. Ja mir hat die Performance meiner alten 1080Ti gereicht (spiele sowieso kaum bis gar nicht).
Also mit Informationen zur 5700XT kann ich leider nicht dienen, hab mich aber auch schon immer für die Thematik interessiert was nach Unten maximal möglich ist.
Bei der Vega64 war ich 2017-2018 zum Beispiel extrem positiv überrascht, was die Karte mit einem um 50% verringertem Powertarget noch für eine Leistung entfalten kann.
220W @stock, abzgl. 50% PT, einfach im Wattman hierzu den Leistungstuning Regler nach unten gezogen, und die Karte taktet noch immer mit ~1,1GHz (stock 1,4-1,5GHz) und erzielte mit leicht angepassten Settings ~60FPS @4K in BF1.
Manuell Hand anlegen an den verschienden Powerstages, wie im Wattman möglich, würde ich im unteren Taktbereich dann gar nicht mehr empfehlen. Es liegen sowieso nur noch 800-900mW an und zu stark kastriert wird es entweder schnell instabil oder der Takt nach oben ist zu stark beschränkt.
Vega ist noch GCN und da kann sich also durchaus was bei RDNA1 geändert haben, vielleicht ist es für dich aber dennoch nicht ganz uninteressant.

Und nur um es nochmal zusammenzufassen, 4K, 60FPS, High-Settings in BF1 anno 2017-18, mit läppschen 110W und ner schnöden Vega64! (+ ReLive Capturing)
(Doppelbilder im Video bitte ich zu entschuldigen - hab das Video seiner Zeit etwas mit Vegas geschnitten und beim Videoexport eine Einstellung versemmelt)
Nach einer Minute switche ich ingame vom 60FPS Cap auf offene FPS.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

edit: bezogen auf deine Frage, zieh bei der 6800XT einfach mal das PT nach unten und du wirst staunen - so zumindest meine Annahme auf Grundlage meiner bisherigen Erfahrungen :daumen:
 
Zuletzt bearbeitet:
Erst musste der grosse böse Zen 1 Wolf endlich aus dem Zwinger gelassen werden. [...]
Na das hat ja schon damals nicht geklappt. Man musste zwangsweise mehr Kerne anbieten und auch mit einem niedrigeren Preis aufwarten .... wirklich konkurrenzfähig wurden sie erst letztes Jahr mit Zen2 und selbst der war im für den Mainstream wichtigen Workload "Gaming" immer noch nicht grundsätzlich die bessere Wahl.
Am Ende ein Ressourcen und damit natürlich auch Geldproblem bei AMD. AMD hat sich bei GPUs die letzten Jahre weitestgehend auf spezifische Märkte und Kunden konzentriert und damit auch gesicherte Absatzvolumina kalkuliert, auch wenn man dafür bzgl. der Marge Kompromisse eingehen musste. Die entwickelten Architekturen verwendete man dann erst als Zweitverwertung für sich selbst (und darüber hinaus auch noch zwangsweise übermäßig lange) und koppelte diese dann nachgelagert als allgemein verfügbare PC-Produkte aus. Nichts anderes ist ja auch RDNA2, das exklusiv für Sony und Microsoft entwickelt wurde und was auch der Grund war, warum es vor dem Konsolen-Launch keine Raytracing-Hardware von AMD geben durfte (voraussichtlich auch, warum es kein Renoir mit RDNA gab/geben durfte) und warum deren Marketingabteilung die Community mit so viel heißer Luft die letzten 24 Monate hingehalten hatte.
Wenigstens dürften sie diese Durststrecke mittlerweile hinter sich haben, der Konsolendeal ist abgeschlossen und mittlerweile verdienen sie ordentlich, sodass man auch mal wieder für sich selbst entwickeln kann. Die Aufteilung von RDNA und CDNA zeigt ja bereits, dass da nun deutlich mehr geht (man das aber auch nicht missverstehen darf, denn das wurde zeitlich mittlerweile auch zwangsweise notwendig, denn andernfalls würden sie abgehängt werden, da die Märkte mittlerweile zu weit auseinanderdriften und man mit einem einheitlichen (kostengünstigen) GPU-Design nicht mehr den gesamten Markt optimal bedienen kann, d. h. es wurde höchste Eisenbahn ... ;-))
 
Nicht richtig. Viele aktuelle RT Titel haben Raytracing via der Nvidia propriären Technik implementiert und nicht über DX12 DXR. Die meisten aktuellen Raytracing Titel werden somit auch nach dem RDNA2 Start (leider) weiterhin nur mit RTX Karten Raytracing ausgeben können. Außer die Spieleentwickler legen nochmal Hand an... aber eher unwahrscheinlich. :/
Kannst Du das bitte genauer erklären? Nach meinen Infos hat doch MS mit Nvidia bei DXR zusammengearbeitet. Wozu dann eigene Technik?
 
Bei den besprochenen GPUs handelt es sich um einfache Konsumgüter, bzw. man kann die schon fast als Luxusgüter bezeichnen, denn die braucht fast kein Mensch wirklich, sondern etliche wollen diese lediglich aus Spaß an der Freud. Das ist ein komplett anderer Sachverhalt und hat mal rein gar nichts mit Lebensmitteln oder einer dort künstlichen (oder anderweitigen) Verknappung, etc. zu tun. (Und diese konkreten Produkte haben ebensowenig etwas mit "dem Aktienhandel" zu tun.)
Darüber hinaus, war hier meinerseits keine Ironie zu finden. Die Ironie hast du eher mit deinem erneuten Post zu dem Thema aufgeworfen, denn erneut verschwendest du hier maßlos Energie darauf etwas anzuprangern (oder gar ändern?) zu wollen, das sich nicht einmal mittelfristig ändern wird. Es gibt keinen ethisch unantastbaren blütenweißen Markt oder was dir da auch immer in einer Art Idealwelt vorschweben mag. Jeder ist auf seinen Vorteil bedacht und der Markt bringt diese gegenläufigen Tendenzen mal mit mehr und auch mal mit weniger Erfolg in Einklang, sodass das Gesamtkonstrukt dennoch funktioniert und praktikabel ist.
Die Firmen wollen einen möglichst hohen Preis ausrufen und die Käufer wollen einen möglichst niedrigen Preis und i. d. R. trifft man sich irgendwo in der Mitte. Und was so mancher Konsument dann gerne aus den dem Blick verliert ... wenn sich die Position verändert und sie zum Verkäufer werden, bspw. weil die etwas auf Ebay verkaufen, ihr Auto oder ihre Wohnung, dann wollen sie natürlich für sich selbst einen möglichst hohen Preis erzielen (idealerweise natürlich immer über dem allgemein üblichen Marktwert).

Wenn du hier Lebensmittelknappheit und die weltweite Verteilung dieser Ressourcen diskutieren möchtest, bist du hier schlicht im falschen Forum und Gaming-GPUs haben mit Sicherheit nicht einen solchen Stellenwert, als dass sie in diesem Kontext eine derartige Diskussion überhaupt verdienen.
(Zumal das momentane Preisgefüge nicht mehr als ein (temporäres) Luxusproblem ist, dass sich zudem absehbar nivellieren wird ... wenn sich hier derzeit wer unter Druck gesetzt fühlt dennoch gegen seinen Willen zu kaufen, hat vermutlich eher andere Probleme ;-))
Lies doch meinen Post nochmal; dann stellst Du (ggf.) fest, dass ich bereits zwischen Lebensmitteln und anderen Konsumgütern unterschieden hatte; das Beispiel diente zur Veranschaulichung der Methode der gezielten Verknappung, durch den keinerlei Mehrwert erzeugt, aber der Preis nach oben getrieben wird - was ich persönlich und für unanständig halte (auch wenn es sich, wie bereits festgestellt, im vorliegenden Fall nur um GPUs handelt).

Grüße

phila

P.S.: "Ironie aufwerfen" und "ethisch unantastbar" halte ich für semantisch inkorrekt.
 
Zuletzt bearbeitet:
Finde ich schön, dass AMDs Karten besser sind als NVidia`s
Wo sind die besser? Das wird sich erstmal zeigen müssen. Besser wären sie mit einem DLSS-Ersatz vlt. Aber wer weiß wann das kommt. Mich interessiert vor allem, ob AMD es diesmal schafft vernünftige Kühler auf ihre Karten zu bringen. Da hat Nvidia bei der 3090 nen Brett vorgelegt.
 
Also, wenn man Bildqualität ohne Murks möchte, greift man zu AMDs neuer Serie. Verstehe ich das richtig? :D
War das nicht schon immer so das NVIDIA hier besch...
Als ich von meiner 1060 im alten Rechner auf die 5700XT im neuen System gewechselt habe, ist mir als erstes die wesentlich bessere Bildqualität ins Auge gestochen. Da gibt es sogar ein Video irgendwo, wo schön erklärt wird wo und wie hier NVIDIA trickst.
 
eGPU ist so eine Sache, da wirst du bis UHD recht stark von der Bandbreite limitiert.
Ich bin mit meiner eGPU Lösung im Moment ziemlich zufrieden. Aber genau der Punkt, den Du ansprichst, wäre für mich der Grund in eine Grafikkarte zu investieren, die mir UHD ermöglicht... ggf. die 2080 Ti oder eben die 6800XT, aber bei der würde ich zunächst warten wollen, was die Kollegen bei igpu.io berichten.

Grüße

phila
 
Nichts anderes ist ja auch RDNA2, das exklusiv für Sony und Microsoft entwickelt wurde
Exclusiv nur wenn du damit die Konsolen Custom Socs für Sonys und MS meinst die ja. Denn das RNDA2 grundsätzlich für die beiden eine exclusiv Entwicklung gewesen sein sollte das wäre mir jetzt neu ausserdem für AMD ziemlich sinnfrei.
Aber da hast du bestimmt eine fachkundige Quelle die sicherlich die Grundlage deinerAussage ist. Lass uns doch bitte mal daran teilhaben.
Danke
im für den Mainstream wichtigen Workload "Gaming"
Für den Mainstream wichtigen Workload das ist garantiert "nicht Gaming". Der grösste Teil aller PCs fristet ein trauriges Arbeitsgerät im Büro Alltag. Das ist der OEM Bereich mit dem Intel grossteils zu dem wurde was sie heute sind. Dann noch die Serversparte - Workstations und Notebooks/Laptops und dann laaaange nix bis Gaming auftaucht.
warum es kein Renoir mit RDNA gab/geben durfte)
Da die Apus immer eine Generation hinterher waren mussten diese zuletzt noch mit einer optimierten Vega auskommen.
Eine völlig neue Architektur was RDNA Gen.1 nunmal war braucht da erstmal Testzeit mit Lernphase und ein gewisses Erfahrungspotenzial um dann eine weitergehende Verwendung auch in anderen Produktbereichen/Apus/SoC zu haben . Die war dann wohl mittlerweile ausreichend vorhanden und so wurd es dann gleich Gen.2 für die custom SoC. der Konsolen.
Wie die PS5 und Box angekündigt wurde dachten die meisten auch erst an Vega als GPU Part dann kam aber Gen. 1. und Vega war aus dem Rennen. Das man schon die aktuelle Gen.2 inkl. Rayfunktion in den Konsolen hat kam dann letztenendes doch eher unerwartet.
 
War das nicht schon immer so das NVIDIA hier besch...
Als ich von meiner 1060 im alten Rechner auf die 5700XT im neuen System gewechselt habe, ist mir als erstes die wesentlich bessere Bildqualität ins Auge gestochen. Da gibt es sogar ein Video irgendwo, wo schön erklärt wird wo und wie hier NVIDIA trickst.

Jetzt mal ganz ehrlich, ich dachte schon ich bin dumm! Hatte vorher ne Vega56 für 210 damals im Abverkauf gezogen, und hab mir dann letztens gebraucht ne 2080Ti mit Garantie und alles weg gesnackt, als die alle so billig waren.

Ich dachte echt ich bin bescheuert oder so, aber ich hatte auch den Eindruck, dass die Bildqualität einfach schlechter als vorher war, besonders bei Übergängen und so, Farbverläufen und so... ich hab seit Wochen versucht an meinem Bildschirm, an den Farbeinstellungen und sonstwo alles mögliche zu drehen, aber mit der Vega hatte ich einfach den Eindruck, dass das Bild etwas schicker war.

Ich werde trotzdem die 2080Ti auf jeden Fall behalten, denn in Sachen FPS sind das Welten, so flüssig wie das jetzt rennt, will ich sicher nicht zurück, auch wenn es mich hin und wieder etwas stört mit der Bildqualität.
 
Jetzt mal ganz ehrlich, ich dachte schon ich bin dumm! Hatte vorher ne Vega56 für 210 damals im Abverkauf gezogen, und hab mir dann letztens gebraucht ne 2080Ti mit Garantie und alles weg gesnackt, als die alle so billig waren.

Ich dachte echt ich bin bescheuert oder so, aber ich hatte auch den Eindruck, dass die Bildqualität einfach schlechter als vorher war, besonders bei Übergängen und so, Farbverläufen und so... ich hab seit Wochen versucht an meinem Bildschirm, an den Farbeinstellungen und sonstwo alles mögliche zu drehen, aber mit der Vega hatte ich einfach den Eindruck, dass das Bild etwas schicker war.

Ich werde trotzdem die 2080Ti auf jeden Fall behalten, denn in Sachen FPS sind das Welten, so flüssig wie das jetzt rennt, will ich sicher nicht zurück, auch wenn es mich hin und wieder etwas stört mit der Bildqualität.
AMD/ATI hatte schon immer eine wärmere Bildausgabe dagegen wirkt die Bildausgabe der NV Karten zum Teil steril. Viele empfinden daher die Bildausgabe der AMD Karten daher als besser, ich auch ;).
Ist aber Subjektiv.
 
Das wird eng für Nvidia falls amd wirklich ein DLSS Gegenstück bringt, was ja nach Release kommen soll. 3090 wird aber vermutlich vorne bleiben.
Man muss aber auch bedenken das die AMD Treiber in Sachen RT sicher noch weiter optimiert werden.
Wird spannend.
 
Exclusiv nur wenn du damit die Konsolen Custom Socs für Sonys und MS meinst die ja. Denn das RNDA2 grundsätzlich für die beiden eine exclusiv Entwicklung gewesen sein sollte [...]
Natürlich die Konsolen-SoCs, was denn sonst? RDNA2 ist die Architektur, die AMD speziell für Sony/Microsoft entwickelt hat und deren Entwicklung wurde bereits in 2018 abgeschlossen. Erstes Silizium gab es gemäß üblicher Timelines schon im 2HJ18, allerspätestens zum Jahresende hin, aber keinesfalls später.
Hätte AMD frei über die IP verfügen können, hätten sie RDNA2 (bzw. das, was sie jetzt als RDNA2 bezeichnen) auch direkt in 2019 auf den Markt bringen können, vielleicht einige wenige Monate später als Navi aber dafür direkt mit einem Knall, aber das durften sie offensichtlich nicht, was recht absehbar auf die Vertragsgestaltung mit Sony/Microsoft zurückzuführen sein dürfte. Entsprechend musste AMD ein Light-RDNA auskoppeln um etwas Geld zu verdienen, denn mit dem mittlerweile angestaubten Polaris/Vega konnte man in 2019/20 nun wirklich nicht mehr konkurrieren, also musste Navi her, dass in wesentlichen Teilen jedoch abgespeckt werden musste, damit man den Vertrag mit Sony/Microsoft nicht verletzte.
Und nichts anderes wird auch absehbar der Winkelzug um Renoir herum gewesen sein, denn den Aufwand der beträchtlichen Überarbeitung von Alt-Vega hätte man auch genausogut in die Anpassungen von RDNA an das Mobile-Design stecken können (und die notwendigen Aufwendungen wären hier gar möglicherweise noch geringer ausgefallen, denn immerhin ist das ursprüngliche Design grundsätzlich für ein SoC ausgelegt). Offensichtlich war so etwas jedoch nicht gewollt, was auch nicht verwunderlich ist, da Renoir bereits Anfang 2020 von AMD vorgesehen war und damit gut ein 3/4 Jahr vor den Konsolen auf den Markt kommen sollte, jedoch, wenn man mal von ein paar Customizations absieht, in weiten Teilen einem Konsolen-SoC entsprochen und damit dem deutlich später stattfindenden Konsolen-Launch einen nennenswerten Teil seiner Luft abgelassen hätte. Dass so etwas seitens Sony/Microsoft nicht erwüsnscht ist, dürfte wohl offensichtlich sein, schließlich bezahlten sie ja auch für die Entwicklung und AMD wird das zweifelsfrei auch irgendwie eingepreist haben in den Verträgen.
Rechne dir einfach mal 1:1 zusammen, das ist in dem Falle gar nicht so schwer, bzw. unter rein wirtschaftlichen Aspekten und mit Blick auf AMDs bisheriges Entwicklungsverhalten gar eher schon offensichtlich (das ist es übrigens nicht erst jetzt, also quasi schon fast im Nachhinein, wo man weiß, dass AMD tatsächlich nicht mit einer Raytracing-fähigen GPU vor den Konsolen auf den Markt kommt, sondern das wurde auch schon in 2HJ19 recht deutlich, dass da absehbar nichts kommen würde, bis die Konsolen da sind. Dazu muss man nun wirklich kein Orakel sein.)

Und btw., dass die Konsolen Raytracing unterstützen würden, war spätestens seit 2018 keine unerwartete Überraschung mehr, seit klar war, dass von nVidia entsprechende Hardware kommen würde, denn dass die neuen Konsolen über 2 Jahre später ohne diese Technik kommen würden und dann auch noch zwangsweise für die nächten Jahre danach darauf verzichten müssten, war wohl das absehbar unwahrscheinlichere Szenario.
Darüber hinaus ist AMDs RDNA2/Raytracing-Patent von Ende 2017 und mögicherweise konnte sich nVidia schon in 2018 daher leicht ausrechnen, dass man sich die nächsten zwei Jahre bzgl. Raytracing in einer konkurrenzlosen Situation befinden würde.

Bezüglich Workloads: Ich sprach über einen relevanten Workload. In Office-PCs spielt es nach wie vor keine nenennswerte Rolle was du da verbaust, nicht einmal stromtechnisch. Richtig interessant ist erst Renoir als Ryzen Pro geworden und der ist noch nicht lange auf dem Markt und den kann AMD nur in beschränkten Stückzahlen liefern, aber zumindest hat man nun was anzubieten, mit dem man tatsächlich Paroli bieten kann. Die APU-Vorgänger waren aus gutem Grund keine echte Option bei den OEMs und einen Zen2 mitsamt GPU zu verbauen fiel wohl aus ebenso leicht nachvollziehbaren Gründen nur den wenigsten ein.
Darüber hinaus entwickelte sich AMD mit Zen auch primär über den Consumer-Markt (Desktop wie Mobile), denn in allen anderen Segmenten konnte man vorerst kaum punkten. OEMs konnten nicht viel damit anfangen (in Business-Notebooks blieb Zen eine Seltenheit, vornehmlich in Consumer-Geräten fand das Wachstum statt), Naples interessierte quasi gar nicht und war eher ein Achtungserfolg, während die Industrie auf Rome wartete und auch im Workstation-Bereich nahm man erst so richtig mit dem zweiten Threadripper Fahrt auf (wobei Threadripper ursprünglich nicht einmal geplant und bugetiert war, sondern eher ein Abfallprodukt von Naples war). Und erst mit Zen2 geht AMD die OEMs so richtig an, unterliegt dabei aufgrund seiner eingeschränkten Ressourcen aber offensichtlichen Beschränkungen, sodass sie sich fokussieren müssen, so bspw. bei den APUs (Ryzen Pro) und beim Threadripper Pro, der vorerst Lenovo-exklusiv vertrieben wird.
Es hatte durchaus seinen Grund, dass Intel 2018 und 2019 recht unbeeindruckt von AMD Rekordergebnisse eingefahren hat ... und selbst dieses Jahr ist es eher Covid als AMD, die Intel's Umsatz/Gewinn einen leichten Dämpfer verpassen (konkret wird Intel seinen Umsatz erneut steigern, aber wohl dieses Jahr etwa 1,5 Mrd. US$ weniger Gewinn erwirtschaften).
 
Zurück