Threadripper 3000 im Nacken: Launch des Intel Core i9-10980XE um sechs Stunden vorgezogen - erste Tests

Mehr als 20 Lanes. Aber man kann noch betonen, dass es wirklich um die Anzahl und nicht um die Datentransferrate geht. Mit knapp 40 GB/s direkt von der CPU und noch einmal 8 GB/s via I/O-Hub (letzterer verteilbar auf diverse Endgeräte) steht AM4+X570 verglichen mit den 48 + 4 GB/s von Cascade Lake X nämlich deutlich besser da, als es die reine Lane-Anzahl erwarten lässt. Und die "bis zu" 24 Lanes des X299 reißen den Karren auch nicht mehr aus dem Dreck, denn davon müsste man 16 investieren, um die USB- und SATA-Minimalausstattung des X570 zu erreichen, der seinerseits ebenfalls 16 Lanes zur AM4-Plattform beisteuert. Das ist zwar zugegebenermaßen ein extrem( sinnlos-)er Vergleich, zumal Intel einige USB 3.0 und 2.0 extra verbuchen könnte, aber wollte man auf Sockel-2066-Basis jede nicht-PCI-Express-Schnittstelle einer ausgereizten Ryzen-9-3950X-X570-Kombination bereitstellen, blieben nur noch 52 PCI-Express-3.0-Lanes übrig, während AMD 32 PCI-Express-4.0-Lanes bietet. Also mehr als die Hälfte an Datenleitungen mit doppelter Geschwindigkeit auf jeder einzelnen.

Ausgewogene/reale Systemabstimmungen sind nicht so extrem, aber mit zunehmender Verbreitung von PCI-E-4.0-Endgeräten wird Cascade Lake X nächstes Jahr auch bei den PCI-E-Möglichkeiten nur einen Gleichstand zur AM4-Spitze erzielen. Dann bleibt nur noch das Quad-Channel-Interface als Verkaufsargument, dass man aber mit einem leichten Preis- und deutlicheren Verbrauchsaufschlag bezahlt.
An die Datenraten Unterschiede hatte ich gar nicht gedacht. Aber um bei der Nische zu bleiben, man kann es so auslegen, dass viele Geräte noch kein PCIE 4.0 unterstützen und die größere Anzahl dann trotzdem besser ist, da die AMD-Lanes im Kompatibilitätsmodus laufen..

Ändert nichts daran, dass die Anforderungen sehr spezifisch sind.

Aber wie du richtig sagst. Angesichts des Grundverbrauchs machen solche Teile sowieso nur Sinn, wenn man sie auch nutzt. Ich persönlich hab selten große Compile/Transcode Projekte und die sind dann auch nicht zeitkritisch. Die lass ich dann halt über Nacht oder auf meinem alten X3430 laufen.
Aber der "Nerdgasm" und "Haben Will"-Effekt bei diesen Chips ist trotzdem gewaltig :ugly:

Und jetzt kommst du schopn wieder damit, wenn der Preis in Zukunft sinkt, das hier und jetzt zählt, ja ich 10 Jahren bekomm ich die CPU für 5 Euro auf ebay oder so, na und?
Sicher nicht. Bei dem Absatz, den ich mir zu dem Teil erwarte wird das mal ein seltenes Sammlerstück :devil:
 
Mir fällt nach wie vor kein Grund ein wieso ich als Zocker, wenn ich die maximale Spiele Leistung bei aktuellen Spielen haben will, irgendeine Ryzen CPU dem I9-9900K oder dem günstigeren I7-9700K vorziehen sollte.

Schon der I7-9700K ist beim Userbenchmark mit bis zu 4 Kernen und auch overclocked dem viel teureren Ryzen 3900X überlegen.

UserBenchmark: AMD Ryzen 9 3900X vs Intel Core i7-9700K

In Spielen ist der I7-9700K auch durchweg besser

i7-9700K vs Ryzen 9 3900X - Battlefield 1 mit GTX 1080 Leistungsvergleich - GPUCheck Germany / Deutschland

Interessant auch das AMD gerade bei Open World Spielen die Vorteile des hohen Thread Counts nicht nutzen kann. Gerade hier würde ich erwarten das sich das mehr ausbezahlt.

Ryzen 9 3900X: performance analysis • Eurogamer.net

Gefühlt ist AMD auf dem Papier und einigen synthetischen Benchmarks besser, aber in der Praxis macht sich das kaum bemerkbar.

Man fragt sich schon was AMD mit der 7nm Technik anstellt um kaum viel besser zu sein als Intel mit 14nm. Der Sprung müßte deutlich größer sein zumal Intel nebenbei auch noch eine Grafik Einheit auf der CPU unterbringen kann.

Woher kommt eigentlich dieser Hype um AMD CPUs? Nur weil sie mittlerweile nicht mehr ganz so weit hinterherhinken?

Das ist mir deutlich zu wenig als jemand den die pure Leistung im Hier und Jetzt interessiert. Es ist auch keineswegs sicher daß das mehr an Kernen sich in Spielen jemals bemerkbar macht.

Es ist auch ein Mythos das die Ryzens bei Videonachbearbeitung grundsätzlich besser sein soll.

Die wirklich guten Programme wie z.B. DaVinci Resolve verwenden fürs Encodieren die GPU, die CPU spielt hier keine Rolle. Entsprechend ist DaVinci Resolve beim Neukodieren eines 4K Videos außerordentlich schnell, sehr viel schneller als z.B. Avi Demux.

In der Praxis hat der typischen Privat Anwender bei AMD so gesehen kaum mal einen Vorteil. Zippen von Files wird man auch nicht ständig machen, ich zumindest nicht.

Das hier ist auch interessant. PC Welt tut zwar so als müßte der Ryzen 3950X für Spieler die beste Wahl ist, nur um das in ihren Benchmarks eigentlich durchgehend zu widerlegen.

Test: AMD Ryzen 9 3950X - maximale CPU-Leistung fuer Gamer und Kreative - PC-WELT

Ebenso interessant die Ergebnisse über den Stromverbrauch wo der 3950X auch schlechter abschneidet.
 
Mir fällt nach wie vor kein Grund ein wieso ich als Zocker, wenn ich die maximale Spiele Leistung bei aktuellen Spielen haben will, irgendeine Ryzen CPU dem I9-9900K oder dem günstigeren I7-9700K vorziehen sollte.

Ich sag dir warum man z.B. einen 3600 klar einem 9700k fürs Gaming vorziehen sollte.
Die gesparten 160€ werden in die GPU gesteckt und damit ist die Gesamtleistung beim Gaming ganz sicher höher.
 
Habe gehört, dass der Boost des 10980XE recht großzügig angegeben sein soll. Dabei hat Intel doch beim Ryzen noch letztens einen Aufriss gemacht und in Marketing-Folien drüber gelästert. Ich nehme an, dass Intel bereits neue BIOSe in der Mache hat oder wird das jetzt unter den Teppich gekehrt? :ugly:
 
Habe gehört, dass der Boost des 10980XE recht großzügig angegeben sein soll. Dabei hat Intel doch beim Ryzen noch letztens einen Aufriss gemacht und in Marketing-Folien drüber gelästert. Ich nehme an, dass Intel bereits neue BIOSe in der Mache hat oder wird das jetzt unter den Teppich gekehrt? :ugly:

Intel kann man doch nicht ernst nehmen. Die meinen auch, die Sicherheit hätte bei ihnen hohe Priorität.
 
Ich sag dir warum man z.B. einen 3600 klar einem 9700k fürs Gaming vorziehen sollte.
Die gesparten 160€ werden in die GPU gesteckt und damit ist die Gesamtleistung beim Gaming ganz sicher höher.
davon ab spielt heute kein Mensch mehr so wie damals ... heute laufen Software im Hintergrund ohne ende vom Browser ueber Teamspeak bis zum Download Manager oder diverse Publisher Clients und zwar oft gleichzeitig ! wer da meint das sich 8 + Kerne nicht auch beim Zocken bezahlt machen denn kann man nicht mehr Helfen ...
Benchmarks sind zum Vergleichen da , aber den Alltag spiegeln die hinten und vorne nicht mehr !
Habe gehört, dass der Boost des 10980XE recht großzügig angegeben sein soll. Dabei hat Intel doch beim Ryzen noch letztens einen Aufriss gemacht und in Marketing-Folien drüber gelästert. Ich nehme an, dass Intel bereits neue BIOSe in der Mache hat oder wird das jetzt unter den Teppich gekehrt? :ugly:

Wenn man die ganze CPU in ein enges TDP Korsett quetscht das die Leistung zum Teil sich nicht mal vom Vorgaenher wirklich abheben kann ohne das man was am Mobo dreht , dann kann man auch denn 4 Core Boost extrem hoch schrauben , was der noch so viel nutzen soll bei denn meisten Anwendungen so einer CPU ist die andere Frage , denn das meiste sollte auf deutlich mehr als 4 Kerne optimiert sein ...
 
Bei 30 Watt machst du einen grossen aufriss bei Grafikkarten, komisch bei CPUs sind 30 Watt egal?

Ich hab bei 30 Watt bei GPUs sicherlich nie einen großen Aufriss gemacht. Aber das kannst du ja auch wieder nicht belegen.
30 Watt hin oder her sind noch im Rahmen.

Ja, bei GPUS laberst du uns dauernd mit dem angeblich so tollen neuen Feautersets zu, ist das bei CPUS plötzlich irrelevant? Komisch

Zusammenhang/Kontext fehlt.

Bei 6% mehr Spiele leistung bei der CPU, sagst du, man muss Intel kaufen, da sind plötzlich 6% viel? Und hier egal?

Habe ich auch nie gesagt, ich habe sogar trotz 10 bis 15% weniger Leistung immer zum 3700x als Gaming-CPU anstatt zum 9900K geraten und mir selbst den 3700x gekauft.:P

Welcher Vorteil soll das sein?

HEDT, Quadchannel, Nische.

Und jetzt kommst du schopn wieder damit, wenn der Preis in Zukunft sinkt

Ok, perupp, dann rechnen wir den 3950x mit 949 Euro, kein Problem.;)
 
quadchannel kommt "langfristig" im mainstream an wenn es L4 cache cpu's gibt. wenn man den cache per kern anguckt ist der riesig im vergleich zu INTEL und für intel ist cache schweineteuer ggü kernen und taktrate.
 
quadchannel kommt "langfristig" im mainstream an wenn es L4 cache cpu's gibt. wenn man den cache per kern anguckt ist der riesig im vergleich zu INTEL und für intel ist cache schweineteuer ggü kernen und taktrate.
glaub ich nicht dran, mit DDR5 wird wieder ein kleiner Push kommen das es sich einfach nicht lohnt ... wenn du keine Dicke GPU hast merkst du aktuell nicht mal Single Channel beim Zocken ;)
 
Mir fällt nach wie vor kein Grund ein wieso ich als Zocker, wenn ich die maximale Spiele Leistung bei aktuellen Spielen haben will, irgendeine Ryzen CPU dem I9-9900K oder dem günstigeren I7-9700K vorziehen sollte.

Schon der I7-9700K ist beim Userbenchmark mit bis zu 4 Kernen und auch overclocked dem viel teureren Ryzen 3900X überlegen.

UserBenchmark: AMD Ryzen 9 3900X vs Intel Core i7-9700K

In Spielen ist der I7-9700K auch durchweg besser

i7-9700K vs Ryzen 9 3900X - Battlefield 1 mit GTX 1080 Leistungsvergleich - GPUCheck Germany / Deutschland

Interessant auch das AMD gerade bei Open World Spielen die Vorteile des hohen Thread Counts nicht nutzen kann. Gerade hier würde ich erwarten das sich das mehr ausbezahlt.

Ryzen 9 3900X: performance analysis • Eurogamer.net

Gefühlt ist AMD auf dem Papier und einigen synthetischen Benchmarks besser, aber in der Praxis macht sich das kaum bemerkbar.

Man fragt sich schon was AMD mit der 7nm Technik anstellt um kaum viel besser zu sein als Intel mit 14nm. Der Sprung müßte deutlich größer sein zumal Intel nebenbei auch noch eine Grafik Einheit auf der CPU unterbringen kann.

Woher kommt eigentlich dieser Hype um AMD CPUs? Nur weil sie mittlerweile nicht mehr ganz so weit hinterherhinken?

Das ist mir deutlich zu wenig als jemand den die pure Leistung im Hier und Jetzt interessiert. Es ist auch keineswegs sicher daß das mehr an Kernen sich in Spielen jemals bemerkbar macht.

Es ist auch ein Mythos das die Ryzens bei Videonachbearbeitung grundsätzlich besser sein soll.

Die wirklich guten Programme wie z.B. DaVinci Resolve verwenden fürs Encodieren die GPU, die CPU spielt hier keine Rolle. Entsprechend ist DaVinci Resolve beim Neukodieren eines 4K Videos außerordentlich schnell, sehr viel schneller als z.B. Avi Demux.

In der Praxis hat der typischen Privat Anwender bei AMD so gesehen kaum mal einen Vorteil. Zippen von Files wird man auch nicht ständig machen, ich zumindest nicht.

Das hier ist auch interessant. PC Welt tut zwar so als müßte der Ryzen 3950X für Spieler die beste Wahl ist, nur um das in ihren Benchmarks eigentlich durchgehend zu widerlegen.

Test: AMD Ryzen 9 3950X - maximale CPU-Leistung fuer Gamer und Kreative - PC-WELT

Ebenso interessant die Ergebnisse über den Stromverbrauch wo der 3950X auch schlechter abschneidet.

Aber auch nich spürbar lagsamer und mehr Kerne. Als Zocker kommst mit deinem Argumentationsschema eigentlich gar nicht am Ryzen vorbei... Alle aktuellen Games von 2018 bis heute laufen auf Intel CPUs gleich schnell wie mit Ryzen.

Wenn du 8C 16T haben möchtest, bekommst du das bessere Paket bei AMD, da einfach 130-170 Euro (der monetäre unterschied von einer 2060 super zu 2080) günstiger, wo für den Gamer wohl naturgemäß dann die GPU die bessere Investion ist. Keine Frage wäre der 9900k bei 350 Euro, könnte/müsste man diesen auch wieder empfehlen...

Und noch eins, der Threadripper ist keine Gaming CPU, sowie auch der 108xx Intel..., aber es gibt halt viele die ihren PC produktiv, sowie auch zum Gamen nutzen und somit einen guten Kompromiss suchen/brauchen. Für einen reinen Gamer macht weder der 12 noch der 16 Kerner oder Threadripper Sinn...
Dein verlinkter Artikel schreibt es doch schon in die Headline, "CPU Leistung für Gamer und KREATIVE"...
Bisher hat auch jeder Artikel mehr oder weniger betont, dass 16 Kerne nicht für reine Gaming Szenarios empfohlen werden...
 
Zuletzt bearbeitet von einem Moderator:
Der 3950x ist selbst für 949 Euro, die er aktuell kostet nicht mal vom PLV her besser als der 10980XE, ja gut vielleicht minimal.
Für was setzt du die CPU denn ein? Ich würde warten.



Es ist wie bei AMD wohl eine Art von Paperlaunch. Intel hat hier wirklich mal das absolut beste geliefert was denen möglich war. 10 Watt weniger Energieaufnahme und 17% mehr Leistung ohne Architektur oder Prozessverbesserungen.
Da wundert es nicht, dass die CPU ein Papiertiger ist, der AMD ist zumindest für nen Mondpreis lieferbar.



Auf Zen 3 musst du denke ich noch mindestens bis Q4 2020 warten, also da hat Intel noch ein wenig Zeit.
Durch die niedrigen Boardkosten von Sockel 2066, die ja schon bei 160 Euro anfangen, sehe ich das aber nicht so schlimm. Wer ein Intel HEDT System will, kann sich das schon noch neu kaufen.
Ich hätte da viel schlimmeres erwartet. +50 Watt und höchgstens 10% mehr Leistung für den 10980XE.

Ähm also nur mal so als Kurzer Hinweis - du bezeichnest einen Preis für eine CPU die moderner und schneller ist welcher Niedriger als der für den im veralteten Prozess gefertigten und langsameren Intel als Mondpreis?!?... dann hat Intel schon von Haus aus nicht nur Mondpreise... sondern... da wo "Voyager noch hin fliegt preise..."
Auf was willst du warten?? Auf das was Intel Bringt nachdem AMD Zen 3 gelauncht hat? Intel hat zur Zeit NIX im Köcher...und das ist für den Markt und alle Nutzer einfach mal gut so!
 
ich find es immer Lustig wenn die Leute mit Ihren .. aber mit meinem Intel bin ich in den Spieletests aber x,x% vorne - ätschi bätschi... Leute.. der limitierende Faktor bei Spielen ist.. lass mich kurz überlegen.. in den heute gängigen Auflösungen NIE!!! die CPU... deswegen testen die ja auch in "Diablo2-Auflösungen" - für den Test völlig o.k. aber an der Realität vorbei.. und die Leistung insgesamt - also vor allem in Anwendungen.. dafür wofür ein PC eigentlich gebaut wird... Zocken ist und bleibt Hobby und Nebensache oder seid ihr alle Zocker die damit Ihren Lebensunterhalt verdienen?.. nö.. also kauft euch mal ne Tüte Realismus!!! Der Grund warum man sich so einen Prozessor kauf ist nicht alleine die Gamingperformance, die er nebenbei auch noch hat, sondern der ganze Rest drumherum.. also alles.. Gesamtpaket nennt man sowas.. Da scheiß ich auf die paar Spielebenchmark wo dann ein Prozessor in unter HD-Auflösung 4 FPS mehr hat.. braucht kein Mensch...
Intel hat gute CPUs - ich fahr selber noch mit einem Rum - das seit Jahren und bin sehr zufrieden aber mich müsste man mit nem Hammer gebügelt sein, wenn ich jetzt oder auch nächstes Jahr eine Intel-CPU für ein Standgerät kaufe (bei Laptops muss AMD noch liefern...).
 
quadchannel kommt "langfristig" im mainstream an wenn es L4 cache cpu's gibt. wenn man den cache per kern anguckt ist der riesig im vergleich zu INTEL und für intel ist cache schweineteuer ggü kernen und taktrate.

Bluebird hat das schon angerissen, aber noch mal im Detail:
4-Kanal-Speicher im Mainstream bleibt vorerst unwahrscheinlich, denn das gesamte Design wird dadurch teuerer: mehr Slots, mehr Leitungen, möglicherweise alleine schon aufgrund dessen noch mehr notwendige Lagen im Mainboard-PCB. Zudem ist der Bedarf im Consumer-Segment mit seinen typischen Workloads diesbezüglich gering.
Micron gibt bzgl. realer Bandbreiten im Vergleich DDR4-3200 zu DDR5-4800 einen Bandbreitenzugewinn um 1,87x an und SK Hynix stellte bereits Ende 2018 erste DDR5-5200-16Gbit-Chips vor. Mit der Einführung von DDR5 wird man daher zweifelsfrei nicht noch gleichzeitig mehr Kanäle einführen, d. h. dein prognostiziertes "langfristig" wird deutlich jenseits 2023+ liegen. (Und ein L4-Cache würde der Speicherkanalverbreiterung im Mainstream aus Kostengründen zusätzlich entgegenwirken.)
Hinzu kommt, dass man DDR5 bei x86 frühestens ab 2021 erwarten kann *), denn Intel wird es Anfang des Jahres auf Sapphire Rapids-SP einführen. AMDs Zen4 folgt im 2HJ21 oder gar erst Anfang 2022 und wird DDR5 auch zweifelsfrei in den Mainstream bringen.

Auch bzgl. einem etwaigen L4-Cache muss man vorerst abwarten. Dieser verteuert das Chipdesign signifikant, sodass man einen solchen voraussichtlich erstmals bei hochkernigen Server-CPUs vorfinden wird. Im Mainstream dagegen ist der Kosten/Nutzen-Faktor relativ schlecht, sodass ich hier frühestens Zen4 annehme und ob eine solche Entwicklung auch so früh in die Consumer-Linie übernommen werden wird, bleibt vorerst abzuwarten.

*) Vielleicht greift man jedoch bei Mobil-CPUs vor, die keine relevanten Plattformabhängigkeiten aufweisen. Neue Zen3-Mobil-CPUs um den Jahreswechsel 2020/21 herum vielleicht. Zu Intels Tiger Lake-CPUs (Mitte 2020) gab es Gerüchte bzgl. einer (LP)DDR5-Unterstützung, jedoch bisher nur Gerüchte und keine bestätigten Aussagen.
 
Zuletzt bearbeitet:
quadchannel kommt "langfristig" im mainstream an wenn es L4 cache cpu's gibt. wenn man den cache per kern anguckt ist der riesig im vergleich zu INTEL und für intel ist cache schweineteuer ggü kernen und taktrate.

Quadchannel RAM würde die Boards um einiges teurer machen, da die PCBs aus deutlich mehr Lagen gepresst werden müssen. Dies ist auch der Hauptgrund wieso HEDT/Threadripper Boards so viel teurer sind als die der Mainstream Chips, denn bei der sonstigen Austattung der Boards selbst (nicht die des Chipsets) ist der Unterschied recht gering.
 
Wenn man die ganze CPU in ein enges TDP Korsett quetscht das die Leistung zum Teil sich nicht mal vom Vorgaenher wirklich abheben kann ohne das man was am Mobo dreht , dann kann man auch denn 4 Core Boost extrem hoch schrauben , was der noch so viel nutzen soll bei denn meisten Anwendungen so einer CPU ist die andere Frage , denn das meiste sollte auf deutlich mehr als 4 Kerne optimiert sein ...

Die 165 W TDP des 18-Kerners sind sehr großzügig, wenn man sie für maximalen Boosttakt auf nur 4 Kernen ausschöpft. Und vier schnelle Kerne sind in den meisten Spielen immer noch sehr viel wert, wie Tests mit 7700K im Testfeld immer wieder zeigen. Man kann heute nicht mehr guten Gewissens eine CPU empfehlen, die nur auf dieses Szenario zugeschnitten ist, da moderne Engines zunhemend gut mit 8 bis 12 Kernen skalieren. Aber wenn man die vier schnellen Kerne als Bonus in einem 18 Kerner erhält, sind sie für weniger gut optimierte Titel willkommen.
 
davon ab spielt heute kein Mensch mehr so wie damals ... heute laufen Software im Hintergrund ohne ende vom Browser ueber Teamspeak bis zum Download Manager oder diverse Publisher Clients und zwar oft gleichzeitig ! wer da meint das sich 8 + Kerne nicht auch beim Zocken bezahlt machen denn kann man nicht mehr Helfen ...
Benchmarks sind zum Vergleichen da , aber den Alltag spiegeln die hinten und vorne nicht mehr !


Wenn man die ganze CPU in ein enges TDP Korsett quetscht das die Leistung zum Teil sich nicht mal vom Vorgaenher wirklich abheben kann ohne das man was am Mobo dreht , dann kann man auch denn 4 Core Boost extrem hoch schrauben , was der noch so viel nutzen soll bei denn meisten Anwendungen so einer CPU ist die andere Frage , denn das meiste sollte auf deutlich mehr als 4 Kerne optimiert sein ...

Deswegen mag ich die Bezeichnung Gaming CPU nicht besonders. Ich erlebe es im Alltag immer wieder das User die eigentlich nur zocken wollen aber nicht so tief in der Materie drin sind dann auf einmal glauben sie müssten die CPU upgraden obwohl überhaupt kein Bedarf da ist.
Im moment finde ich das ein 6-8 Kerner hier der "Sweet Spot" ist. Mehr schadet natürlich nicht.
Ich persönlich hab noch einen ganz langweiligen 2600x. Bei UWQHD "bremst" der auch die Vega64 nicht aus.

Für einen Bekannten der ein recht enges Budget hat aber gerne in WQHD zocken würde weil der Monitor schon vorhanden ist hab ich folgendes im Auge.
R5 2600
Budget b450 Board
Vega 56
16MB
500er SSD
+ den Schmarrn aussenrum
Sein Budget sind 650,00 und in dem Bereich werden wir auch landen.
Dank AMD geht sowas. Vor nicht allzulanger Zeit hätte man gut das doppelte hingelegt.

Ich hoffe ich krieg noch eine Vega56 die werden nämlich langsam rar, ansonsten muss ich mal gebraucht schauen.
mMn gehts fast nicht günstiger ohne zu große Kompromisse einzugehen. Lass mich aber gerne belehren. Der Kollege hats wirklich nicht so dicke...



Zurück zum 10980XE
Ich frag mich wirklich wer den jetzt kaufen soll. Ich find keinen einzigen Anwendungsfall nicht mal theoretisch wo die Alternativen nicht besser wären.
Selbst ein 100% Hardcore Photoshopler der wirklich nur "Photoshoppt" greift lieber zum 9900ks. Gib es in der Praxis aber eigentlich nicht.
Man muss echt sagen die AMD Zange ist schon genial um den 10980XE^^ Mit dem TR3960X bekommt man mit 400€ Aufschlag brachial mehr Leistung und der 3950x ist im Prinzip genauso schnell aber günstiger.

Das einzige was mir wirklich Einfallen würde ware ein HEDT Budget System weil man unbedingt Quad Channel und mehr Lanes braucht.
Frage ist ob es solche Fälle überhaupt gibt....
Man könnte wirklich langsam Mitleid bekommen mit Intel und ich hoffe sogar das Intel doch was gegen den anstehenden Zen3 bringt.
Sowenig ich Intel mag, noch weniger mag ich einen zu einseitigen Markt...denn Intel in rot wär ja au nix.
 
Hier wurde der 3950x direkt mit dem 10980XE verglichen.
YouTube

Für alle die wirklich glauben Intel hängt jetzt nicht deutlich hinterher...nicht einmal die Halbierung des Preises helfen Intel im Moment. Der dürfte max. das kosten was der 3950x kostet und wäre nicht einmal dann aufgrund der teureren Plattform eine wirkliche Empfehlung.
 
"Threadripper 3000 im Nacken"

Schämt ihr euch eigentlich nicht für solche Überschriften? Als Erwachsener habe ich da schon keine Lust mehr, mir den Artikel überhaupt anzuschauen. Auch Nerds haben einen Anspruch auf halbwegs anständig formulierte Texte.
 
Zurück