Intels 7-nm-Prozess mit Problemen: CPUs erst frühestens Ende 2022; GPUs potenziell von Dritten

Ich könnte jetzt wieder über "Amerikaner" im Allgemeinen lästern. Wann immer ich in den letzten Jahrzehnten mit amerikanischen Ingenieuren zusammenarbeitete, schlug ich die Hände über den Kopf zusammen, weil es nie eine systematische Fehleranalyse gab. Da wurde hier geschraubt und da verstellt und jetzt geht es. Warum denn? Das ist egal, es geht. Schnell sind sie ja, aber ohne Methodik. Da wird man waaaahnsinnig.

Das ist kein Vorgehen, um Problemen auf den Grund zu gehen. Ich kenne es nur aus dem gröberen Maschinenbau, mag sein, dass es mit Microelektronik anders ist. Alles sehr schade. Wobei sich die 14nm Dinger immer noch gut schlagen. Ich suchte Gestern Tests im Vergleich der modernen Vierkerner und Ryzen 3 3300X und Intel 3-10320 nehmen sich in der Tat wenig. Noch hat Intel sind gutes Niveau, wenn AMD aber bald mit 5nm kommt, wird die Luft einfach zu dünn für Intel.

Das liegt wohl am Job... Ich habe und hatte eher mit Elektronikern und Software Ingenieuren zu tun und die waren recht gründlich in ihrer Analyse.
Allerdings gab es auch da ein paar Nulpen, die alles über den Daumen gemacht haben.
 
Wer weiß was du dir bei deinen skurillen Vergleichen immer zurecht biegst, zumal es einen 3700k doch von intel gibt ;)




Der einzige der mal wieder wie üblich direkt am Thema vorbeigesegelt ist und es sich so zurechtbiegt wie er braucht bist du. Zum Thema Stromverbrauch zählt eben nicht nur die reine Wattzahl, sondern auch die dafür gelieferte Leistung und wenn AMD da aktuell ~16% effizienter ist, ist das schon eine Menge. Da sich der Abstand mit Zen3 nicht veringern wird und wir dann mal schnell bei 30% und mehr sind... Aber das weißt du bestimmt wieder unter den Tisch zu kehren.




Das ist keinesfalls schräg, sondern wird bei Leuten die Fachwissen haben (wozu du anscheinend definitiv nicht zählst) berücksichtigt. Und das aus dem ganz simplen Grund, da PCIe4 Mainboards einen höheren Stromverbrauch haben als ihre älteren Pendandts. Von daher ist das mehr als nur legitim danach zufragen, da intel eben kein PCIe4 bietet. Man sollte beim Featereset ja immer fair bleiben. Ich gehe ja auch nicht hin und such mir einen Bench raus der bei intel dank der Verwendung von AVX512 einen höheren Stromverbrauch wie bei AMD verursacht...




Das man bei deinem Ruderboot keinen Wind aus den Segeln nehmen kann ist ja nicht verwunderlich, jedoch segelt mein Boot perfekt im Wind, daran ändert auch deine Unwissendheit nichts, denn der einzigste der sich mal wieder gehörig widerspricht bist du :schief:
Du sprichst davon, dass intel günstiger fertigen kann, belegst dies aber mit keinem einzigen Beispiel, da es diesbezüglich keine Zahlen von intel gibt (aus gutem Grund vermutlich!). Ansonsten ist das was du behauptest reinster BS vom feinsten. Diese Vorteile die du ansprichst lassen sich eben nicht in einen geldwerten Vorteil umrechnen vor allem nicht in dieser Stückzahl, da geht es allein darum was kostet mich Summe xy im Fremdbezug und was in der Eigenfertigung. Zusätzlich zu dem Kostenvorteil werden dann die andere Argumente wie Unabhängigkeit, höhere Flexibilität (wobei man das mit den Designs auch mit dem zu infrage kommenden Fertiger klärt, aber das nur am Rande) und intel hat sich dafür entschieden, dass ihnen die Unabhängigkeit wichtiger ist. Weil z.B. die Forschungskosten bei TSMC verteilen sich auf deutlich mehr Kunden wie nur AMD...
Wäre im übrigen BWL Semester 1, wo man das lernt. Vielleicht kommst du ja mal noch dahin...




Das ist falsch... Bestes Beispiel ist Apple die lassen alles fremdfertigen und es wäre mir neu, dass die schlechte Ergebnisse einfahren... oder schau dir Nvidia an, auch die haben eine bessere Marge wie intel. Aber glänze ruhig weiter mit deinem Unwissen...




Habe ich dir bereits erklärt, dass sie ihre großen Monster DIEs für den Servermarkt eben nicht so günstig in ihrem hochoptimierten 14nm Prozess herstellen können... Siehst du doch auch an den Preisen die sie dafür abrufen, dass man die nicht für nen Appel und nen Ei rausschleudern kann.



Lesen und Verstehen scheint wohl offensichtlich nicht zu deinen Stärken zu zählen! Wo habe ich denn davon gesprochen, dass intel Verlust mit ihrer Fertigung macht? Den Satz darfst du mir gerne mal zeigen. Ich sprach lediglich davon, dass Eigenfertigung nicht zwingend billiger ist wie Fremdbezug. Wie man von dieser Aussage auf Eigenfertigung=Verlust kommt, darfst du uns gerne mal erklären.
Ansonsten wieso soll ich Zahlenmaterial liefern? Du bist doch derjenige der felsenfest behauptet, dass intel günstiger fertigt ohne jemals einen Beweis dafür erbracht zu haben... Ich hab lediglich den Einwand gebracht, dass Fremdbezug eben nicht immer teurer ist wie Eigenfertigung (dafür gibt es in der Literatur im übrigen genügend Beispiele) und solange du keine Belege für deine Behauptung hast bleibe ich dabei, die günstige intelfertigung ist ein Mythos, vor allem wenn man sich nvidia im Vergleich ansieht, die mit reinem Fremdbezug deutlich bessere Margen wie intel haben und wie intel selbst im Bereich Grafik auch Marktführer sind.
Zudem fertigt auch intel nicht zum Selbstkostenpreis, auch die müssen die Kosten für F/E drauf schlagen... Aber sowas wüsste man auch, hätte man mal ein Semester BWL besucht...




Ist mir bewusst, dass TSMC nicht von heute auf Morgen das ganze Volumen von intel fertigen könnte... Aber wo habe ich das behauptet? Richtig, nirgends!
Es ging einzig und allein um die Tatsache bzw. die Behauptung von dir, dass intel günstiger fertigt (wofür du uns immernoch Beweise schuldest). Und da sie aktuell wohl mit dem Gedanken spielen, die Grafikkarten extern produzieren zu lassen, scheinen sie wohl doch auch offen dafür zu sein, einzelne Produktgruppen extern zu fertigen. (was nicht heißen muss, dass man plötzlich alles extern fertigt!)
Aber das hast du bestimmt nur wiedermal überlesen...



Der einzige der hier mit seinem Unwissen immer noch einen drauf setzt bist du mein Freund... Ich habe dir aus betriebswirtschaftlicher Sicht erklärt, dass eine Fremdfertigung durchaus günstiger sein kann, es aber durchaus auch Gründe gibt die gegen einen Fremdbezug sprechen. Diese in der Regel aber nicht finanzieller Natur sind. Nur offensichtlich verstehst du das nicht...




Bei diesem Postingteil fällt mir nur eins ein, Fremdschämen pur!
Nehmen wir uns einfach mal cb, die stellen es etwas übersichtlicher dar wie pcgh:
Chipfertigung: Intel nennt ein Jahr Verspaetung fuer 7‑nm‑Prozess - ComputerBase
Wie Gewinn zustande kommt weißt du? Umsatz - meinen Kosten = Gewinn
Dann schreibt cb, dass der Umsatz um 20% und der Gewinn um 22% gestiegen ist, also eine minimal bessere Marge. Dann steht in dem Artikel auch, dass 52% auf den Bereich „Data-centric“ entfällt, welcher mit 34% gewachsen ist und auch den Bereich Server enthält. Und jetzt die Quizfrage an dich, wo werden wohl die höchsten Margen erzielt und wo spielen dadurch die Fertigungskosten nur eine untergeordnete Rolle (zumindest aus aktueller Sicht, da AMD nicht die Stückzahl liefern kann, um intel zu zwingen den Preis im Serverbereich so massiv zu senken, dass es ihnen weh tut)? Richtig im Serverbereich... Von daher ist es nur logisch, dass der Quartalgewinn für intel gut ausfällt.
Ansonsten darfst du uns auch gerne nochmal erklären, wieso eine teurere Fertigung automatisch ein Verlust bedeutet, solange ich meine Produkte mit ausreichend hohem Preis verkaufen kann. Porsche fertigt in Stuttgart auch deutlich teurer wie BYD in china und weißt dennoch einen ordentlichen Gewinn aus... Des Weiteren ging es lediglich um die Frage was günstiger Fremdfertigung oder Eigenbezug und beides heißt nicht automatisch man macht Gewinn oder Verlust...

Aber dann beantworten wir dir noch deine Fragen zu AMD. Dir ist bekannt, dass die Marge seit Einführung von Zen um ca. 11% Punkte gestiegen ist?
Dir ist auch bewusst, dass im Serverbereich deutlich bessere Margen existieren und AMD da noch sehr zaghaft vertreten ist und die Steigerung hauptsächlich aus dem Desktop bereich kommt? Was darauf hindeutet, dass sie mit Ryzen auch im Desktopbereich gut verdienen.
Dir ist zudem bekannt, dass AMD ungefähr gleich viel Mitarbeiter wie Nvidia hat, jedoch CPUs und GPUs entwickelt? Wodurch sich logischerweise die Marge erst bei deutlich mehr Umsatz noch signifikant verbessert. Denn die Entwicklerteams wollen bezahlt werden, ob du 100 oder 100k CPUs verkaufst.
Ansonsten schau dir die Margen von Nvidia an und die nagen ja schon am Hungertuch, weil die Fertigung bei TSMC so exorbitant teuer ist... Apple scheint mir auch kurz vor dem Bankrott zu sein, die sollten sich lieber eigene Fabs zulegen:schief:



Ich ignoriere überhaupt nichts, nur du scheinst etwas schwer von Begriff zu sein... Wenn intel noch länger bei 14nm+++ steckt und neue Designs mehr Cache benötigen und dadurch größer werden, wachsen die DIEs und es kann schnell mal unwirtschaftlich in einigen Bereichen werden bzw. die Marge verschlechtern.
Das ein Monolithisches Design bis zu 8-10 Kernen günstiger ist habe ich auch nie bestritten, ansonsten kannst du den Ausschnitt auch gerne zeigen wo ich das tue! Ich hab mich auf das margenträchtige Segment bezogen, wo es richtig weh tut, wenn ich teuer fertige und der Konkurrent die Preise drückt, denn das geht richtig auf die Marge! Oder meinst du ernsthaft intel juckt großartig ob sie im Desktopbereich 10 Dollar mehr oder weniger pro CPU verdienen? Das ist zwar ärgerlich, aber daher kommt nicht die fette Marge!
Und wenn man sich die aktuellen Preise anschaut, scheint AMD selbst mit einem 3600 für um die 160€ noch gutes Geld zu verdienen, von daher können die Preise bei TSMC doch nicht so ruinös sein ;)
Und wenn du bei AMD so penibel genau bist, bei intel solltest du dann die Umrüstungskosten der Fabs von 10nm zurück auf 14nm auch mit hineinrechnen... Dazu die Kosten die durch die ganze Verzögerung der 10nm und durch die 7nm Fertigung entstehen. Den Kunden Apple hat man dadurch verloren, wo rechnest du das mit rein?
Sich hier einfach hinstellen und behaupten die Fertigung von intel ist sooooooo super günstig ist halt leider nicht so, vor allem nicht, wenn man das Argument nicht mit einer einzigen Zahl belegen kann...
Und noch ein wichtiger Punkt ist die Yieldrate, würden wir die von beiden kennen, könnte man das super vergleichen und zumindest bei intels 10nm Prozess wissen wir, dass die langezeit so schlecht war, dass sie sich nur für Dualcores gelohnt hat... Wo schreibst du diese ganzen Kosten hin? Geht auch alles auf die Marge!



Wieso sollte mich das hier im pcgh Forum nicht interessieren? Es geht hier um die Quartalszahlen von intel und da hat der Bereich, in dem die Server CPUs vertreten sind einen Umsatzanteil von 52%. Klar es passt natürlich nicht in deine Argumentation der günstigen Fertigung, deswegen versucht man es dann unter den Tisch zu kehren...
Ansonsten wo kommen deine Phantasiezahlen mit einem Viertel günstiger zu fertigen her? Eine 28 Core CPU dürfte jetzt nicht die super Yield Rate haben, zudem benötige ich dann auch wiederum zwei Stück um wenigstens einigermaßen konkurenzfähig zu sein... Und auch, wenn AMD dort aktuell noch wenig verkauft ist das der Bereich, der intel am meisten interessiert, da der am meisten Kohle bringt!
Ich glaube intel würde AMD liebend gerne 30% des Desktopmarktes geben, wenn sie dafür weiterhin den Servermarkt mit einem Marktanteil von über 90% dominieren würden. Denn da wird die Kohle gemacht und man kann auf den Desktopmarkt verweisen, dass man doch einen ernstzunehmenden Konkurrenten hat.




Dass dies betriebswirtschaftliche Gründe hat kann man ausschließen, die Tatsache liegt eher in der Entwicklungszeit! Zen gibt es seit 2017 und glaubst du intel ändert mal kurz innerhalb von 3 Jahren ihre komplette Roadmap und bringt gänzlich neue Architekturen? Zumal sie erst mit Zen2 gesehen haben, dass sie damit deutlich im Kostennachteil sind... Mit einer tiefblauen Brille kann man sich das natürlich schönrechnen, aber wenn intel diesen Ansatz auch verfolgen will, dann wird dies auch eine Weile dauern...

Fremdbezug und Eigenfertigung bitte! Wieso soll bei Intel alles gut sein? INTEL Bilanz GuV | Kennzahlen | Umsatz | Gewinn | finanzen.net Könnte eben so langsam anfangen Richtung abnehmender Umsatz und Gewinn gehen!
 
Ja, außer wenn man Live Streams machen will, gleichzeitig noch aufnimmt und spielt. Also ab und zu mangelt es schon noch an Rechenleistung. Der Windows Defender soll sich auch schier unendlich viel CPU Leistung bei einem Scan gönnen, es sei denn ihm werden Ketten angelegt. ;)
Zum Encodieren des Streams nimmt man ja nicht die CPU, dafür hat die Graka einen Hardwareencoder drin. Von 8/16 AMD Kernen plus 5700XT würde ich auch behaupten, dass diese den meisten Leuten zum nebenher Streamen oder Netflix glotzen ganz gut reichen werden. Der Defender macht keine Komplettscans beim Gaming und wenn dann zieht der auch weniger die CPU Leistung in die Knie, als viel mehr die Speicherbandbreiten im gesamten System. Spätestens wenn die SSD in der Leserate einbricht hat man kein CPU Bottleneck mehr.

Wer eine 150W CPU mit einer 350W Grafikkarte kombiniert der wird das in Zukunft noch so bauen müssen wie heute. Aber in diesem Leistungsbereich bis 250W Gesamtleistung des Systems (vielleicht sogar 300) sehe ich schon einen gewaltigen Markt für All-in-One Lösungen. Das wäre dann der Bereich in dem sich eine 2060S oder 5700 aufhält. An Gaming Laptops stört sich auch niemand, die baut man auch nicht mal eben um.

Nvidia muss es doch schmerzen, wenn die sehen, dass ein Media Markt 1000€ Gaming PC von der Stange eine 2060 (nicht mal Super) drin hat, das ist 1/3 des Preises und die anderen 2/3 machen in 99% der Spiele überhaupt nix für dein Spielerlebnis weil du GPU limitiert bist. Gleiches beim PCGH PC mit 2060 Super, das ist ein Gaming PC weil da eine Nvidia 2060S drin ist, ohne die wäre der PC mal Gaming-GarNix und trotzdem bleiben 2/3 vom Preis bei einer anderen Firma als Nvidia kleben. Das ist als würde Ferrari einen Sportwagen machen, aber 2/3 vom Kaufpreis landen bei einem anderen Autohersteller. Das ist vielleicht der Anspruch von einem Autoveredler wie AMG, aber ich denke Nvidia halten sich nicht für AMG, die halten sich für Ferrari. Also warum gehen 2/3 der Kohle an uns vorbei?

Das ist wo ich sage, das hat Intel schon einmal erkannt und dann mit der i-Serie aufgeräumt. Die Kohle die immer an den Chipsatzhersteller (Nvidia, etc.) und den 2D Grafikkartenhersteller gingen, haben die sich mal locker einverleibt. Diese Situation ergibt sich jetzt bei Spiele PCs. Deswegen macht Intel Grafikkarten und Nvidia wuchert im CPU Bereich.
 
Zum Encodieren des Streams nimmt man ja nicht die CPU, dafür hat die Graka einen Hardwareencoder drin. Von 8/16 AMD Kernen plus 5700XT würde ich auch behaupten, dass diese den meisten Leuten zum nebenher Streamen oder Netflix glotzen ganz gut reichen werden. Der Defender macht keine Komplettscans beim Gaming und wenn dann zieht der auch weniger die CPU Leistung in die Knie, als viel mehr die Speicherbandbreiten im gesamten System. Spätestens wenn die SSD in der Leserate einbricht hat man kein CPU Bottleneck mehr.

Wer eine 150W CPU mit einer 350W Grafikkarte kombiniert der wird das in Zukunft noch so bauen müssen wie heute. Aber in diesem Leistungsbereich bis 250W Gesamtleistung des Systems (vielleicht sogar 300) sehe ich schon einen gewaltigen Markt für All-in-One Lösungen. Das wäre dann der Bereich in dem sich eine 2060S oder 5700 aufhält. An Gaming Laptops stört sich auch niemand, die baut man auch nicht mal eben um.

Nvidia muss es doch schmerzen, wenn die sehen, dass ein Media Markt 1000€ Gaming PC von der Stange eine 2060 (nicht mal Super) drin hat, das ist 1/3 des Preises und die anderen 2/3 machen in 99% der Spiele überhaupt nix für dein Spielerlebnis weil du GPU limitiert bist. Gleiches beim PCGH PC mit 2060 Super, das ist ein Gaming PC weil da eine Nvidia 2060S drin ist, ohne die wäre der PC mal Gaming-GarNix und trotzdem bleiben 2/3 vom Preis bei einer anderen Firma als Nvidia kleben. Das ist als würde Ferrari einen Sportwagen machen, aber 2/3 vom Kaufpreis landen bei einem anderen Autohersteller. Das ist vielleicht der Anspruch von einem Autoveredler wie AMG, aber ich denke Nvidia halten sich nicht für AMG, die halten sich für Ferrari. Also warum gehen 2/3 der Kohle an uns vorbei?

Das ist wo ich sage, das hat Intel schon einmal erkannt und dann mit der i-Serie aufgeräumt. Die Kohle die immer an den Chipsatzhersteller (Nvidia, etc.) und den 2D Grafikkartenhersteller gingen, haben die sich mal locker einverleibt. Diese Situation ergibt sich jetzt bei Spiele PCs. Deswegen macht Intel Grafikkarten und Nvidia wuchert im CPU Bereich.

Jo, deine Einschätzung lasse ich einfach mal so stehen. :)
Auf die Frage: "Also warum gehen 2/3 der Kohle an uns vorbei?"
Das ist tatsächlich so und hat etwas mit dem Glauben an den Nikolaus zu tun; Gegenmaßnahmen sind bereits eingeleitet. ;)

EposVox (244.000 YouTube Abonnenten) nimmt 16-18 Threads seines 18 Kerners für h.264 Enkodierung für Live Streams zu Twitch und hat einen der am besten aussehensten LiveStreams überhaupt, er macht aber auch 6 Stunden Erklärungsvideos, wie man das Programm OBS für sich gut nutzbar machen kann. :daumen:

Noch ist h.264 ein Thema...und da leistet Nvidia´s NVENC Encoder wirklich viel.
Content Creators auf Budget können trotzdem Ausschau halten nach guten Angeboten für Intels 8-und 10-Kerner, nutzen dann die UHD 630 Grafik und spielen halt nicht auf hohen Details. Das Gehäuse bleibt dann eben leer mangels Grafikkarte, zumindest für eine Weile.

Gute Nachrichten für AMD



:thumbs:



hahahahah ist halt echt so :D

Bei Single Thread Messungen für SuperPi benötigt der 3900X mit 21,9 kj genau 50% mehr Energie als ein i9-10900 mit 14,6 kj laut dem TechPowerUp Test, wenn man nicht übertaktet. Bei Multi für Cinebench sind sie gleichauf mit 10,2 kj, der 3900XT wiederum gewinnt bei Multi um einige Prozent. Hat man die Ruhe weg, liefert Intel mit 14nm durchaus brauchbare Ergebnisse. Vorteil: Der Chip braucht keine Infinity Fabric, die ordentlich Saft zieht auch im Leerlauf.

Also man muss nicht zu AMD wechseln, ein i9-10900 kann auch ein Leckerbissen sein.

Intel Core i9-10900 Review - Fail at Stock, Impressive when Unlocked | TechPowerUp
 

Anhänge

  • 10900 vs 3900X.png
    10900 vs 3900X.png
    462,2 KB · Aufrufe: 32
Zuletzt bearbeitet:
Verschwörungstheorie :
Intel und AMD sprechen sich ab wer die nächsten Marktführenden CPUs bringt. Jetzt ist AMD wieder dran und Intel darf sich Ausruhen. Ist fast wie bei den Zugvögeln 😉🤣
Ich bin jetzt auf den Buldozer von Intel gespannt 🤪
 
Für uns User wärs schon auch hut, wenn Intel wieder etwas in den Tritt kommt. Immerhin ist man 5 Jahre hinter den internen Plänen was den Prozess betrifft
 
Nun, dass es zu Verzögerungen kommt, liegt natürlich hauptsächlich an der Corona Kriese. Das gute ist ja, dass man Prozessoren nicht oder eigentlich gar nicht auswechseln muss, weil man beim spielen eher eine gute Grafikkarte braucht. Daher finde ich in dem Fall eine Verschiebung nicht so schlimm. Es gibt jetzt schon genug starke Prozessoren für Gamer, Es dauert immer sehr lange bis an von einem 6 Kerner auf einen 8 Kerner wechseln muss. Vielleicht wird demnächst ein 10-Kerner "Standard".
 
Jo, deine Einschätzung lasse ich einfach mal so stehen. :)
Auf die Frage: "Also warum gehen 2/3 der Kohle an uns vorbei?"
Das ist tatsächlich so und hat etwas mit dem Glauben an den Nikolaus zu tun; Gegenmaßnahmen sind bereits eingeleitet. ;)

EposVox (244.000 YouTube Abonnenten) nimmt 16-18 Threads seines 18 Kerners für h.264 Enkodierung für Live Streams zu Twitch und hat einen der am besten aussehensten LiveStreams überhaupt, er macht aber auch 6 Stunden Erklärungsvideos, wie man das Programm OBS für sich gut nutzbar machen kann. :daumen:

Noch ist h.264 ein Thema...und da leistet Nvidia´s NVENC Encoder wirklich viel.
Content Creators auf Budget können trotzdem Ausschau halten nach guten Angeboten für Intels 8-und 10-Kerner, nutzen dann die UHD 630 Grafik und spielen halt nicht auf hohen Details. Das Gehäuse bleibt dann eben leer mangels Grafikkarte, zumindest für eine Weile.

Schön wenn du die Frage nach der Geldverteilung ins Lächerliche ziehen kannst, ein gewinnorientiertes börsenotiertes Unternehmen sieht solche Sachen mit etwas weniger Humor.

Ein hypothetisches 750€ Nvidia Massenprodukt richtet sich nicht nach dem Streamer der das Optimum herausholt, es richtet sich nach dem womit die Masse zufrieden ist. Das zeichnet ja den Konsolenmarkt aus, nicht jeder braucht Ultra-Settings und 60fps. Die Konsole kommt auch mit weniger durch und regelt das über den Preis. Wer dann noch mehr will, dem stehen ja weiter alle Türen offen. Wer sich selbst als Content Creator für Gaming Lievestreams bezeichnet und dann auf einer UHD630 spielt der lebt imo in einer Fantasy Welt. Der hat dann auch eine 100€ E-Gitarre und spielt im Geiste schon bei Rock im Park. Wenn ich mir die EposVox Videoübersicht nur ansehe, dann sind das keine Videos bei denen empfohlen wird an der Grafikkarte zu sparen.
 
Schön wenn du die Frage nach der Geldverteilung ins Lächerliche ziehen kannst, ein gewinnorientiertes börsenotiertes Unternehmen sieht solche Sachen mit etwas weniger Humor.

Ein hypothetisches 750€ Nvidia Massenprodukt richtet sich nicht nach dem Streamer der das Optimum herausholt, es richtet sich nach dem womit die Masse zufrieden ist. Das zeichnet ja den Konsolenmarkt aus, nicht jeder braucht Ultra-Settings und 60fps. Die Konsole kommt auch mit weniger durch und regelt das über den Preis. Wer dann noch mehr will, dem stehen ja weiter alle Türen offen. Wer sich selbst als Content Creator für Gaming Lievestreams bezeichnet und dann auf einer UHD630 spielt der lebt imo in einer Fantasy Welt. Der hat dann auch eine 100€ E-Gitarre und spielt im Geiste schon bei Rock im Park. Wenn ich mir die EposVox Videoübersicht nur ansehe, dann sind das keine Videos bei denen empfohlen wird an der Grafikkarte zu sparen.

Ein gewinnorientiertes, börsenorientiertes Unternehmen hat im Gegenzug dann auch die Ruhe weg, selbst wenn man mal eher knapp seinen Vorsprung in der Gaming Performance halten kann, sprich sie werden nicht nervös und machen keine unnötigen Fehler (und haben Cock Speed). Den Rest, was du geschrieben hast...ich habe einfach Beispiele aufgezählt, wie man einen PC noch so alles einsetzen könnte. Diese Dinge sind keinesfalls auf mich persönlich bezogen. Genau das ist es ja, was vermieden werden soll; keine Angriffsfläche bieten.

Einen Grund, Intel zu kaufen, gibt es immer. Hauptsache, man wird nicht von anderen Leuten dafür erschlagen. :daumen:
Da kann man nichts machen; man schaut sich die Werte an, recherchiert, vergleicht und kommt dann mal nicht zum Ergebnis AMD.
 
Zuletzt bearbeitet:
Für uns User wärs schon auch hut, wenn Intel wieder etwas in den Tritt kommt. Immerhin ist man 5 Jahre hinter den internen Plänen was den Prozess betrifft

Empfinde ich als halb so wild. AMD hats mit Bulldozer/Piledriver auch druchgestanden und siehe da letzten Endes kam man mit Zen um die Ecke.

Gut Ding will Weile haben.:)
 
Da kann man nichts machen; man schaut sich die Werte an, recherchiert, vergleicht und kommt dann mal nicht zum Ergebnis AMD.

AMD produziert jedoch die Konsolen und obwohl sie während der PS4 Generation genug Produkte hatten um Sony und Microsoft auszurüsten, so bestand scheinbar nie der Wille dieses Produkt auf dem PC Markt zu bringen. Was die Frage aufwirft, ob AMD nicht will, oder vertraglich nicht kann. AMD hat sicherlich den Willen seine Ryzen-G Serie als Gaming Einstiegsmodelle zu platzieren, woher also der Unwille das nicht auch im MIttelklassesegment zu tun? Das fertige Design das leicht modifiziert an Sony und Microsoft verkauft wurde liegt ja fertig in der Schublade.

AMD hat den Umstand auf seiner Seite, dass bei einem 1000€ Gaming PC aus dem Prospekt mehr als nur die Grafikkarte von ihnen kommen kann. Das erzeugt sehr wenig Druck, besonders weil PC Spieler ja eher preisrobust sind. Ein 1000€ Konsolen-PC maßt sich ja nicht mehr oder weniger an als das ein 1000€ PC im Prospekt jetzt tut. Was kümmert es also, ob es Anwendungsszenarien gibt bei denen er nicht 100% taugt. Er schafft die ersten 85% und das wird den meisten Leuten reichen. Der Rest rüstet auf, kauft neu, oder bastelt weiter selbst. Egal ob das 1000€ Ding nun 100% von Nvidia kommt, oder nur zu 33%.
 
AMD produziert jedoch die Konsolen und obwohl sie während der PS4 Generation genug Produkte hatten um Sony und Microsoft auszurüsten, so bestand scheinbar nie der Wille dieses Produkt auf dem PC Markt zu bringen. Was die Frage aufwirft, ob AMD nicht will, oder vertraglich nicht kann. AMD hat sicherlich den Willen seine Ryzen-G Serie als Gaming Einstiegsmodelle zu platzieren, woher also der Unwille das nicht auch im MIttelklassesegment zu tun? Das fertige Design das leicht modifiziert an Sony und Microsoft verkauft wurde liegt ja fertig in der Schublade.

AMD hat den Umstand auf seiner Seite, dass bei einem 1000€ Gaming PC aus dem Prospekt mehr als nur die Grafikkarte von ihnen kommen kann. Das erzeugt sehr wenig Druck, besonders weil PC Spieler ja eher preisrobust sind. Ein 1000€ Konsolen-PC maßt sich ja nicht mehr oder weniger an als das ein 1000€ PC im Prospekt jetzt tut. Was kümmert es also, ob es Anwendungsszenarien gibt bei denen er nicht 100% taugt. Er schafft die ersten 85% und das wird den meisten Leuten reichen. Der Rest rüstet auf, kauft neu, oder bastelt weiter selbst. Egal ob das 1000€ Ding nun 100% von Nvidia kommt, oder nur zu 33%.

Ja, das stimmt auch wieder.

Für 1.000€ hatte ich eher in die Richtung geschielt, 8 oder 10 Comet Lake Kerne zu kombinieren mit 2x32GB oder 4x32GB RAM, auf die Grafikkarte zu verzichten und dann eben nicht unbedingt Anno 1800 spielen zu können (immer mehr L3 Cache nützt nicht allzu viel bei 24EUs / 192 Schattierern bei Intel gerade), dafür aber mehr CPU Leistung zu haben als mit AMD Raven Ridge und wahrscheinlich Renoir, ohne sich mit ihren Treiberproblemen herumschlagen zu müssen. 8+ Kerne und 128GB RAM wären so der ultimative Office Rechner oder für viel im Internet surfen, hehe. Es sind ja nur Gedanken, mögliche Kaufberatungen für Freunde. Eine Grafikkarte käme dann später, wenn es dann überhaupt noch Bedarf dafür gibt. Stimmt Preis Leistung nicht, rät man auch schon mal komplett vom PC Kauf ab. Es macht auf jeden Fall Spaß, sich auch mehrsprachig Testberichte und Datenblätter durchzulesen.
 

Wollte gerade schreiben, dass sich die Gaming Performance (720p) exakt mit dem der PCGH deckt (16% zwischen stärkstem AMD vs stärkstem Intel), sah jedoch nun dasss das Testsystem bei TPU 3200MHz RAM für alle CPUs nutzt.
Intel Core i9-10900 Review - Fail at Stock, Impressive when Unlocked | TechPowerUp
Bitter ist jedoch, dass selbst AMDs Speerspitze in Form des 3900XT unter einem 10400F (155€) landet.
Hinzu kommt, dass AMD eigentlich nur noch per RAM OC dazu gewinnen kann, da die Takttechnisch schon nah am Limit arbeiten, einige der Intels wie zB der 8700k haben hingegen noch massiv CPU OC Taktpotential (allcore ab Werk 4.3GHz), da kann man je nach dem noch 1GHz oben drauf packen (je nach Glück bei der CPU) + per RAM OC holt man mehr raus als AMD.
Sprich, der Abstand wird größer und größer, was Raum für max Effizienzsetups wie zB mein Setup bringt, aber dabei dennoch schneller als der schnellste Ryzen ist. Du hast ja schön den Effizienztest gepostet, nun überleg mal, ich kann in Spielen rund 10%+ schneller sein als der schnellste Ryzen und das mit nur 34W Packagepower, genau genommen war ich sogar schneller als ein 10900k stock (2933MHz RAM).
In den Intels steckt einfach ein massives Optimierungspotential und zwar deutlich stärker wie bei AMD und dies in beide Seiten, also nicht nur was OC anbelangt, sondern auch was UV anbelangt und in den richtigen Händen sieht es leider etwas bitter aus für AMD.
Ich kann nur hoffen, dass Zen 3 wirklich ordentlich was bringt, aber ganz ehrlich, ich gehe nicht davon aus, dass AMD (optimiert) in Games die optimierten Intels alt aussehen lassen wird, weil die einfach aktuell rund 30% über Zen2 stehen optimiert vs optimiert.
Zen 3 muss also erstmal die ~30% wettmachen um überhaupt gleichzuziehen und ob da noch Raum bleibt noch weitaus mehr rauszuholen bleibt fraglich.
Effizienztechnisch bin ich mit dem 8700k auch vor meinem alten 3600 und dieser war extrem auf UV hin optimiert, dennoch ist der 8700k deutlich vorne.

Seht mich jetzt bitte nicht als Intel Fanboy oder so an, ich sage hier nur die Wahrheit und ich bin eher AMD Pro.
Ich weiß ja wie manche schnell eingeschnappt sind und einen in eine Schublade packen direkt.
Habe ja mittlerweile auch 4x bei Zen zugeschlagen, ist also nicht so, dass ich mir kein AMD gönne.
 
@Duvar: Wie, was? Als du noch den Ryzen hattest, hat sich das aber anders angehört! :D

;) ;) ;)

Nee auch da habe ich gesagt, dass man mit einem 3600 an die Intels @ stock rankommt und auch dies ist wahr.
Dies hat die Intel User getriggert und sage ich ein 8700k ist mit sehr starkem UV schneller als der schnellste Ryzen mit OC und dies triggert nun AMD User gelegentlich.
Man sollte vllt gar nix zu dem Thema sagen um es sich nicht mit dem halben Forum zu verscherzen, denn egal was man sagt, triggert es entweder Partei A oder B^^
Übrigens habe ich hier auch noch einen Ryzen daheim.
 
Zuletzt bearbeitet:
Es hat Spaß gemacht, mal eine virtuelle Maschine zu starten und Intel Fanboy zu sein für kurze Zeit. Dann packe ich mal einen i9-10900 in den Warenkorb, denn die Fakten sprechen ganz klar für ihn. Schönes Wochenende ;)
 
Nee auch da habe ich gesagt, dass man mit einem 3600 an die Intels @ stock rankommt und auch dies ist wahr.
Dies hat die Intel User getriggert und sage ich ein 8700k ist mit sehr starkem UV schneller als der schnellste Ryzen mit OC und dies triggert nun AMD User gelegentlich.
Man sollte vllt gar nix zu dem Thema sagen um es sich nicht mit dem halben Forum zu verscherzen, denn egal was man sagt, triggert es entweder Partei A oder B^^
Übrigens habe ich hier auch noch einen Ryzen daheim.

Ja weil das mit dem 8700k UV nicht stimmt.

Benutz weniger absolute Formulierungen und Du triggerst weniger.

Es gibt doch mittlerweile Spiele die noch von mehr als 10 kernen profitieren und die bietet der einfach nicht.

So eine Aussage ist schlicht schon mit einem einzigen Gegenbeispiel falsch.

Außerdem was ist denn sehr starkes UV, mit Wakü oder mit extra Strom auf den Leitungen aber weniger Spannung oä?

Der 10900 ohne k sieht wirklich interesant aus.
Könnte da auch fast schwach werden.
Nur stört mich daran das ich mein System komplett umbauen müsste und ein z Baord brauche für guten Ram dazu die große hitze bei Produktivarbeiten.
Naja bis Ryzen 4000 kann ich noch warten.
 
Zuletzt bearbeitet:
Zurück