News Ryzen 9000X3D: Neue Gerüchte zum 3D V-Cache enttäuschen

Muß man denn so hoch takten wenn die Leistung auch so ausreicht?
Besser ist doch wenn die CPUs effizienter sind bei relativ guter Gamingleistung.
Und das haben die 3D CPUs bis jetzt auch gezeigt.
Sonst wäre das auch wieder das "Brechstangen Prinzip" welches Konkurrent Intel anwendet.
Man muss nicht, es verkauft sich aber besser. Intel macht das mit Raptorlake weil 2% schneller sich auf der Welt besser verkauft als 200% effizienter.
Amd würde das auch machen wenn sies könnten. War alles schon da mit FX Cpus damals und wenn der Cache es überleben würde hätte auch ein 7800X3D 500 MHz mehr und 50W mehr TDP - denn dann würde er immer und überall als klarer Sieger vom Platz gehen und das ist (leider) viel mehr wert als irgendwelche Effizienzen die abseits von Deutschlands Nerds keine Sau interessieren.

Nochmal, amd ist nocht deswegen so effizient unter Last weils ne Designentscheidung ist sondern weils ne technische Notwendigkeit ist. Wenn der Prozeß bzw Architektur 6+ GHz stabil könnte und der Cache 1,5v überleben würde hätten wie einen 7950X3D bekommen der bis 6 Ghz boostet auf beiden Chiplets und auch 300W wegballert. Und jeden Benchmark klar dominiert hätte. Letzteres ist etwas das sich kein Hersteller entgehen lässt wenn er nicht muss.
 
Man muss nicht, es verkauft sich aber besser. Intel macht das mit Raptorlake weil 2% schneller sich auf der Welt besser verkauft als 200% effizienter.
Amd würde das auch machen wenn sies könnten. War alles schon da mit FX Cpus damals und wenn der Cache es überleben würde hätte auch ein 7800X3D 500 MHz mehr und 50W mehr TDP - denn dann würde er immer und überall als klarer Sieger vom Platz gehen und das ist (leider) viel mehr wert als irgendwelche Effizienzen die abseits von Deutschlands Nerds keine Sau interessieren.
Sicher? Die "richtigen" Nerds bzw Enthusiasten machen doch eh alle OC. Und ballern sich eine RTX 4090 und ein 1000W Netzteil in den Rechner. :ugly:

Aber ein paar Leute die undervolten kenne ich auch hier aus dem Forum. ;)
 
Wäre alles kein Problem, wenn AMD die Scheduling-Probleme und den Core Parking Bug in den Griff bekommt. Ich bin sehr gespannt. Warum ich so oft darauf herumreite, fragt sich der eine oder andere? Weil AMD uns diese Problematik offiziell bestätigt hat – die wissen davon, tun aber nichts dagegen. Das kreide ich an.
Ich denke mal, daß das Problem nicht trivial ist und sie einfach keine sinnvoll umsetzbare Lösung dafür finden. Schließlich sind die Anwendungsprogramme und Spiele nicht mit einem Flagg versehen, der signalisiert: "Ich brauche lieber viel Cache, pack mich auf die Kerne, bzw. ich brauche lieber hohen Takt, pack mich auf die anderen Kerne."
Also müßte das ein Lernalgorithmus bzw. eine KI erledigen, dem/der man durch Zuweisen von Hand unter die Arme greifen kann.
Das ist auch der Grund (neben dem Verbrauch), warum ich mich von Anfang an nur für den Ein-Chiplet-7800X3D interessiert habe und auch nur für den 9800X3D interessieren werde, wenn der Leistungssprung stimmen sollte. Ich glaube einfach nicht, daß AMD+Microsoft das sinnvoll gebacken kriegen.
 
Zuletzt bearbeitet:
Typisch deutsch. Möchte man fast sagen. Würde AMD beiden CCDs jeweils ein 3D-Chiplet spendieren, würde das auch entsprechend teurer ausfallen. Und dann würde wieder wegen der Preise rumgeheult werden. 🤦‍♂️
Enttäuschend ist daran gar nichts. AMD hat schon länger betont, dass der Fokus bei Zen 5 auf dem Core-Bereich liegt. Wer also bitteschön hat mit zwei 3D-Chiplets gerechnet? Ich habe davon ehrlich gesagt auch nie was gelesen, nicht mal als Gerücht. Erst Zen 6 wird mehr Veränderungen beim Uncore-Bereich mitbringen. Dort wäre sowas eher ein Thema. Wenn Zen 5 @ stock erst mal den Takt mehr an die Non-3D Modelle angleichen würde, wäre das schon ein Gewinn. OC ist gar nicht mal notwendig. Und generell bleibt es weiterhin ein Nischenmarkt. Denn abseits von Gaming gibt es relativ wenige Fälle, wo der zusätzliche Cache wirklich durchschlägt. Für die meisten "Normalos" ist daher die Non-3D Variante immer noch die bessere Wahl. Der Aufpreis von über 20% von z.B. 7700X zu 7800X3D findet da wenig Gegenwert.
 
Ich würde davon ausgehen, dass in den meisten Haushalten ein Handy sowieso vorhanden ist.
das ist bei einem PC ja vielleicht ähnlich und dann - wenn man also sowieso eine CPU kauft - kann man ja bei der Wahl eines Modells das stromsparendere nehmen. Ist aber nur MEIN Ansatz, muss nicht jeder so machen.
Ich lebe ja generell so, dass ich versuche möglichst wenig Ressourcen zu verbrauchen. Das kann jeder für sich so halten, bei mir ist das seit Kindheit so drinnen. Ich fahr ja auch mit dem Rad in die Arbeit, statt mit dem Auto, sind aber auch nur 17km pro Strecke, andere haben vielleicht 50, da würd' ich auch andere Lösungen bevorzugen.
Auch die Kinder fahren so gut es geht alles mit dem Rad/öffentlich oder gehen zu Fuß schon seit sie ganz klein sind (kaum konnten sie laufen: "wenn du zum Spielplatz möchtest, musst du aber selbst gehen") - hat sich halt bewährt, dass sie nie aus Faulheit aufs Chauffieren zurückgegriffen haben :D
Nicht das Bearbeiten ist das Problem, sondern die Bilder, die aufgerufen werden auf einen Schlag und das sind sehr viele in meiner Cloud.
Ich find' das einfach technisch interessant.
Ich hab bei mir alle privaten Dateien auf Festplatten gesichert, aber theoretisch gings auch in der Cloud mit zusätzlich einer Platte hier (mit Onedrive kann ich ja einstellen: behalte 500gb der Dateien lokal. Oder 2 TB, is ja wurscht).
Und besonders interessant finde ich ja, dass - so wie ich das verstehe - das Synchronisieren der Dateien deiner CPU so zusetzt. Ist es, weil dann überall eine Vorschau erstlelt wird? So ganz ists mir noch nicht klar. Niemals sollte das - außer bei schlechter Programmierung - die CPU so belasten.
@Rollora
Sei dir gewiss, dich hab ich nicht ansprechen wollen. Eben weil wir uns dazu ja schon gut ausgetauscht haben. Desto spannender, in deiner Selbstreflexion zu lesen, dass sogar bei dir ein Teil Gewohnheit und Bequemlichkeit mitspielen. Stichworte: vertippen (am Handy gibt's durchaus Bluetooth Tastaturen) und du [Anm. meinerseits, bitte genau lesen] könntest ja auch einfach fünfmal so schnell darin werden... :fresse:
stimmt. Das ist nur am Klo oder im öffentlichen Verkehr wenn ich fahre eher unpraktisch ;)
die Hauptgewohnheit ist bei mir ja: ich sitze in der Arbeit sowieso vorm PC.
Etwa heute auch (jap auch wenn sonntag ist). Und ich hab da tatsächlich einen großen Bildschirm (26W aktuell, aber wenn ich Spiele wohl mehr weil ich ihn dann auf 144hz umstelle, von 60). Auf dem ist dann oft irgendwo klein nebenher ein Fenster offen mit einem Stream (Fußball, Formel 1...) damit kann ich dann eben fernsehen UND arbeiten nebenbei (und hier rumschreiben).
Ich könnte aber bei diesem Monitor auch einfach ein Handy dranhängen, er hat eine Bild-in-Bild Funktion für USB C Geräte die ich noch nie benutzt habe. Damit würde ich umgehen, dass der Computer zusätzlich zum Arbeiten auch noch einen Stream decodiert. Ich kann dir noch nicht sagen, wie viel Strom ich damit einspare, aber spannend wärs.
Ich muss dir aber zustimmen. Die letzte Masterarbeit die ich Korrekturlesen wollte am Smartphone, hab ich angefangen in der Hängematte im Halbschatten, dann noch etwas beim Grillen und dachte ich käme bequem durch. Abends bin ich dennoch an den PC gegangen um alles etwas einfacher und beim ersten Mal gescheit zu machen und tatsächlich nicht wieder aufs Smartphone gewechselt bis ich fertig war.
beim reinen Lesen ists für mich schon ein Problem allein wegen der Haltung, ich sitze da einfach seltenst bequem (für Rücken und Nacken). Aber ich muss ja meist auch korrigieren und schreiben wenn wir in der Forschungsgruppe Paper schreiben und da ists für mich unmöglich nur am Handy zu arbeiten, ich muss ja parallel die Daten offen haben in R oder Excel, diverse Quellen Recherchieren (etwa related works) etc.
Das mach ich dann auch nicht wie so viele "unterwegs", also falls ich doch mal nicht mit dem Rad, sondern der Ubahn in die Arbeit fahre. Einfach auch, weil ich dann zwischendrin froh bin mal nicht zu arbeiten und manchmal auch mal nicht auf einen Bildschirm zu schauen ;)
Danach ging's im Oberstübchen aber wieder los. Ist das der Bequemlichkeit geschuldet? Würde ich es mit viel mehr Übung besser hinbekommen? Vor allem aber... ist meine Zeit wichtiger als die Zeit die nachfolgenden Generationen vielleicht mit ihren Familien fehlt?
Also für manche meiner Prozesse habe ichs immer wieder probiert ein Tablet einzusetzen und es gibt tatsächlich nur ganz wenige, die ich ersetzen könnte durch ein Tablet, wo ich auch schneller wäre. Gerne per PN welche, wenn es dich interessiert.
Nochmal: speziell du hättest keiner Rechtfertigung bedurft, aber dennoch Danke für die ausführliche Darstellung.
Danke. Ich hab' trotzdem geantwortet, weil ich mir dachte wir schaffen es immer zivilisiert miteinander zu diskutieren und auch wenn wir beide schon wissen, wo wir stehen, so kann das vielleicht ja auch für manch andere als basis dienen nicht nur die Emotionen hochgehen zu lassen, sondern aufeinander zuzugehen.
Btw: Ich steige gerade von meinem 3l V6 biturbo auf ein E-Auto um... also es wird zumindest geliefert. Ich bin nicht im Land. Wenn ich den irgendwann mal fahren und ausprobieren konnte ob das eine Alternative ist, lass ich's dich wissen, wenn du magst.
:love:
 
Zuletzt bearbeitet:
nicht bös nehmen Dave, aber eine gewisse Grundabneigung gegenüber AMD ist unterschwellig oftmals da. Von daher? Ich stell jetzt mal die Grätchenfrage! Was tut Intel denn gegen die Bugs? Richtig, nichts so wirklich außer Leistung rausnehmen!
Mit Verlaub, diese Vergleiche sind etwas schief: BEIDE Firmen arbeiten natürlich an ihren Bugs und falls du bei Intel die aktuelle Situation mit ihren CPUs meinst: das ist ja noch "under investigation". Intel wird 100% in irgendeiner Art und Weise auf den Bug reagieren müssen.
Worauf Dave sich bezieht ist, dass AMD sagt "Bug ist bekannt, wir machen aber nichts dazu". Das gab es bei AMD durchaus schon öfter, wir hatten da immer wieder direkt mit dem Treiberteam von AMD Kontakt und die Situation wurde nie behoben, weil AMD damals zu klein war und die Ressourcen nicht hatte (2008 die 780G Causa). Heutzutage sollte das eigentlich nicht mehr vorkommen, vor allem weil es sich nicht um ein Problem handelt das sich auf ein altes Produkt bezieht, sondern um ein aktuelles.
Und sowohl AMD, als auch MIcrosoft könnten daran interessiert sein das zu lösen.
Das ist auch keine Lösung, wird aber als solche verkauft. Nicht falsch verstehen, ich will AMD hier um gottes willen nicht in den Himmel loben, aber keiner der drei großen hat in den letzten Jahren besonders viel für den Kunden getan.
Puh... das ist so eine generelle Aussage da muss ich leider einfach widersprechen:
Alle 3 Hersteller haben sich eigentlich recht brav bemüht:
AMD hat super Prozessoren gebracht und bringt seit 7 Jahren den schlafenden Riesen Intel unter Druck, daher gibts viel Fortschritt auf der Preis/Leistungsseite von CPUs.
Bei GPUs tut sich auch viel, hier aber eher auf technischer Seite: Raytracing wird salonfähig, DLSS und Co sind großartige Erfindungen, Intel hat mit Alchemist einen sogar recht brauchbaren Einstand gehabt (ich wünschte nur, man hätte es in der Form zum ursprünglichen Termin bringen können und jetzt schon längst Battlemage draußen).
Was die Treiber betrifft sind alle 3 inzwischen auf einem hohen Niveau. Intel noch mit den größten Aufholbedarf, ja, aber das ist trotzdem schon gut im Vergleich zu dem, was man vor 10 Jahren bekommen hat von den anderen beiden. Intel bringt auch recht häufig Updates. Ein dritter Player ist für uns alle gut. Gerne auch ein 4. aber das ist Wunschdenken.

Nvdida hat immer noch 12VHPWR Anschlüsse und denen ist es völlig egal ob das toll oder schlecht ist; Intel CPUs stürzen ab und da wird die Schuld hin und her geschoben,
das mit den 12VHPWR Anschlüssen muss ich mir beim Kauf der nächsten GPU genauer ansehen, ich gebe zu das hab' ich nicht groß beachtet.
Was die Intel CPUs betrifft: ich habe noch keine einzige offizielle "Anschuldigung" gelesen, nur Vermutungen von Foristen und "Journalisten"
Ich denke man ist immer noch am intensiven herausfinden.
Vor allem wird das für Intel zum Problem, wenn es bei CPUs die so nah' an der (Überlebens-)Kante genäht sind schon so regelmäßig zu Ausfällen führt (teilweise im 5 Min Takt TROTZ Intel-Sicherheitseinstellungen), dann heißt das vielleicht auch bei den knapp darunter liegenden CPUs, dass die auch bald anfangen instabil zu werden.
Bei mir übrigens ist das auch so: alle paar Monate mal ist mein PC plötzlich instabil, kann dann nicht mehr booten (kaum am Windows-Bildschirm stürtz er ab, neustart). Ist dann 1x ein kompletter Boot geschafft samt shutdown hat sich das PRoblem erledigt. sehr schräg und ich bin dem trotz intensiven Protokolllesen nie draufgekommen (hat er seit Jahren, dachte ursprünglich "mei, jetzt wirst du halt alt mein Junge")...
Intel hat die Stromkeule rausgeholt (seltsam, dass da niemand jammert)
Finde diese "alle machen das" oder "niemand macht das" Aussage immer seltsam, weil es deine persönliche Wahrnehmung ist und eben nicht mehr.
Ich interessiere mich immer für effiziente Komponenten und aus genau dem Grund hab' ich um Bulldozer einen Bogen gemacht und mach ihn aktuell um viele Intel-CPUs und betone doch hier die "geilheit" der X3D CPUs weil sie superschnell UND Effizient sind.
Aber wehe wenn Intel mal wieder eine CPU von Intel effizient sein sollte und ich betone dann auch da die Vorteile diesen Ansatzes, springen manche sofort wieder an und schreien "Intel-Fanboy, AMD hater!". Weil manche eben nur das lesen, was sie lesen wollen, damit es in ihre Welt passt. Sei du bitte nicht auch so
 
Wäre alles kein Problem, wenn AMD die Scheduling-Probleme und den Core Parking Bug in den Griff bekommt. Ich bin sehr gespannt. Warum ich so oft darauf herumreite, fragt sich der eine oder andere? Weil AMD uns diese Problematik offiziell bestätigt hat – die wissen davon, tun aber nichts dagegen. Das kreide ich an.
Sie machen nichts dagegen -

Problem ist eventuell doch etwas größer und nicht so einfach zu beheben ?
 
das Synchronisieren der Dateien deiner CPU so zusetzt.
Genau das ist es. Jetzt stelle ich mir die Frage, liegt es an dem Prozessor oder ist es, wie du es sagst, die schlechte Programmierung. Aber da Google die besten Leute hat, vermute ich mal, das der Prozessor am Limit ist in Überwältigung solcher Aufgaben.

lg
das mit den 12VHPWR Anschlüssen muss ich mir beim Kauf der nächsten GPU genauer ansehen, ich gebe zu das hab' ich nicht groß beachtet.
Mach dich nicht verrückt der 12VHPWR Anschluss ist ok. Es war nur menschliches-versagen der Kundschaft. Ich habe den Stecker im Einsatz null Probleme. Der Neue Anschluss 2x 16-Pin PCIe 5.1 12V-2x6 ist nur idioten sicherer. ;)
 
Man muss nicht, es verkauft sich aber besser. Intel macht das mit Raptorlake weil 2% schneller sich auf der Welt besser verkauft als 200% effizienter.
Amd würde das auch machen wenn sies könnten. War alles schon da mit FX Cpus damals und wenn der Cache es überleben würde hätte auch ein 7800X3D 500 MHz mehr und 50W mehr TDP - denn dann würde er immer und überall als klarer Sieger vom Platz gehen und das ist (leider) viel mehr wert als irgendwelche Effizienzen die abseits von Deutschlands Nerds keine Sau interessieren.

Dass hier der Cache die Taktlimitierung ausübt ist fakt, jedoch bezweifle ich stark, dass AMD wenn sie könnten die X3D CPUs bis an die Kotzgrenze takten würden.
Aus dem einfachen Grund, dass sie jetzt schon die schnellsten CPUs haben und wenn sie dann noch etwas mehr an Takt drauf geben würde das vollkommen reichen und man könnte damit werben, dass man deutlich schneller bei geringerem Verbrauch ist. Ja es interessiert in anderen Ländern nicht so sehr wie viel die CPU verbraucht, aber ist halt auch ein ordentlicher Schlag vor den Latz wenn man sagt schaut her wir sind X Prozent schneller und benötigen dafür deutlicher weniger Strom.
Man muss da denke ich einfach den Sweet Spot finden.

Mit Verlaub, diese Vergleiche sind etwas schief: BEIDE Firmen arbeiten natürlich an ihren Bugs und falls du bei Intel die aktuelle Situation mit ihren CPUs meinst: das ist ja noch "under investigation". Intel wird 100% in irgendeiner Art und Weise auf den Bug reagieren müssen.
Worauf Dave sich bezieht ist, dass AMD sagt "Bug ist bekannt, wir machen aber nichts dazu". Das gab es bei AMD durchaus schon öfter, wir hatten da immer wieder direkt mit dem Treiberteam von AMD Kontakt und die Situation wurde nie behoben, weil AMD damals zu klein war und die Ressourcen nicht hatte (2008 die 780G Causa). Heutzutage sollte das eigentlich nicht mehr vorkommen, vor allem weil es sich nicht um ein Problem handelt das sich auf ein altes Produkt bezieht, sondern um ein aktuelles.
Und sowohl AMD, als auch MIcrosoft könnten daran interessiert sein das zu lösen.

Ich möchte hier keineswegs das nicht Fixen von vorhanden Bugs in Schutz nehmen, für mich hat das eine hohe Priorität und das muss AMD noch deutlich aufholen!
Jedoch bin ich der Ansicht, dass AMD zwar viele Leute eingestellt hat im Vergleich zu vor 10 Jahren, sie aber aufgrund der vielen Geschäftsbereichen (Kampf mit intel und nvidia) noch deutlich Spielraum nach oben haben. Im Bereich SW haben sie viel Fortschritte gemacht, ich vermute mal dass auch deutlich mehr Leute in der HW Validierung mittlerweile beschäftigt sind, damit es schneller geht, aber man hat hier noch deutlich Luft nach oben!
Also 5-10k an Mitarbeiter kann ich mir da durchaus noch vorstellen, um vor allem softwaremäßig noch deutlich voranzukommen, auch wenn man sich da mit Xilinx sehr viel Expertise eingekauft hat. Was da Xilinx in den Jahren vor der Übernahme investiert hat ist beachtlich. Die hatten immer so ca 4 Milliarden Umsatz und haben über einen Zeitraum von 3 Jahren - wenn ich mich nicht täusche - 1 Milliarde investiert um ihre FPGAs besser zu programmieren. Vielleicht finde ich den Artikel noch irgendwo, die HP von Xilinx war früher schon sehr gut für solche Infos....


Finde diese "alle machen das" oder "niemand macht das" Aussage immer seltsam, weil es deine persönliche Wahrnehmung ist und eben nicht mehr.
Ich interessiere mich immer für effiziente Komponenten und aus genau dem Grund hab' ich um Bulldozer einen Bogen gemacht und mach ihn aktuell um viele Intel-CPUs und betone doch hier die "geilheit" der X3D CPUs weil sie superschnell UND Effizient sind.
Aber wehe wenn Intel mal wieder eine CPU von Intel effizient sein sollte und ich betone dann auch da die Vorteile diesen Ansatzes, springen manche sofort wieder an und schreien "Intel-Fanboy, AMD hater!". Weil manche eben nur das lesen, was sie lesen wollen, damit es in ihre Welt passt. Sei du bitte nicht auch so

Ich weiß nicht wieso man sich immer krampfhaft versucht in ein gutes Licht zurücken, aber du hast dich die letzten 15 Jahre nicht immer mit Ruhm bekleckert... Stichwort FPGA ;-)
Und dass deine Beiträge immer sehr pro intel und eher negativ gegenüber AMD gestimmt sind ist auch nicht von der Hand zu weisen. Sieht man auch u.a. daran wie du bei intel alles was die Roadmap sagt immer als gesetzt ansiehst und bei AMD kommen dann die Fragezeichen und es wird gezweifelt....
Neutral sieht anders aus!
 
Ich weiß nicht wieso man sich immer krampfhaft versucht in ein gutes Licht zurücken, aber du hast dich die letzten 15 Jahre nicht immer mit Ruhm bekleckert... Stichwort FPGA ;-)
Und dass deine Beiträge immer sehr pro intel und eher negativ gegenüber AMD gestimmt sind ist auch nicht von der Hand zu weisen. Sieht man auch u.a. daran wie du bei intel alles was die Roadmap sagt immer als gesetzt ansiehst und bei AMD kommen dann die Fragezeichen und es wird gezweifelt....
Neutral sieht anders aus!
Ha, da haben wir schon mal einen mit seiner ganz persönlichen Wahrnehmung.
a) weiß grad nicht, was du mit FPGA meinst?
b) doch, das ist von der Hand zu weisen. Denn wie erwähnt: ich schimpfe über beide, aber du bist halt jemand der nur eine Seite liest
c) lol auch hier wieder: rein deine Wahrnehmung: nehme seit Jahren (genauer gesagt 2016) kaum noch eine Intel Roadmap ernst, zweifle ich immer offen an. Siehe auch meine Beiträge zu MTL, das eeeewig in den Laboren war, bevors kaufbar war. Und bei AMD ebenso, vor allem wenn gewisse Geschäftsbereiche für Verzögerungen bekannt sind. Etwa RDNA4 mal wieder.
Bei Intel zweifle ich aktuell ganz klar an: Panther Lake 2025 in größeren Stückzahlen und überzeugend, Nova Lake vor 2026. An Arrow Lake zweifle ich nicht sehr, das wird nämlich fremdproduziert.

Aber da bist du mal wieder: du liest die Posts einseitig (also genau jemand wie du war gemeint) und wenn dann fragst du nichtmal nach. Eigentlich sinds dann genau Fanboys wie du, die dafür sorgen, dass man mit AMD eigentlich nicht viel zu tun haben möchte, das ist ja wie mit aggressiven Links/Rechts-Extremen diskutieren...
 
Ich weiß nicht wieso man sich immer krampfhaft versucht in ein gutes Licht zurücken, aber du hast dich die letzten 15 Jahre nicht immer mit Ruhm bekleckert... Stichwort FPGA ;-)
Und dass deine Beiträge immer sehr pro intel und eher negativ gegenüber AMD gestimmt sind ist auch nicht von der Hand zu weisen. Sieht man auch u.a. daran wie du bei intel alles was die Roadmap sagt immer als gesetzt ansiehst und bei AMD kommen dann die Fragezeichen und es wird gezweifelt....
Neutral sieht anders aus!
Ha, da haben wir schon mal einen mit seiner ganz persönlichen Wahrnehmung.
a) weiß grad nicht, was du mit FPGA meinst?
b) doch, das ist von der Hand zu weisen. Denn wie erwähnt: ich schimpfe über beide, aber du bist halt jemand der nur eine Seite liest
Kann da nur zustimmen. Mir fällt auch kein Kontext ein, indem irgendwas über FPGAs von @Rollora dahergelabert worden wäre. Nein, ich habe sicherlich nicht alle Postings gelesen oder kann mich an alles erinnern, aber so unspezifisch draufzuhauen halte ich für sehr merkwürdig.
Und außerdem ist @Rollora definitiv gegenüber dem Intel der letzten Jahre sehr kritisch eingestellt gewesen.
 
Worauf Dave sich bezieht ist, dass AMD sagt "Bug ist bekannt, wir machen aber nichts dazu"
Wie würdest du denn Intels Reaktion aktuell bewerten? "Uns ist der Bug bekannt, wir suchen intensiv nach Lösungen" ist eine reine Marketingaussage. Ich würde eine Menge darauf wetten, dass man am Ende die Spannungen weiter nach unten korrigiert, damit nicht mehr die Orignalleistung bringt und sich dann marketingtechnisch so hinstellt, dass man das Problem behoben hat. Sorry, aber das ist keine Problemlösung, sondern nur das Eingeständnis, dass man zuviel versprochen hat!

Spätestens mit der neuen CPU Gen wird man davon nix mehr hören und nur sagen, wir haben doch ein neues Profil verteilt, wer es (nicht) nutzt ist selber schuld, eine Lösung ist das in meinen Augen nicht

Alle 3 Hersteller haben sich eigentlich recht brav bemüht:
Sie haben sich bemüht die maximale Leistung zu liefern und in den Benchmarks zu liefern, dabei aber alle drei teilweise den Kunden versucht zu verarschen.
Was die Treiber betrifft sind alle 3 inzwischen auf einem hohen Niveau.
Wenn man die Zeiten vor 10 bis 20 Jahren als Vergleich nimmt, stimme ich dir zu.


Sei du bitte nicht auch so
Ich geb mein bestes! Dennoch ist es in meinen Augen sehr erstaunlich, sie seit spätestens Zen 3 die Intelflagge hoch gehalten wird, denn seither haben sie eigentlich nichts zu melden, sind minimalst schneller, aber ineffizient wie sonstwas. Dennoch kaufen genug wissende Menschen die CPUs, für mich ein Zeichen, dass eben doch viele Fanboys hier herumschwirren.

Gleiches bei NV, da wurde zur RTX3xxx Gen die Fahne hochgehalten und das gerade zu Beginn sehr oft grausige DLSS als Feature hergenommen um die deutlich bessere AMD 6xxx Serie (gleich schnell, ohne RT was damals kaum eine Rolle spielte, effizienter) zu diskreditieren und ein 450W Monster in seinem PC zu rechtfertigen.
Aktuell hat AMD bis zur 4080 eigentlich keine Chance, drunter sieht die Lage wieder anders aus, da RT da für mich keine Rolle spielen darf, DLSS zwar gut ist aber AMD mit VRAM kontert und oftmals billiger ist. Dafür aber auch ineffizienter als Nvidia.
 
Wie würdest du denn Intels Reaktion aktuell bewerten? "Uns ist der Bug bekannt, wir suchen intensiv nach Lösungen" ist eine reine Marketingaussage.
tatsächlich ist die Kommunikation schwach. Es ist für die möglichen betroffenen User nicht ersichtlich, wie lange es noch dauern könnte und was man sich gerade ansieht. Es ist beunruhigend.
Noch beunruhigender wäre aber, wenn Intel sagt sie schauen sich von den Mainboards (Hardware) über eventujelle Chipfehler alles an :D das würde ja defekte Hardware bedeuten (könne)
Ich würde eine Menge darauf wetten, dass man am Ende die Spannungen weiter nach unten korrigiert, damit nicht mehr die Orignalleistung bringt und sich dann marketingtechnisch so hinstellt, dass man das Problem behoben hat. Sorry, aber das ist keine Problemlösung, sondern nur das Eingeständnis, dass man zuviel versprochen hat!
ja in der Tat, und das ist aber auch etwas mit dem sich Intel befassen muss. Hier würde das zu einem Ärgernis führen, in den USA möglicherweise zu Klagen.
Es steht und fällt halt auch damit ob man nun herausfindet obs an den eigenen Vorgaben oder deren Interpretation der Mainboardhersteller liegt (oder tatsächlich ein Softwarebug vo worliegt, was ich natürlich für alle betroffenen hoffe).

Spätestens mit der neuen CPU Gen wird man davon nix mehr hören und nur sagen, wir haben doch ein neues Profil verteilt, wer es (nicht) nutzt ist selber schuld, eine Lösung ist das in meinen Augen nicht
Stimme absolut zu, denn die User haben sich ja eine Plattform gebastelt um in irgendeinem Bereich Ziele zu erfüllen (was weiß ich, schnellste Spiele-CPU? Ich weiß grad gar nicht wo die Intels am Besten sind... das liegt wahrscheinlich an der oben erwähnten "blauen Panzerbrille" :D
Wenn man die Zeiten vor 10 bis 20 Jahren als Vergleich nimmt, stimme ich dir zu.
Wir hatten früher recht regelmäßig mit den Treiberteams von Intel, AMD, Nvidia... zu tun... da hat sich tatsächlich viel bewegt. Die T eams sind größer und WDDM ist inzwischen so gut, dass der Raum für Fehler geringer geworden ist, weshalb Intel schon im ersten Versuch weniger Fehler hatte als die Treiber der 90er oder frühen 2000er.
Sie sind natürlich bei weitem nicht Fehlerfrei, da ist noch SOOOOO viel Raum nach oben und dennoch sieht es schon ganz ok aus.
Ich spiele daheim ja gerne an Hardware rum (und Beruflich muss ich das sogar), deshalb hab' ich immer wieder GPUs daheim gehabt deren Treiber nicht unbedingt perfekt waren, aber für mich funktioniert haben:
ich bin als Spielertyp ja einer, der nie das neueste Kauft, sondern Spiele die schon "ausgepatched" sind. Damit hat man dann auch keine Treiberprobleme mehr. Weshalb mein Aufrüstpfad ja von 3dfx zu ATI/AMD geführt hat. Ich hatte aber auch immer wieder die lustigsten Fehler. So lief mit manchen Updates auf meinen späteren Karten plötzlich Starcraft 2 nicht mehr, und wenn ich Streams geschaut habe lief es manchmal so, dass 1 Stream in 1080P geruckelt hat, und mit anderen, früheren Treibern konnte ich 3 parallel schauen, da war mal wieder die Hardwarebeschleunigung von Videostreams zerschossen...

Hier noch meine Aussage zu Intel-Grafikkarten aus 2018 (hab' sie eigentlich gestern schon gepostet, aber wurde wieder gelöscht....) die sich nicht geändert hat:

AW: Intel stellt eigenständige Konzept-GPU mit 64 mm² Chipfläche vor


Ja, wobei es mir schon um mehr geht als nur die höchsten FPS.

Wenn Intel jetzt plötzlich das beste Preis/Leistungs(FPS)verhältnis haben sollte, kommt mir das Ding trotzdem vielleicht nicht in der ersten Generation in den Computer: ich spiele viele Oldie/Klassik-Spiele dank meiner Steam Bibliothek und dort hat Intel trotz ausreichender Leistung noch massiv Probleme. Da ich nicht davon ausgehe, dass man das noch behebt (warum sollte man in Spiele investieren die nicht weiterentwickelt werden, deren Code nicht verändert/angepasst wird und die teils 10 Jahre vor Release ihrer Grafikkarte rauskamen), gehör ich zu der Randgruppe die sagt Intel ist hier vielleicht keine Option.
Bei neueren Titeln, vorallem wenns um neue APIs geht, sehe ich durchaus eine Chance für Intel, dieser Markt kommt gerade erst in den Schwung und man kann gleich mitmischen

Ich habe aber über die Arbeit 2 Intel Grafikkarten bekommen, die nun bei mir zu Hause schlummern. Vielleicht kriegen sie wie manch andere meiner Karten (Volari, Parhelia, Voodoos, VII) mal einen Sammlerwert, sonst haben sie einen idealistischen für mich :)

Ich geb mein bestes! Dennoch ist es in meinen Augen sehr erstaunlich, sie seit spätestens Zen 3 die Intelflagge hoch gehalten wird, denn seither haben sie eigentlich nichts zu melden, sind minimalst schneller, aber ineffizient wie sonstwas. Dennoch kaufen genug wissende Menschen die CPUs, für mich ein Zeichen, dass eben doch viele Fanboys hier herumschwirren.
Man muss hier klar unterscheiden zwischen "Highend" und Mainstream.
Highend kann man Intel im Moment echt nur unter speziellen Szenarien empfehlen.
Mainstream - da nehmen sich Intel und AMD wenig, Intel ist hier in Niedriglast-Szenarien bei manchen CPUs sogar deutlich besser, oder im Idle.
Somit gibt es wesentlich billigere Intel-CPUs für BüroPCs. AMD hat hier aber aufgeholt, weil auch jede Zen 4 CPU nun eine GPU hat.
Faktor 2 dürfte einfach das Produktionsvolumen sein, da haut Intel halt alles raus was geht um die OEMs zu füttern, AMD dürfte nicht die benötigten Bestellmengen bei TSMC haben. Das wird sich halt nur nach und nach ändern, weil die OEM Verträge oft lange gelten und man nicht einfach doppelt so viel bei TSMC bestellen kann um dann auf den unverkauften Chips zu sitzen. Der Markt ist hier sehr starr, aber AMD gewinnt nach und nach in den lukrativen Märkten.
Besonders der X3D ist eine der spannendsten Entwicklungen der letzten Jahre. Ähnlich wie der Broadwell-C ist es halt fast wirklich ein reines Spieler-Produkt und das gar nicht mal SOOOO teuer, wenn man bedenkt, dass ich mal AMD FX CPUs in der Hand hatte die über 1300€ gekostet haben und die Spieler das auch bezahlt haben, nur um die schnellste CPU zu haben. Das waren aber auch vergleichsweise heiße Teile, denn Stromsparen war noch nicht so ausgefeilt. Die jetztigen CPUs von AMD sind halt beides: sauschnell, sehr sparsam unter Last (ich muss mir die oftmals erwähnte Idle-Problematik noch genauer ansehen bevor ich mir eine CPU kaufe, da bei mir privat der PC viel im Niedriglast-Bereich läuft)
Gleiches bei NV, da wurde zur RTX3xxx Gen die Fahne hochgehalten und das gerade zu Beginn sehr oft grausige DLSS als Feature hergenommen um die deutlich bessere AMD 6xxx Serie (gleich schnell, ohne RT was damals kaum eine Rolle spielte, effizienter) zu diskreditieren und ein 450W Monster in seinem PC zu rechtfertigen.
Ich kaufe für mich immer noch keine Nvidia, das ist zwar eine dumme sache, weil sie vor 20 Jahren "mein" 3dfx gekauft haben, aber dennoch: als jemand der selbst Raytracer geschrieben hat (2006, damals für den Projektpartner ATI/AMD btw) finde ich den Kurs den Nvidia eingeschlagen hat einfach geil. Und, dass sowas wie DLSS notwendig war, habe ich 2018 unter den Tests immer wieder betont. Allerdings können manche nicht unterscheiden: ich meinte den technischen Fortschritt, nicht die Firma die das macht (was dann leider dazu geführt hat, dass ich wüst beschimpft wurde von den üblichen Verdächtigen...). Jedenfalls habe ich seither privat für mich vor abzuwarten bis AMD hier den Anschluss schafft und dann erst zuzuschlagen. Oder Intel. Nur nicht NV ;)
Die RTX3xxx war an und für sich ein interessantes Stück technik, und hat schon auch gezeigt, dass Nvidia deutlich vorne ist: AMD war hier im Rastern effizienter, schneller, aber auch aufgrund eines deutlich besseren Verfahrens (AMD nutze hier den ausgereiften, schon aus Vega -> VII bekannten 7nm Prozess von TSMC, Nvidia nutzte Samsungs N8, der ein optimierter 10nm Prozess ist. Also war man deutlich zurück. Bei Gleichstand was die Fertigung betrifft hat Nvidia leider immer noch einen Vorsprung.

Die aktuelle Verzögerung bei RDNA4 und der angeblich frühe Nachfolger RDNA5 gibt aber Hoffnung, dass AMD hier mit RDNA5 auf frei werdende N3P Kapazitäten setzt, während Nvidia ja Blackwell in N4P fertigen lässt.
SOLLTE es so kommen - reiner hoffnungsvoller Spekulatius! - wäre dies AMDs Chance wieder vorne mitzuspielen: mit deutlich besserer RT Leistung etc.
RDNA wird 2025 ja auch schon wieder 6 Jahre alt (bzw. sind es 7 Jahre seit Nvidias Raytracing-Einführung), genug Zeit das alte Versprechen einzulösen "wir bringen Raytracing erst dann, wenn es ausgereift ist".
Deshalb kaufe ich kein RDNA4 -> aber eben vielleicht RDNA5, was vielleicht auch die Basis für die nächsten Konsolen wird und damit wieder "lange hält".

Aktuell hat AMD bis zur 4080 eigentlich keine Chance, drunter sieht die Lage wieder anders aus, da RT da für mich keine Rolle spielen darf, DLSS zwar gut ist aber AMD mit VRAM kontert und oftmals billiger ist. Dafür aber auch ineffizienter als Nvidia.
Raytracing und FSR3+ werden mit der kommenden Konsolengeneration die absoluten Must-Haves. Aber auch das war schon 2018 klar, dass das lange dauern wird bis es wirklich durchschlägt. Aber sollten die neuen Konsolen dann genug RT Power haben, wird es wohl ein Pflichtfeature, auch am PC. Das weiß auch AMD, ich denke da geht gerade sehr viel Knowhow rein. Ob mit RDNA5 (sofern sie noch so heißt, vielleicht kommt ein Rename) oder dann RDNA6 wird sich zeigen, aber die Zukunft geht über Raytracing. Das weiß halt auch Intel, sind wir mal gespannt was die mit Battlemage so zaubern.
 
Übrigens, für die, die es interessiert (@amused_reader @BigBoymann ...) bringt 3dcenter in der Sache MIT DEN CRASHES immer wieder Updates, für die, die es interessiert:

 
Zuletzt bearbeitet:
Zurück