Wie würdest du denn Intels Reaktion aktuell bewerten? "Uns ist der Bug bekannt, wir suchen intensiv nach Lösungen" ist eine reine Marketingaussage.
tatsächlich ist die Kommunikation schwach. Es ist für die möglichen betroffenen User nicht ersichtlich, wie lange es noch dauern könnte und was man sich gerade ansieht. Es ist beunruhigend.
Noch beunruhigender wäre aber, wenn Intel sagt sie schauen sich von den Mainboards (Hardware) über eventujelle Chipfehler alles an
das würde ja defekte Hardware bedeuten (könne)
Ich würde eine Menge darauf wetten, dass man am Ende die Spannungen weiter nach unten korrigiert, damit nicht mehr die Orignalleistung bringt und sich dann marketingtechnisch so hinstellt, dass man das Problem behoben hat. Sorry, aber das ist keine Problemlösung, sondern nur das Eingeständnis, dass man zuviel versprochen hat!
ja in der Tat, und das ist aber auch etwas mit dem sich Intel befassen muss. Hier würde das zu einem Ärgernis führen, in den USA möglicherweise zu Klagen.
Es steht und fällt halt auch damit ob man nun herausfindet obs an den eigenen Vorgaben oder deren Interpretation der Mainboardhersteller liegt (oder tatsächlich ein Softwarebug vo worliegt, was ich natürlich für alle betroffenen hoffe).
Spätestens mit der neuen CPU Gen wird man davon nix mehr hören und nur sagen, wir haben doch ein neues Profil verteilt, wer es (nicht) nutzt ist selber schuld, eine Lösung ist das in meinen Augen nicht
Stimme absolut zu, denn die User haben sich ja eine Plattform gebastelt um in irgendeinem Bereich Ziele zu erfüllen (was weiß ich, schnellste Spiele-CPU? Ich weiß grad gar nicht wo die Intels am Besten sind... das liegt wahrscheinlich an der oben erwähnten "blauen Panzerbrille"
Wenn man die Zeiten vor 10 bis 20 Jahren als Vergleich nimmt, stimme ich dir zu.
Wir hatten früher recht regelmäßig mit den Treiberteams von Intel, AMD, Nvidia... zu tun... da hat sich tatsächlich viel bewegt. Die T eams sind größer und WDDM ist inzwischen so gut, dass der Raum für Fehler geringer geworden ist, weshalb Intel schon im ersten Versuch weniger Fehler hatte als die Treiber der 90er oder frühen 2000er.
Sie sind natürlich bei weitem nicht Fehlerfrei, da ist noch SOOOOO viel Raum nach oben und dennoch sieht es schon ganz ok aus.
Ich spiele daheim ja gerne an Hardware rum (und Beruflich muss ich das sogar), deshalb hab' ich immer wieder GPUs daheim gehabt deren Treiber nicht unbedingt perfekt waren, aber für mich funktioniert haben:
ich bin als Spielertyp ja einer, der nie das neueste Kauft, sondern Spiele die schon "ausgepatched" sind. Damit hat man dann auch keine Treiberprobleme mehr. Weshalb mein Aufrüstpfad ja von 3dfx zu ATI/AMD geführt hat. Ich hatte aber auch immer wieder die lustigsten Fehler. So lief mit manchen Updates auf meinen späteren Karten plötzlich Starcraft 2 nicht mehr, und wenn ich Streams geschaut habe lief es manchmal so, dass 1 Stream in 1080P geruckelt hat, und mit anderen, früheren Treibern konnte ich 3 parallel schauen, da war mal wieder die Hardwarebeschleunigung von Videostreams zerschossen...
Hier noch meine Aussage zu Intel-Grafikkarten aus 2018 (hab' sie eigentlich gestern schon gepostet, aber wurde wieder gelöscht....) die sich nicht geändert hat:
AW: Intel stellt eigenständige Konzept-GPU mit 64 mm² Chipfläche vor
Ja, wobei es mir schon um mehr geht als nur die höchsten FPS.
Wenn Intel jetzt plötzlich das beste Preis/Leistungs(FPS)verhältnis haben sollte, kommt mir das Ding trotzdem vielleicht nicht in der ersten Generation in den Computer: ich spiele viele Oldie/Klassik-Spiele dank meiner Steam Bibliothek und dort hat Intel trotz ausreichender Leistung noch massiv Probleme. Da ich nicht davon ausgehe, dass man das noch behebt (warum sollte man in Spiele investieren die nicht weiterentwickelt werden, deren Code nicht verändert/angepasst wird und die teils 10 Jahre vor Release ihrer Grafikkarte rauskamen), gehör ich zu der Randgruppe die sagt Intel ist hier vielleicht keine Option.
Bei neueren Titeln, vorallem wenns um neue APIs geht, sehe ich durchaus eine Chance für Intel, dieser Markt kommt gerade erst in den Schwung und man kann gleich mitmischen
Ich habe aber über die Arbeit 2 Intel Grafikkarten bekommen, die nun bei mir zu Hause schlummern. Vielleicht kriegen sie wie manch andere meiner Karten (Volari, Parhelia, Voodoos, VII) mal einen Sammlerwert, sonst haben sie einen idealistischen für mich
Ich geb mein bestes! Dennoch ist es in meinen Augen sehr erstaunlich, sie seit spätestens Zen 3 die Intelflagge hoch gehalten wird, denn seither haben sie eigentlich nichts zu melden, sind minimalst schneller, aber ineffizient wie sonstwas. Dennoch kaufen genug wissende Menschen die CPUs, für mich ein Zeichen, dass eben doch viele Fanboys hier herumschwirren.
Man muss hier klar unterscheiden zwischen "Highend" und Mainstream.
Highend kann man Intel im Moment echt nur unter speziellen Szenarien empfehlen.
Mainstream - da nehmen sich Intel und AMD wenig, Intel ist hier in Niedriglast-Szenarien bei manchen CPUs sogar deutlich besser, oder im Idle.
Somit gibt es wesentlich billigere Intel-CPUs für BüroPCs. AMD hat hier aber aufgeholt, weil auch jede Zen 4 CPU nun eine GPU hat.
Faktor 2 dürfte einfach das Produktionsvolumen sein, da haut Intel halt alles raus was geht um die OEMs zu füttern, AMD dürfte nicht die benötigten Bestellmengen bei TSMC haben. Das wird sich halt nur nach und nach ändern, weil die OEM Verträge oft lange gelten und man nicht einfach doppelt so viel bei TSMC bestellen kann um dann auf den unverkauften Chips zu sitzen. Der Markt ist hier sehr starr, aber AMD gewinnt nach und nach in den lukrativen Märkten.
Besonders der X3D ist eine der spannendsten Entwicklungen der letzten Jahre. Ähnlich wie der Broadwell-C ist es halt fast wirklich ein reines Spieler-Produkt und das gar nicht mal SOOOO teuer, wenn man bedenkt, dass ich mal AMD FX CPUs in der Hand hatte die über 1300€ gekostet haben und die Spieler das auch bezahlt haben, nur um die schnellste CPU zu haben. Das waren aber auch vergleichsweise heiße Teile, denn Stromsparen war noch nicht so ausgefeilt. Die jetztigen CPUs von AMD sind halt beides: sauschnell, sehr sparsam unter Last (ich muss mir die oftmals erwähnte Idle-Problematik noch genauer ansehen bevor ich mir eine CPU kaufe, da bei mir privat der PC viel im Niedriglast-Bereich läuft)
Gleiches bei NV, da wurde zur RTX3xxx Gen die Fahne hochgehalten und das gerade zu Beginn sehr oft grausige DLSS als Feature hergenommen um die deutlich bessere AMD 6xxx Serie (gleich schnell, ohne RT was damals kaum eine Rolle spielte, effizienter) zu diskreditieren und ein 450W Monster in seinem PC zu rechtfertigen.
Ich kaufe für mich immer noch keine Nvidia, das ist zwar eine dumme sache, weil sie vor 20 Jahren "mein" 3dfx gekauft haben, aber dennoch: als jemand der selbst Raytracer geschrieben hat (2006, damals für den Projektpartner ATI/AMD btw) finde ich den Kurs den Nvidia eingeschlagen hat einfach geil. Und, dass sowas wie DLSS notwendig war, habe ich 2018 unter den Tests immer wieder betont. Allerdings können manche nicht unterscheiden: ich meinte den technischen Fortschritt, nicht die Firma die das macht (was dann leider dazu geführt hat, dass ich wüst beschimpft wurde von den üblichen Verdächtigen...). Jedenfalls habe ich seither privat für mich vor abzuwarten bis AMD hier den Anschluss schafft und dann erst zuzuschlagen. Oder Intel. Nur nicht NV
Die RTX3xxx war an und für sich ein interessantes Stück technik, und hat schon auch gezeigt, dass Nvidia deutlich vorne ist: AMD war hier im Rastern effizienter, schneller, aber auch aufgrund eines deutlich besseren Verfahrens (AMD nutze hier den ausgereiften, schon aus Vega -> VII bekannten 7nm Prozess von TSMC, Nvidia nutzte Samsungs N8, der ein optimierter 10nm Prozess ist. Also war man deutlich zurück. Bei Gleichstand was die Fertigung betrifft hat Nvidia leider immer noch einen Vorsprung.
Die aktuelle Verzögerung bei RDNA4 und der angeblich frühe Nachfolger RDNA5 gibt aber Hoffnung, dass AMD hier mit RDNA5 auf frei werdende N3P Kapazitäten setzt, während Nvidia ja Blackwell in N4P fertigen lässt.
SOLLTE es so kommen - reiner hoffnungsvoller Spekulatius! - wäre dies AMDs Chance wieder vorne mitzuspielen: mit deutlich besserer RT Leistung etc.
RDNA wird 2025 ja auch schon wieder 6 Jahre alt (bzw. sind es 7 Jahre seit Nvidias Raytracing-Einführung), genug Zeit das alte Versprechen einzulösen "wir bringen Raytracing erst dann, wenn es ausgereift ist".
Deshalb kaufe ich kein RDNA4 -> aber eben vielleicht RDNA5, was vielleicht auch die Basis für die nächsten Konsolen wird und damit wieder "lange hält".
Aktuell hat AMD bis zur 4080 eigentlich keine Chance, drunter sieht die Lage wieder anders aus, da RT da für mich keine Rolle spielen darf, DLSS zwar gut ist aber AMD mit VRAM kontert und oftmals billiger ist. Dafür aber auch ineffizienter als Nvidia.
Raytracing und FSR3+ werden mit der kommenden Konsolengeneration die absoluten Must-Haves. Aber auch das war schon 2018 klar, dass das lange dauern wird bis es wirklich durchschlägt. Aber sollten die neuen Konsolen dann genug RT Power haben, wird es wohl ein Pflichtfeature, auch am PC. Das weiß auch AMD, ich denke da geht gerade sehr viel Knowhow rein. Ob mit RDNA5 (sofern sie noch so heißt, vielleicht kommt ein Rename) oder dann RDNA6 wird sich zeigen, aber die Zukunft geht über Raytracing. Das weiß halt auch Intel, sind wir mal gespannt was die mit Battlemage so zaubern.