News Gerüchte um RDNA 4: AMD soll die Radeon RX 8900 und Radeon RX 8800 gestrichen haben, oder etwa doch nicht?

Aber ist das nicht das Problem von AMD? Man muss sich reinfuchsen um die Karten optimal zu nutzen. Sehe ich mir hingegen die 4070ti an, die ich für meine Frau und Minecraft RTX gekauft habe, dann musste ich bisher nur einmal den Treiber einstellen und sonst nichts. Ansonsten läuft die Karte einfach und ist im Leerlauf als auch bei Teillast beeindruckend effizient.
Exakt so gehts mir mit meiner 7900XTX auch.
Installiert, benutzt und es funktioniert sonst keinerlei Probleme - nichts.
Und im Leerlauf ist der Verbrauch mittlerweile auch überschaubar, kann mich nicht beklagen.
 
Ich gehe stark davon aus das eine 5070Ti wieder das alte Flaggschiff nur mit weniger Speicher ablösen wird.
Das war noch nie der Fall.
Bei der 3000´er Serie konnte die 70´er Karte noch die 3 schnellsten Karten der letzten Gen (2080, 2080 Super u. 2080 Ti) in Schach halten. Bei der 4000´er unterliegt eine 4070 Ti noch knapp der Speerspitze der letzten Gen (3090 Ti).
Von daher wird es glaub eng ...
 

Anhänge

  • GPU Bench.jpg
    GPU Bench.jpg
    320,4 KB · Aufrufe: 14
a) Dass man voll auf MCM gesetzt hat für RDNA4, also auch das Verwenden mehrerer (wahrscheinlich zwei) GCDs und dass man die damit verbundenen umfangreichen Probleme nicht hinreichend gelöst bekommen hat für das Releasezeitfenster, sodass man hier nun die Reißleine zieht.
Wobei man schon sagen muss, dass die 7900XTX erstaunlich gut funktioniert, dafür, dass es ja schon irgendwie der erste Ansatz eines MCM Designs ist, klar rechnen hier nicht schon zwei GCDs zusammen, aber dennoch ist ja schon einiges an Problematiken abgefrühstückt. Von meinem Verständnis müsste man sogar mit zwei GCDs den Bereich RT sehr gut aufholen, denn so wie ich es verstanden habe, sollte es "wenig" Probleme mache, wenn ein GCD die normalen Aufgaben übernimmt und der zweite GCD dann nur RT berechnet, die Daten im Speicher wären die gleichen. Man würde die Leistung nicht verdoppeln, aber ich denke man würde einen deutlichen Sprung im RT Bereich sehen, da man beide GCDs dann natürlich dem Sweetspot annähern würde und die Effizienz somit dramatisch verstärken würde.

Ein weiterer Punkt könnte sein, dass AMD auch Fertigungs- bzw. insbesondere Packaging-Kapazitäten-limitiert ist und man sich entschlossen hat, dass ihre sehr überschaubaren GPU-Umsätze es schlicht nicht Wert sind zurzeit Ressourcen beim Packaging und dann noch beim notwendigen R&D für ein derartiges Design zu versenken, während diese Ressourcen dann für margenträchtigere, gefragtere Produkte fehlen.
Das wird in den kommenden Jahren ganz klar immer das Problem sein, so lange sich CPUs und vor allem Konsolen gut verkaufen, sind von den verfügbaren Kapazitäten eben schon recht viel gebunden. Daher wird man unter Umständen eben diesem Umstand Rechnung tragen und den High End Bereich (Enthusiast glaube ich persönlich einfach nicht) fallen lassen, so wie man es ja seit der 7970 eigentlich immer getan hat (da hieß bei NV das Kind halt nur anders und wurde in Titan umgewandelt, wo man dann auf Grund der sehr guten RDNA 2 Gen, plötzlich wieder das Namensschema ändern musste um nicht mit der 3080 gegen die 6900XT komplett abzuschmieren).


Wenn die davon ausgehen, dass AMD kein großer Sprung gelingen wird
Wobei die Gerüchte dort von einem Effizienzsprung bis zu 60% sprechen, was ja schon ein immenser Sprung wäre. Aber ich denke (interpretiere) mal in deine Aussage, dass ein Leistungssprung im High End gemeint ist.

Darüber hinaus kann AMD nicht bei 5nm bzgl. der GPUs (konkret dem GCD) verbleiben
Sehe ich etwas anders, Nvidia ist ohnehin vorne weg, die Karten in 5nm werden ja eher "günstiger", 3nm wird wieder einen deftigen Schluck aus der Pulle nehmen und die Preise bei TSMC werden nicht schlecht werden. Intel ist einfach noch keine ernsthafte Gefahr, die Karten haben an allen Ecken und Enden unnötig Baustellen. Eine Arc 770 liegt bei rund 50% der Leistung einer 6900XT, beide in 7nm Prozess gerfertigt, eine 7900XTX ist 132% weg, bei gleichzeitig überlegener Effizienz! Da wird Intel noch mind. zwei Generationen brauchen und jedes Mal immense Schritte machen müssen um in den Bereich der RDNA3 zu kommen, denn selbst in N3P geferfigt würde die ARC nicht in den Bereich einer RDNA3 Karte kommen!

Ich kann mir schon vorstellen, dass man im N5P wildert und mit 10-15% IPC Verbesserungen, evtl. zusätzlichem Cache einiges verbessern kann. Dazu evtl. noch GDDR7 und dann wird man schon 30% Leistungssteigerung anpeilen können, im nur minimal verbesserten Prozess. Klar ist, das High End ist dann kein Zielbereich, dafür ist die 4090 einfach zu gut! Aber man hat dennoch mit solch einer theoretischen GPU vieles auf seiner Seite, man kann günstig anbieten, denn so ein GCD ist ja nicht wirklich groß (300mm²), während NV doch schon immens Chipfläche verbrät (608mm²), da wird alleine der Unterschied im Yield, mal abgesehen von der möglichen Platzierung auf dem Wafer und der Verteilung schon eine Menge Unterschied machen. Die MCDs sind ja sogar nur 37mm² groß (in einer 7nm Fertigung), da wird der Yield enorm sein.

Daher hat AMD in meinen Augen tendenziell den Vorteil viel mehr Chipfläche anbieten zu können als NV, weil eben der Yield deutlich besser sein müsste bei der MCM Bauweise.

Noch eine allgemeine Anmerkung, weil zuvor gelesen und anscheinend den feuchten Träumen einiger Fanboys erwachsen: AMD kann hier nicht "beliebig" viele GCDs koppeln. Einerseits müssen erst mal die umfangreichen designtechnischen Probleme gelöst werden für ein derartiges GPU-Design, andererseits verbraucht mehr aktives Silizium auch mehr Energie, d. h. wenn nVidia beim Top-Chip mit bspw. monolithischen 650 mm2 aufwarten würde, würde AMD diesen sicherlich nicht "zerstören" mit einem 900 mm2-MCM, denn der würde beträchtlich mehr Energie verbrauchen, insbesondere wenn man auch noch i. V. z. nVidia auf einen älteren Prozess zurückgreifen müsste.
???
1.) Ja, designtechnische Probleme müssten gelöst werden, siehe aber oben, ein Teil davon ist ja bereits gelöst und funktioniert durchaus überaschend gut (MCDs)
2.) beliebig viele wird man nicht koppeln können, denke aber, dass zwei derzeit schon "Sinn" ergeben könnten, gerade wenn man eben RT mit reinbringt, preistechnisch aber wahrscheinlich weniger sinnvoll.
3.) Mehr aktives Silizium verbraucht nicht automatisch mehr Strom, das ist Quatsch. Überhaupt ist meines Erachtens nach kein Rückschluss von der Fläche auf den Verbrauch zu schließen. Wie sonst wäre es zu erklären, dass bspw. nur ein BIOS (EffizienzBIOS) alleine schon einen Unterschied von 100W zu 500W Verbrauch machen kann? In der Regel ist es sogar so, dass mehr Silizium positiv auf den Verbrauch wirkt, bspw. 3D gestackter Speicher auf den aktuellen Ryzens.
 
Aber ist das nicht das Problem von AMD? Man muss sich reinfuchsen um die Karten optimal zu nutzen.

Das halte ich für Unsinn. Ich hatte mit meinen bisherigen AMD Produkten keine Probleme weder bei CPU noch GPU, die liefen out of the box ohne Probleme. Gleiches gilt für Intel und Nvidia ebenso.

Einbauen loslegen.

Kein Vergleich zu früher wo man sich wirklich reinfuchsen musste. Wie bekommt man Adlib, Midi-Sound, Himem, autoexec.bat, config.sys, Bios- und Interrupt-Einstellungen in Einklang und wieso geht die Testdrive 5,25" Diskette nicht mehr :-D
 
Das ist nicht dein Ernst? :ugly:
Du vergleichst Diebstahl ernsthaft mit einer Preiserhöhung aufgrund von teurer Herstellungskosten und mangelender Konkurrenz?
Sorry, aber das ist sowas von Äpfel und Birnen.

Nein, natürlich nicht.

Ich sage nur, dass das "Argument" genauso schräg ist.

Der Thread dreht sich um RDNA4 und zwei Kommentare (einer davon mit den meisten Reaktionen) auf der ersten Seite drehen sich schon wieder um mimimi bezüglich Nvidia. Nennt man auch Whataboutism oder Offtopic.

ES geht darum, was wäre, wenn die RX 8900er nicht erscheinen würden und welche Auswirkungen das hätte. Eine Auswirkung wäre eben, dass Nvidia dort keine Konkurrenz mehr hätte und die Preise nach belieben erhöhen könnte (wobei es ja nicht so ist, als würde sich AMD allzu aggressiv dagegen stellen, die machen mit). Deshalb ist es eben kein Offtopic, auch wenn dir es so lieb wäre..
 
Eine Auswirkung wäre eben, dass Nvidia dort keine Konkurrenz mehr hätte und die Preise nach belieben erhöhen könnte .
Und das ist ein Problem das 99% der PC Gamer eher wenig bis gar nicht tangiert.

Meinetwegen kann NVIDIA die RTX5090 für 10.000€ anbieten. Es gibt immer verrückte die ihr erspartes für Schwachsinn ausgeben.

AMD ist nicht in der Pflicht für euch die Preise von NVIDIA zu drücken.
 
Das ist zwar alles sehr schwarzgemalt aber ich glaube wir steuern auf eine art neue Pc gaming kriese zu . Nvidia konzentriert sich voll auf AI , Amd ist auch auf dem weg, weils einfach mehr kohle bringt.

"7.38 PFLOPS of compute was delivered today, with exaflops more to come." (Wobei man rund 8000 Karten bräuchte für ein ExaFLOP an FP16 ...)

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

George Hotz - ein "etwas" schräges Programmier-Genie, den mancher vielleicht noch als ersten iPhone- und PS3-Hacker "geohot" kennt - kauft gerade AMD Karten wie ein Verrückter.

Ne ai entscheidet nix das macht der vorgegebene Algorithmus sowas gab es schon 1999 ansonsten gäbe es google nicht.

Nein, ein neuronales Netz funktioniert eben nicht nach einem vorgegebenen Algorithmus. Hier eine recht anschauliche Erklärung: https://studyflix.de/informatik/neuronale-netze-4297
Für deutlich bessere Videos muss man auf Englisch schauen, z.B. bei 3Blue1Brown:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Meinetwegen kann NVIDIA die RTX5090 für 10.000€ anbieten. Es gibt immer verrückte die ihr erspartes für Schwachsinn ausgeben.

Das Problem ist, dass es auch alle anderen Produkte betrifft. Früher war eine GeForce 8 8800 Ultra für 699€ etwas für Verrückte, heute ist es die gehobene Mittelklasse. Früher hat man für 350€ die zweitbeste Karte bekommen, heute die zweit schlechteste einer Generation. Ohne AMD wird es generell teurer.

AMD ist nicht in der Pflicht für euch die Preise von NVIDIA zu drücken.

Ja aber ich kann es trotzdem schlecht finden, wenn sie es nicht mehr machen. Man muß nicht jeden Sche*ß. der einem vorgesetzt wird, auch noch mit einem Lächeln aufessen und dankbar runterschlucken.
 
Nein nur habe ich Ahnung und du nicht. Das du Fanboy je auch nur eine AMD GPU hattest oder dich damit auseinander gesetzt hast darfst du gerne irgendwem erzählen der dir deine Aussagen glaubt oder den sie interessieren
Du das ist mir schnuppe ob du mir was glaubst oder nicht. Was hätte ich denn von sowas? Das habe ich mit meinen mitte 40 nicht mehr notwendig zu behaupten was nicht stimmt. Wenn es dich nicht interessieren würde, oder du dich nicht getriggert gefühlt hättest, hättest du es auch einfach ignorieren können.

Fanboy? Ist das, dass Wort wenn die Argumente ausgehen? Ich habe mich durch dieses Forum blenden lassen und habe mir die 7900XTX gekauft, weil ich immer wieder gelesen habe wie geil wie toll wie sparsam, wie schön, wie wie wie wie.... Das ist Fanboy nicht, dass was ich geschrieben habe. Ich habe nur Probleme gehabt mit der Karte und habe Glück gehabt, eine verständnisvolle Frau zu haben, die mir am Freitag erlaubt hat, obwohl unvernünftig nochmals knappe 1.600€ in die Hand zu nehmen und Ja ich bin froh das ich es gemacht habe und JA ich bin jetzt sehr zufrieden, da kann mich dein schlecht gelauntes Gemüt aber sowas von nicht beeindrucken.
 
Zuletzt bearbeitet von einem Moderator:
Nein, ein neuronales Netz funktioniert eben nicht nach einem vorgegebenen Algorithmus.
Das ergibt Null Sinn! Ohne Algorithmus keine Computer-Implementierung! Ein neuronales Netz kann Muster in Daten extrahieren/erlernen, die man nicht algorithmisch/mathematisch beschreiben kann.

Neuronale Netze werden z.Bsp. in der Wettervorhersage seit Jahrzehnten benutzt, weil es keine "Wettergleichungen" gibt!

Die Mathematik hinter neuronalen Netze ist simpel und hat sich wesentlich nicht geändert seit fünf Jahrzehnten!
Ich habe antiquarische Bücher darüber (Bioinformatik), wo vieles in den 60'gern aber auch schon den 1940'gern aus der Gehirnphysiologie abgeleitet wurde.
 
Wobei man schon sagen muss, dass die 7900XTX erstaunlich gut funktioniert, dafür, dass es ja schon irgendwie der erste Ansatz eines MCM Designs ist, klar rechnen hier nicht schon zwei GCDs zusammen, [...]
Nein, nicht wirklich und du skizzierst schon selbst was das eigentliche Ziel ist und was man offensichtlich immer noch nicht erreicht hat. Die Speichercontroller auszulagern ist vergleichsweise trivial, bei GPUs ist die eigentliche Herausforderung mehrere Chips mit Rechenkernen/Shadern zusammenarbeiten zu lassen, latenztechnisch wie auch Cache-kohärenztechnisch und eine optimale Lastverteilung, etc.
Wie schon erklärt, daran arbeitet die gesamte Industrie schon seit gut einem Jahrzehnt (wohlgemerkt Grafik-Workloads, nicht Compute-Workloads auf GPUs). Aktuell gibt es lediglich mit der C-Series von Imagination Technologies ein entsprechend skalierbares Design ink. Raytracing und inwiefern deren Lösungsansatz auf die deutlich größeren und leistungsstärkeren PC-GPUs übertragbar ist, ist ein anderes Thema.

Darüber hinaus, als allgemeine Anmerkung: Es ist wenig wahrscheinlich, dass bei Thema GPU-MCM AMD dem Marktführer hier irgendwas voraus hat (zumal beide mit TSCM zusammenarbeiten). Entspechend bleibt es auch bzgl. der zukünftigen Gen bewertungstechnisch erst mal dabei, dass wenn nVidia möglicherweise ein weiteres Mal "nur" mit einem monolithischen Design aufzuwarten gedenkt, die sich das wohlüberlegt haben werden.

Das wird in den kommenden Jahren ganz klar immer das Problem sein, so lange sich CPUs und vor allem Konsolen gut verkaufen, sind von den verfügbaren Kapazitäten eben schon recht viel gebunden. Daher wird man unter Umständen eben diesem Umstand Rechnung tragen und den High End Bereich (Enthusiast glaube ich persönlich einfach nicht) fallen lassen, so wie man es ja seit der 7970 eigentlich immer getan hat (da hieß bei NV das Kind halt nur anders und wurde in Titan umgewandelt, wo man dann auf Grund der sehr guten RDNA 2 Gen, plötzlich wieder das Namensschema ändern musste um nicht mit der 3080 gegen die 6900XT komplett abzuschmieren).
Die Konsolen haben damit nichts zu tun. Hier sind Packaging-Kapazitäten eher der limitierende Faktor, während die Konsolen ein monolithisches Design darstellen und zudem eine Produktkategorie mit geringer Marge darstellen, die AMD eher zugunsten anderer Produkte absägen würde, wenn sie könnten. Der Vertrag wurde 2016/17 jedoch zur Sicherung des Cash Flow benötigt und entsprechend band man sich hier (erneut) an Sony/Microsoft. Man darf gespannt sein, wie das in 2027+ weitergehen wird mit den Konsolen, denn AMD dürfte dann eine deutlich gestärkte Marktposition inne haben und das bedeutet, dass man sie nicht mehr so "leicht" runterhandeln kann. Denkbar wäre gar, dass es dann wieder einen echten Wettbewerb bei der Konsolenausschreibung geben wird und möglicherweise kommt die NextGen dann gar von jemand anderem oder wohlmöglich gar aus dem ARM-Lager?
Zu dem konkreten RDNA4-Gerücht hoffe ich sehr dass das ein Irrtum war oder man schlicht nur noch nichts vom eigentlichen HighEnd gehört hat, vielleicht weil dieses erst für 2025 vorgesehen ist? Wer weiß, aber wenn hier AMD komplett die Reißleine zieht wäre das schlecht für den PC-Markt.

Wobei die Gerüchte dort von einem Effizienzsprung bis zu 60% sprechen, was ja schon ein immenser Sprung wäre. Aber ich denke (interpretiere) mal in deine Aussage, dass ein Leistungssprung im High End gemeint ist.
Dass man darauf und auf AMDs Werbeaussagen nicht viel geben kann, hat man doch erst "kürzlich" bei RDNA3 gesehen. Der signifkante Fortschritt ggü. RDNA2 ist zweifellos gegeben, dennoch unterliegt man der Konkurrenz und ist gar effizienztechnisch klar schlecher aufgestellt. Hier wird man abwarten müssen was konkret mit RDNA4 kommt und ob es AMD diesmal vermeiden kann seine Hardware mit einem handfesten Hardware-Bug zu veröffentlichen.

Sehe ich etwas anders, Nvidia ist ohnehin vorne weg, die Karten in 5nm werden ja eher "günstiger", 3nm wird wieder einen deftigen Schluck aus der Pulle nehmen und die Preise bei TSMC werden nicht schlecht werden. Intel ist einfach noch keine ernsthafte Gefahr, die Karten haben an allen Ecken und Enden unnötig Baustellen. Eine Arc 770 liegt bei rund 50% der Leistung einer 6900XT, beide in 7nm Prozess gerfertigt, eine 7900XTX ist 132% weg, bei gleichzeitig überlegener Effizienz! Da wird Intel noch mind. zwei Generationen brauchen und jedes Mal immense Schritte machen müssen um in den Bereich der RDNA3 zu kommen, denn selbst in N3P geferfigt würde die ARC nicht in den Bereich einer RDNA3 Karte kommen!

Ich kann mir schon vorstellen, dass man im N5P wildert und mit 10-15% IPC Verbesserungen, evtl. zusätzlichem Cache einiges verbessern kann. Dazu evtl. noch GDDR7 und dann wird man schon 30% Leistungssteigerung anpeilen können, im nur minimal verbesserten Prozess. Klar ist, das High End ist dann kein Zielbereich, dafür ist die 4090 einfach zu gut! Aber man hat dennoch mit solch einer theoretischen GPU vieles auf seiner Seite, man kann günstig anbieten, denn so ein GCD ist ja nicht wirklich groß (300mm²), während NV doch schon immens Chipfläche verbrät (608mm²), da wird alleine der Unterschied im Yield, mal abgesehen von der möglichen Platzierung auf dem Wafer und der Verteilung schon eine Menge Unterschied machen. Die MCDs sind ja sogar nur 37mm² groß (in einer 7nm Fertigung), da wird der Yield enorm sein.
Das sei dir zugestanden, ändert aber nichts am Fakt, dass AMD ohne eine moderne Fertigung keine großen Sprünge, sondern nur kleine iterative Schritte machen kann und das wird absehbar schnell zum Problem bzw. führt zu mangelnder Konkurrenzfähigkeit, denn nVidia wird zweifellos den Fertigungsprozess upgraden, im worst case für AMD gar hin zu einem 3 nm-Prozess. nVidia kann sich übrigens 3 nm aufgrund ihrer beträchtlich größeren Marktanteile weitaus eher leisten als AMD für seine regulären GPU-Produkte, was ja auch der Grund dafür ist, dass AMD sehr kostensensitiv bei GPUs ist und entsprechend, sowie vielfach fehlinterpretiert, diente das MCM-Design bei RDNA3 primär der Kostensenkung. Ob man bei RDNA4 ggf. schon multiple GCDs zu sehen bekommen wird, muss man erst noch abwarten oder hoffen, dass derartiges ggf. 2025 nachgereicht wird?
Entsprechend wird das 2024er-RDNA4 vermutlich einen 4 nm-Prozess nutzen ... es sei denn, die Gerüchte bewahrheiten sich doch und man zieht sich aus dem oberen GPU-Marktsegment zurück und will lediglich den GPU-Markt nicht gleich komplett aufgeben und bleibt in dem Fall extrem kosteneffizient doch noch auf einem 5 nm-Prozess. In dem Fall würde man sich aber vermutlich eher selbst ein Ei legen, denn dann würde man beträchtlicher Konkurrenz gleich aus zwei Lagern gegenüberstehen, einerseits nVidia, andererseits dann auch Intel.

*) Anmerkung: Das mit dem "günstiger werden" hat bei TSMCs Prozesskosten in den letzten zwei Jahren aufgrund der mehrmaligen Preiserhöhungen seitens TSMC eher nicht geklappt und obwohl bspw. 5 nm schon seit 2020 im Markt sind, haben sich die Wafer-Preise bisher "erschreckend" wenig verringert ... ;-)

**) Btw, Intel ist für AMD eine weitaus größere Konkurrenz, als es vielleicht gemeinhin den Anschein hat, wenn man sich JPRs letzte Zahlen ansieht. Einerseits hat AMD bei Add-In-Boards grundsätzlich beträchtliche Marktanteile (trotz RDNA2 und 3) verloren, andererseits geben die nun Intels Anteil als bereits 1/3 so groß wie der von AMD an. Das ist bereits ein signifkanter Anteil (oder unterstreicht wie wenig AMD eigentlich verkauft), insbesondere wenn man berücksichtigt mit welchen Startschwierigkeiten Alchemist in den Markt kam. Sofern Intel hier nicht den Stecker zieht, rechnen muss man damit immer, darf man hier in 2024 mit durchaus etwas einigermaßem Konkurrenzfähigem rechnen und auch diese Startschwierigkeiten werden für Battlemage höchstwahrscheinlich entfallen.

Daher hat AMD in meinen Augen tendenziell den Vorteil viel mehr Chipfläche anbieten zu können als NV, weil eben der Yield deutlich besser sein müsste bei der MCM Bauweise.
Nein, zweifellos nicht, denn wie schon eingangs erklärt ist das schlicht eine Designentscheidung von nVidia und wenn die der Meinung sein sollten, dass die um markttechnisch bestehen zu können, ein MCM benötigen werden, wird das schlicht kommen. Wie gesagt, es ist unwahrscheinlich, dass AMDs kleine GPU-Sparte nVidia hier nennenswert was voraus hat. (Und nein, das ist eine Marktbewertung und hat nichts mit Bauchgefühl oder persönlicher Präferenz zu tun. ;-))

???
1.) Ja, designtechnische Probleme müssten gelöst werden, siehe aber oben, ein Teil davon ist ja bereits gelöst und funktioniert durchaus überaschend gut (MCDs)
2.) beliebig viele wird man nicht koppeln können, denke aber, dass zwei derzeit schon "Sinn" ergeben könnten, gerade wenn man eben RT mit reinbringt, preistechnisch aber wahrscheinlich weniger sinnvoll.
3.) Mehr aktives Silizium verbraucht nicht automatisch mehr Strom, das ist Quatsch. Überhaupt ist meines Erachtens nach kein Rückschluss von der Fläche auf den Verbrauch zu schließen. Wie sonst wäre es zu erklären, dass bspw. nur ein BIOS (EffizienzBIOS) alleine schon einen Unterschied von 100W zu 500W Verbrauch machen kann? In der Regel ist es sogar so, dass mehr Silizium positiv auf den Verbrauch wirkt, bspw. 3D gestackter Speicher auf den aktuellen Ryzens.
1) Nein, hat man bisher nicht wirklich gelöst, wie gesagt, das Speicherinterface auszulagern ist dagegen vergleichsweise trivial. Und überraschend gut funktioniert es eben nicht, es funktioniert, nicht mehr und nicht weniger. Würde es nicht funktionieren, würde man gar nicht darüber reden, weil das Design nicht über einen Prototyp-Status hinausgekommen wäre. ;-) Darüber hinaus funktioniert es mit Einschränkungen, da AMD hier einen handfesten Hardware-Bug im Desing hat, der genau diesen MCM-Ansatz betrifft und den man nur treibertechnisch auf wortwörtlich den letzten Drücker kompensieren aber nicht lösen konnte (mit entsprechenden Leistungsverlusten).
2) Ja, zwei GCDs zu koppeln wäre durchaus ein Ansatz. Ob die Zeit dafür schon mit RDNA4 gekommen sein wird, wird man abwarten müssen. Damit hätten sie dann aber tatsächlich einen echten Druchbruch erreicht und würde nicht nur, so wie jetzt, die Fertigungskosten drücken.
3) Doch, tun sie in diesem Falle schon. In diesem Kontext: GPUs sind darauf ausgelegt ihre Funktionseinheiten vollumfänglich auszulasten, d. h. hier arbeitet der "gesamte Chip" parallel. Natürlich kannst du dich nun hin zu moderaten Taktraten hin bewegen, aber den Leistungsverlust muss du wiederum durch noch mehr Chipfläche kompensieren und da beginnt sich dann die Katze in den Schwanz zu beißen. Und wenn du das Design noch weiter aufbrichst auf bspw. vier Chips, dann steigt die Latenz und der Overhead für Kommunikation und Cache-Kohärenz zusätzlich, d. h. auch dieser Punkt mindert wiederum die erzielbaren Zugewinne. Das Ganze auszutarieren ist zweifellos eine komplexe Rechnung und erfordert zudem internes Zahlenmaterial aber am Ende dampft sich das auf eine simple Betrachtungsweise ein: Sofern nVidia nicht gedenkt dem Consumer-GPU-Markt den Rücken zuzukehren und sich in Richtung AI-Gefilde zu verabschieden, kannst du davon ausgehen, dass wenn sie der Meinung sind, dass (wenn auch nur im oberen Marktsegment) wenn Sie wenn sie ein derartiges Design benötigen würden, AMD sich sicher auch genau so einem Konkurrenzprodukt gegenüber sehen werden. Dass AMD hier nVidia in irgendeiner Art "überrumpeln" kann, darf man eher als unwahrscheinlich ansehen ... wobei preisentwicklungstechnisch wäre das sicherlich mal zu begrüßen ... ;-)


Also einfach mal darauf hoffen, dass AMD hier "nichts streicht" und dass Intel ein ordentlich weiterentwickeltes Battlemage im nächsten Jahr vorlegen kann.
Schlussendlich bleibt aber auch noch die Frage, wie weit sich das ganze preistechnisch überhaupt regulieren und entwickeln kann, denn natürlich kann man erst mal unreflektiert nach immer mehr Grafikleistung rufen ... was die Entwicklungskosten (Design wie auch Fertigung) angeht, könnte es aber auch sein, dass man sich so langsam von dem Gedanken verabschieden muss, dass es immer mehr Leistung für immer weniger Geld geben wird, schlicht, weil die Fertigung dermaßen komplex wird, dass die Kosten gar nicht in dem erwünschten Rahmen sinken können ...
 
Das ergibt Null Sinn! Ohne Algorithmus keine Computer-Implementierung! Ein neuronales Netz kann Muster in Daten extrahieren/erlernen, die man nicht algorithmisch/mathematisch beschreiben kann.
Genau das habe ich ja gemeint, dass eben niemand dasitzt und den Algorithmus eintippt, mit dem das NN anschließend sagen wir mal die Ziffer 1 zu 97% erkennt.
 
Man darf gespannt sein, wie das in 2027+ weitergehen wird mit den Konsolen, denn AMD dürfte dann eine deutlich gestärkte Marktposition inne haben und das bedeutet, dass man sie nicht mehr so "leicht" runterhandeln kann. Denkbar wäre gar, dass es dann wieder einen echten Wettbewerb bei der Konsolenausschreibung geben wird und möglicherweise kommt die NextGen dann gar von jemand anderem oder wohlmöglich gar aus dem ARM-Lager?
Am Ende zählt wer Grafikleistung bieten kann. Und wenn da niemand Lust hat eine Imagination IP selbst zu implementieren bleiben damit AMD, Intel und NV. Wobei NV dann nicht besonders optimierte ARM CPUs bedeutet. Bleiben AMD und Intel.
 
Am Ende zählt wer Grafikleistung bieten kann. Und wenn da niemand Lust hat eine Imagination IP selbst zu implementieren bleiben damit AMD, Intel und NV. Wobei NV dann nicht besonders optimierte ARM CPUs bedeutet. Bleiben AMD und Intel.
Also ich denke NV-Module mit RISCs drauf kommen bestimmt nicht in Spielekonsolen. Die sollen ja keine 30 Riesen kosten.
Da Intel momentan keine besonders guten APUs baut, gehe ich davon aus, dass die PS6 wieder eine AMD-APU hat. Sony hat gute Erfahrungen mit AMD, M$ auch!

Nur so, um viel Staub um überhaupt Nichts zu machen.:-D
 
Ich glaube Mores Law das da etwas gestrichen wurde ja.

Aber ich denke nach wie vor nicht das die 8800 und 8900 nicht kommen.

AMD wird wohl mehr Tests und Beta Produkte haben, zudem ist der ganze Chip der da gestrichen wurde auch echt riesig, hört sich mehr so an als wäre es ein Prototyp für eine Dual GPU in einem einzigen Chip verbunden mit Cache.

Am Ende ist die 8900 vermutlich eh nicht so etwas komplexes sondern nur eine 7900XTX mit verkleinert mit leicht überarbeiteten Infinity Cache und anderem Takt das wars... :ka:
 
Ich hoffe echt dass das Gerücht falsch ist :( Meine 6950XT freut sich auf eine Ablösung und die nVidia Tax möchte ich ungern bezahlen 😅
 
Zurück