News Geforce RTX 5000: GB20X-GPUs mit ähnlichem Speicher-Interface wie RTX-4000-Serie?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 5000: GB20X-GPUs mit ähnlichem Speicher-Interface wie RTX-4000-Serie?

Angeblich will Nvidia bei den RTX-5000-Grafikkarten keine Änderungen am Speicher-Interface vornehmen. Die Blackwell-GPUs sollen diesbezüglich den entsprechenden Lovelace-Modellen entsprechen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce RTX 5000: GB20X-GPUs mit ähnlichem Speicher-Interface wie RTX-4000-Serie?
 
Das wird nicht passieren da das Si analog ist und nicht kleiner werden kann mit dem Node.
Erst GAA wird das Si halbieren in der Größe was zur folge hat das ab rubin 2027 vielleicht wieder 192-512bit geben wird. jetzt wird das maximal 96-320bit
Nvidia könnte auch ein echtes LLC einbauen und das si halbieren daran zweifle ich aber da dies ein kompletter umbau der arch notwendig wäre und man auch ein 64bit design umbauen müsste
Das wie wir wissen nicht effizient arbeiten kann technisch wäre ein Kompromiss mit 48bit möglich erfordert aber drastische änderung bei der cache Struktur und muss mit software angepasst werden..
Dieser Schritt erwarte ich erst bei rubin 2027 an
Blackwell wird wieder ampere/ada design auf Stereoiden um die 3,2-3,57ghz werden. Mir anderen sku Ausbaustufen mit mehr sm das wars das spannende ist gddr7 16gbit oder gddr7 24gbit letztere ist aufgrund des release Zeitpunkt eher anzunehmen.
Ein n3 wafer kostet grob 20000$ da will man so viele chips wie nur möglich heraus haben . Daher ist größeres oder gleiches Si unwahrscheinlich
 
Das wird nicht passieren da das Si analog ist und nicht kleiner werden kann mit dem Node.
Erst GAA wird das Si halbieren in der Größe was zur folge hat das ab rubin 2027 vielleicht wieder 192-512bit geben wird. jetzt wird das maximal 96-320bit

Nvidia hatte schonmal ein 512 Bit Interface, die GTX 280 ist vor 16 Jahren erschienen. Damals wurde noch in 65nm gefertigt.

Soviel dazu.
 
Nur weil es technisch möglich ist, heißt es nicht das es auch wirtschaftlich sinnvoll ist, vor 16 Jahren sah die Welt anders aus.
Ich persönlich halte auch ein 512 bit Interface bei Blackwell für Wunschdenken, das würde soviele Änderungen in der Architektur erfordern, den Schritt würde nVidia vielleicht gehen wenn sie wirklich müssten, wenn AMD ihnen Druck ohne Ende machen würde. Aber bisher sieht es im GPU-Markt bei weitem nicht danach aus (AMD macht scheinbar lieber Druck über Instinct MI), ich erwarte daher für Blackwell eher Evolutionen statt Revolutionen. Mit GDDR7 gäbe es auch genug Möglichkeiten, mehr Bandbreite zu bekommen ohne das Interface umzubauen. nVidia wird wahrscheinlich erst diesen Weg ausreizen, bevor sie ein komplett neues Design riskieren.
 
Heißt übersetzt, die wollen die Leistung ihrer GPUs künstlich beschneiden. Sowas kommt leider dabei raus wenn man keine wirklichen Konkurrenten hat.
Ich sehe da keine "künstliche Beschneidung" wenn man von Anfang an das Design des Speicherinterface so auslegt. Bitte erklär mir das, oder ist das ein Fall von "Mach Dir die Welt wie sie Dir gefällt!"?

Durch GDDR7 bekommt man bei gleichem Interface ~30% mehr Bandbreite. Das ist schon enorm.
 
Das wird nicht passieren da das Si analog ist und nicht kleiner werden kann mit dem Node.
Erst GAA wird das Si halbieren in der Größe was zur folge hat das ab rubin 2027 vielleicht wieder 192-512bit geben wird. jetzt wird das maximal 96-320bit
Nvidia könnte auch ein echtes LLC einbauen und das si halbieren daran zweifle ich aber da dies ein kompletter umbau der arch notwendig wäre und man auch ein 64bit design umbauen müsste
Das wie wir wissen nicht effizient arbeiten kann technisch wäre ein Kompromiss mit 48bit möglich erfordert aber drastische änderung bei der cache Struktur und muss mit software angepasst werden..
Dieser Schritt erwarte ich erst bei rubin 2027 an
Blackwell wird wieder ampere/ada design auf Stereoiden um die 3,2-3,57ghz werden. Mir anderen sku Ausbaustufen mit mehr sm das wars das spannende ist gddr7 16gbit oder gddr7 24gbit letztere ist aufgrund des release Zeitpunkt eher anzunehmen.
Ein n3 wafer kostet grob 20000$ da will man so viele chips wie nur möglich heraus haben . Daher ist größeres oder gleiches Si unwahrscheinlich
Bin mal gespannt, ob überhaupt etwas von dem genannten eintreten wird.

Ich kenne leider nicht die Preislisten der Hersteller um zu sagen, dass ein Wafer 20000$ kostet.

Die AMD R9 390 & HD 2900xt hatte auch schon 512bit Speicheranbindung.
 
Ich sehe da keine "künstliche Beschneidung" wenn man von Anfang an das Design des Speicherinterface so auslegt. Bitte erklär mir das, oder ist das ein Fall von "Mach Dir die Welt wie sie Dir gefällt!"?

Durch GDDR7 bekommt man bei gleichem Interface ~30% mehr Bandbreite. Das ist schon enorm.
Die Beschneidung findet in dem Moment statt, in dem man sich willlkürlich für eine geringere Bandbreite entscheidet, obwohl eine größere nicht mit höheren Kosten verbunden wäre und sich dadurch mehr Leistung aus ihren Chips holen ließe. Diese zusätzliche Leistung braucht man eben nicht, wenn man auch ohne die Konkurrenz bereits Meilenweit abhängt, also beschneidet man lieber seine eigenen Produkte.

Dadurch kann man später die gleichen Karten mit größerem Speicherinterface als "Super" oder "Ti" oder schlagmichtot verkaufen und schön bei den dummen Spielern abkassieren. So macht Nvidia es übrigens seit Jahren.
 
Bin mal gespannt, ob überhaupt etwas von dem genannten eintreten wird.

Ich kenne leider nicht die Preislisten der Hersteller um zu sagen, dass ein Wafer 20000$ kostet.

Die AMD R9 390 & HD 2900xt hatte auch schon 512bit Speicheranbindung.

https://www.tomshardware.com/news/tsmc-expected-to-charge-25000usd-per-2nm-wafer

1710007223048.png


Günstiger werden die nicht. Obwohl einige hier im Forum ja behaupten dass Technik jedes Jahr günstiger wurde, und werden muss. Trifft auf state-of-the-art Kram einfach nicht zu.

Die Beschneidung findet in dem Moment statt, in dem man sich willlkürlich für eine geringere Bandbreite entscheidet, obwohl eine größere nicht mit höheren Kosten verbunden wäre und sich dadurch mehr Leistung aus ihren Chips holen ließe. Diese zusätzliche Leistung braucht man eben nicht, wenn man auch ohne die Konkurrenz bereits Meilenweit abhängt, also beschneidet man lieber seine eigenen Produkte.

Dadurch kann man später die gleichen Karten mit größerem Speicherinterface als "Super" oder "Ti" oder schlagmichtot verkaufen und schön bei den dummen Spielern abkassieren. So macht Nvidia es übrigens seit Jahren.

Selten so einen Unfug gelesen. Lies noch mal nach was "beschneiden" heißt. Da macht man aus etwas BESTEHENDEM etwas KLEINERES. Wenn man von Anfang an mit einem XY Speicherinterface plant, dann ist da garnichts "beschnitten".

Und wie kommst Du darauf dass ein größeres Speicherinterface keine Mehrkosten verursacht? So ein Quatsch. Glaubst Du Fläche auf Chips ist umsonst? :schief:
 
Die Beschneidung findet in dem Moment statt, in dem man sich willlkürlich für eine geringere Bandbreite entscheidet, obwohl eine größere nicht mit höheren Kosten verbunden wäre und sich dadurch mehr Leistung aus ihren Chips holen ließe. Diese zusätzliche Leistung braucht man eben nicht, wenn man auch ohne die Konkurrenz bereits Meilenweit abhängt, also beschneidet man lieber seine eigenen Produkte.

Dadurch kann man später die gleichen Karten mit größerem Speicherinterface als "Super" oder "Ti" oder schlagmichtot verkaufen und schön bei den dummen Spielern abkassieren. So macht Nvidia es übrigens seit Jahren.
Finde ich auch siehe RTX 4070 192 die neue 256 bit Anbindung. Da würde definitiv beschnitten
 
Das liest sich hier wie ein Krimi.:wow: Auf Beschneidungen und Schrumpfen gehe ich jetzt mal nicht ein...:D:ugly:
Was aber schön wäre, ein RTX 5000er Flaggschiff mit einer Speicher Anbindung von 1 Mbit und ein schönes bereites Spektrum an Leistungs Plus, sodass sich die Karte vom Vorgänger deutlich abheben lässt.:top:
 
Die 4070 und die 4070 Super haben beide ein 192bit Interface. Sprichst Du von der TI / TI Super? Da gab es ein Upgrade vom AD104 auf den AD103, der hat ein größeres Speicherinterface. Nix beschnitten...
So ist das leider, wenn Leute ohne Ahnung versuchen zu argumentieren. Erst mal beschweren, dass die 4070 und 4070S im Vergleich zur 4070 TI Super beim SI "beschnitten" sind obwohl der AD104 nicht mehr als ein 192-Bit SI zulässt :ugly:
 
Die Beschneidung findet in dem Moment statt, in dem man sich willlkürlich für eine geringere Bandbreite entscheidet, obwohl eine größere nicht mit höheren Kosten verbunden wäre und sich dadurch mehr Leistung aus ihren Chips holen ließe. Diese zusätzliche Leistung braucht man eben nicht, wenn man auch ohne die Konkurrenz bereits Meilenweit abhängt, also beschneidet man lieber seine eigenen Produkte.

Dadurch kann man später die gleichen Karten mit größerem Speicherinterface als "Super" oder "Ti" oder schlagmichtot verkaufen und schön bei den dummen Spielern abkassieren. So macht Nvidia es übrigens seit Jahren.
Du kannst von Glück sagen, dass gleich zu Beginn des Threads Prozessorarchitektur wieder seinen Senf hinzugeben musste, denn ansonsten hättest du hier die Narrenknappe eingeheimst. :-D
Dennoch, einen gewissen Respekt ob der Fähigkeit dir selbst derart ein Bein zu stellen, muss man dir schon zollen.
Aber nun mal im Ernst ... wie kommst du auf so eine unsinnige Aussage?
Ein Design mit einem breiteren SI verteuert einfach alles: Das Design benötigt mehr Chip- und damit Wafer-Fläche, es verbraucht mehr Strom und erzeugt mehr Abwärme, mehr Aufwand und Kosten auf dem PCB und mehr benötigte Speicherchips, im worst case gar Anpassungen bei der Kühllösung ...

Und dein abschließender Satz ist entweder ein Formulierungsunglück oder ein ebensolcher Denkfehler. "Dadurch..." ? Durch was? Da wird nichts beschnitten. Die unterschiedlichen Chips werden für unterschiedliche Marktsegmente in bestimmten Größen entwickelt und sollte man später auf die Idee kommen eine bestimmte GPU-Leistungsklasse mit mehr Speicher anbieten zu wollen, als es das Design hergibt, ist man schlicht gezwungen auf den nächstgrößeren Chip mit dem größeren SI umzuschwenken, so bspw. die Portfolioentwicklung der RTX 4070 Ti zur Ti Super, bei der man zwangsweise auf den AD103 wechseln musste um ein Produkt mit einem echten Mehrwert ggü. dem Bestandsprodukt abliefern zu können.
Mit "Beschneidung" hat das mal rein gar nichts zu tun *kopfschüttel*.

@Quake2008: Um die 20.000+ US$ ist tatsächlich in etwa das, was man bei TSMC veranschlagen muss. Ist kein Geheimnis und schon aus diversen fachnahen Kreisen vielfach in derartiger Höhe abgeschätz worden, nur ein Beispiel:
Wobei die reinen Fertigungskosten aber nur ein Teil der Rechnung darstellen. Die Entwicklung derart komplexer Designs für diese modernsten Nodes kostet ebenso im mehrstelligen Millionenbereich.

P.S.: Dein letzter Satz "Die AMD R9 390 & HD 2900xt hatte auch schon 512bit Speicheranbindung." bietet eine amüsante Vorlage ... d. h. also, dass AMD bereits seit gut 10 Jahren durchgehend seine GPUs beschneidet!? Schließlich kann und darf es doch keinen Grund geben, warum man wieder den Rückschritt auf ein kleineres SI machte ... :-D (Finde den Fehler in dieser Feststellung ;-))

*) Nicht an dich gerichtet Quake, du hast lediglich auf diesen Sachverhalt hingewiesen ... aber vielleicht geht ja manch anderem ein Licht auf?
 
Zuletzt bearbeitet:
Wie komme ich auf halbiertes Si nun darum
1710007552105.png

Das ist aus dem offiziellen launch der ada generation
was sieht man ein chip mit 609mm² grob 25*25mm
Davon geschätzt Si 36% Anteil +17% pcie lanes =53%
Das lässt sich nicht schrinken und das seit n16 node
Dabei ist 384bit das maximum zugleich sinkt der bei anderen chips entsprechend bei einen ad103 chip sind es nur 8 32bit an zwei ecken =40% + 23% =63%
an ad104 sind es 6 32bit Anbindungen die die pcie Anbindung an 2 pciex8 verbindet also auch 50% des chips
an ad106 sind es 4 32bt Anbindungen mit 60%
Damit dürfte klar sein das 50% des chips nicht schrinken werden der n3 node bringt aber 0,58 density was die alu quasi halbiert in der Größe
Dagegen halten kann man mit mehr alu per chip was aktuell 16sm per gpc ist also +33% mehr Fläche vs 42% denser = 12% kleineren chip
Das si muss schrumpfen auf nur noch 50% das geht am besten mit halbierter breite aus 12 32bit Anbindungen wird dann maximal 8 =256bit 148mm²+108mm² das sind dann grob bei n3 etwa 52% Si Anteil (490mm² chip)
Ein 384 bit würde das auf 540mm² chip resultieren und bei 60% sein
Da man mehr chips braucht ist ein kleinerer Sinnvoller als ein großes SI mit weniger chips aus wenn wafer das wären dann 490mm² etwa 101 chips bei 540mm² etwa 97 chips davon abgesehen das die yield schlechter wird. ich rechne mit grob 50% die voll einsatzfähig wären also cut etwa 160sm aktiv davon die hälfte womit dann 50 chips fürn 90er sku infrage kommen.
Mit 490mm² aber die yield bei 60% liegt also maxed 180sm und davon 40% cut sein müssen was dann mehr hpc chips ermöglicht
40 chips consumer mit 180sm und 61chips die teurer verkauft werden können ansonsten wären es 46 vs 51 chips
Failure density von 0,2 angenommen n3 soll noch nicht rund laufen
Daher sind kleine chips essentiell damit die menge an chips gibt.

Neue Gerüchte sprechen von samsung sf4x node bei gb207 und gb206 der node ist mir völlig unbekannt.
Daher dürften die Taktraten sich deutlich abweichen aber auch klar zeigen das man die sku anders sortiert
gb207 laptop gb206 desktop an
habe zu sf4-x nix gefunden außer +10% speed und 23% Energie effizienter was dann etwa 2,0ghz wären

Edite
habe was gefunden samsung sf4 hat 22% mehr perf vs 8nm also ist das so 1,88*1,22*1,1=2,52ghz bei 23% weniger Energie bedarf.
Damit dürften der gb207 klar laptop chip werden. etwa maximal 14tf 90w haben. vs ada wär das + 20% Effizienz
Der gb206 dürfte dann als rtx5060 klar sein zwischen 52sm und 56sm 2,5ghz haben mit dann grob 155w tbp
Die einzige frage wie teuer wird der node dazu gibt es keine infos. Das dürfte aber nvidia die pcie5 x8 infrage stellen . Wenn der node bspw nur 10000$ kosten sollte vs tsmc n4x 11000$ die ich weiß neben den 20000$ von n3 kosten. Dürfte pcie5 x16 sicher sein.
Mein verdacht geht sogar so weit das man gb207 und gb206 mit gddr6 bestücken wird in 18gbps und dann 192bit haben werden.
Das dürfte am ehesten der fall sein. grob 10k angenommen chip bei 0,79 denser als 8nm gb206 sf4 x= 279mm²
chip ab 50$ 6 gddr6 24$ = sku ab 359€ 12gb maximal 432gb/s und 48 rop =120gpixel, tmu dürften sich nicht ändern bei 4 per sm =208-224 etwa 560gtexel bei 22,8tf perf 359€

Wenn gddr7 dürfte das auch kein ding sein mit 16gbit und 128bit (576gb/s) aber der preis wäre extrem da gddr7 deutlich teurer wird als gddr6 aktuell ich rechne mit min 8$ per chip grob wäre man da bei 459€ mit 16gb gddr7 das wird nicht passieren
Daher sehe ich 128bit mit gddr7 32gbps 24gbit ab q2 2025
Das wäre quasi ein ersatz für die rtx4070 das nenn ich perfektes match für mich aber bei den haken beim vram 12gb stehen dann sicher egal ob mit gddr7 oder gddr6.

Den Amd rdna4 wird dieses Jahr stark angreifen was man anhand von Rabbattaktionen von rdna3 sehen kann
Der n44 wird 32cu bei 3,5 bis 3,9ghz haben und für maximal 290€ kommen gepaart mit 16gb vram
Der n44 rx8600xt wird aber durch die 288gb/s ausgebremst effektiv sind es 310gb/s
Faktisch ersetzt n44 die rx7600xt mit dann +20% perf
Und darunter wird es keine sku mehr geben

Der n48 wird in drei sku aufgehen 48cu 56cu 64cu jeweils gleicher Takt.
Und von 400€ bis 550€ reichen mit 16gb gddr6 18gbps an 256bit =576gb/s +60gb/s an inf cache = effektiv 636gb/s
Das wäre rx8700xtx =rx7900xt perf (32-34tf) ab 550€ .
rx8700xt =rx7900gre perf (28-30tf) ab 470€ und
rx8700 = rx7800xt oc perf (23-25tf) ab 400€
Amd zahlt 62$ per chip dazu 16gb gddr6 32$ = 330$ sku daher steigt die marge auf 120% von derzeit 80%
384$ einstieg bei uns 429€
Da ich aber kleinere Kühler erwarte etwa bom von 50$ auf nur 35$, kommen da bei der kleinsten n48 399€ raus


Also lautet der Kampf 2025
rx8700xt 56cu 205w tbp 469€ vs rtx5060ti 64sm 2,5ghz 175w tbp 499€
rx8700 48cu 16gb 3,5ghz 185w tbp 400€ vs rtx5060 56sm 12gb 2,5ghz 155w tbp 400€

ich hoffe das nvidia nicht auf den pcie5 12v 2x6 besteht dann wird es kritisch
Die letzte ada gen sku wird wohl die rtx4060ti super mit dann 42sm werden. +- ende Sommer zugleich mit der n48 48cu sku release für grob 440€ vs 400€ 20% Differenz pro amd dxr identisch.
Der h++ Stecker auf der gpu ist zwar weniger anfällig aber dennoch muss dann der adapter dran bleiben da man nicht mehr als 5-8 mal den aus einstecken kann der leiert aus.
Das ist neben der Brandgefahr ein Thema das erst mit ne neuen pcie sig gelöst wird. Demnach pcie 5,2
Das erwarte ich noch nicht bei blackwell. Daher wird es wie bei ada refresh (super modelle ) der h++ sein

Fazit
riesiger chip 238mm² bis 276mm²
gb207 gb206 auf sf4 x node bedeutet 128bit 8gb und 192bit 12gb wenn gddr6 (60% Si Diefläche) maxed 2,5ghz
gb207 96bit gddr7 9gb und gb206 128bit gdddr7 12gb (38-50% Si Diespace)

gb205 128bit n3 node (50% Si Diespace) maxed 3,57ghz möglich eher 3,36ghz
gb203 192bit n3 node (50% Si Diespace)
gb202 256bit n3 node (60% Si Diespace)

Der release ist schwieriger da Samsung sf4 x node erst q1 2025 starten wird
Der n3 node dürfte ab q4 2024 soweit sein aber nvidia hat Zeit da keine Konkurrenz und mit ada ad104 chips noch genug Vorrat hat fürn 4060ti super. Damit die rtx4070 nicht unter 500€ fällt.
Unklar wird ob blackwell gddr6 kann wenn nein wird es teuer oder nvidia muss die marge senken auf 100%
alternativ wird man sinnlose konfigs machen mit 9gb oder 8gb oder samsung frag sich nur 8k$ und der chip ist nur 238mm² groß (gddr7 128bit) 241stk und kostet je 33$ gepaart mit gddr7 24gbit chips
Das mit ner spar bom von 35$ könnte klappen aber das wird heiß samsung mag relativ gut laufen bei 2,5ghz aber bis zu 100°c hotspot sind zu erwarten. ähnlich agiert ampere auch.
Daher wird der einstiegspreis bei 400€ sein die norm sollte man min 450€ einplanen während amd da gut +20% schnellere sku hat zum selben preis und nvidia rtx5060ti mit 499€ die deutlich besser alternative ist da auch gut +30% perf gibt für nur 50€ mehr. Effektive außer man lebt mit 100°c temp limit (86-88°c gpu core )

Zu Si Zähle ich immer pcie und das Si zusammen da beide analog sind und nicht mehr kleiner werden.
Das ändert sich mit gaa ab samsung sf3 und tsmc n2x node.

Samsung node klingt logisch sofern gddr6 genutzt wird ansonsten macht es keinen Sinn.
Der Einstiegspreis bei etwa 440-460€ dürfte für knapp 24tf (etwa die rtx4070 super) kaum lohnen wenn amd da schon 28tf hat (etwa rtx4070ti level)
ich vermute stark das nvidia auf dxr perf den vergleich suchen wird. Amd indes unklar sicher ist das mit 48rt rdna4 cores grob +70% an perf zulegen wird vs 54rt cores der rx7700xt
Das bewirkt die Taktrate und rt core Anzahl
nvidias rt cores sind derzeit um Faktor 60% schneller als amd rt cores . Nvidia Zuwachs wird überschaubar grob bei gleicher rt perf wie ada
Daher dürfte das knapp werden mit dann +10% mehr dxr Leistung mit blackwell gb206 56rt vs amd rdna4 48rt
Das gilt nur für die samsung gefertigten sku nicht für tsmc da sind es locker +25% plus mehr alu bsp gb205 6gpc 90sm rtx5080 vs derzeit 80sm =40% schneller und bei nur +10% raster perf

Der Grund warum ich keine großen dxr perf Sprünge sehe liegt am cpu limit es macht für nvidia keinen Sinn mehr cache oder die interne sm Struktur zu ändern bis rubin auf n2x node kommt.
Die Gerüchte über 2,5 fache dxr perf basieren auf software maßgeblich durch Fg und einer sync Technologie wie amd afmf eventuell wird man noch mehr perf aus dlss4 ziehen und vermehrt auf andere Aspekte der ai Beschleunigung in games setzen.
Sicher ist nur das bei raster das ende erreicht ist bis 2026 am6 kommt mit zen 7 und eine sprung in der ipc gibt. +50% sind zu erwarten.
zen5 wird grob +20% bringen zen 6 lediglich den Takt um 10% steigern.
Intel unklar da zu luna lake nix konkretes bekannt ist arrow lake soll schon +30% bringen aber wird angezweifelt das es so sein wird.
Das liegt primär an der Fertigung die nicht klar ist, das es Baukasten wird ist sicher der Takt auch noch völlig offen von derzeit 6,0ghz (intel 7) bis nur 5,0ghz (meteor lake intel 4) ist alles drinnen.
 
https://www.tomshardware.com/news/tsmc-expected-to-charge-25000usd-per-2nm-wafer

Selten so einen Unfug gelesen. Lies noch mal nach was "beschneiden" heißt. Da macht man aus etwas BESTEHENDEM etwas KLEINERES. Wenn man von Anfang an mit einem XY Speicherinterface plant, dann ist da garnichts "beschnitten".
Erst mangelt es dir an Leseverständnis und jetzt willst du mir noch Begriffsstutzigkeit unterstellen? Das ist ja wohl an Überheblichkeit nicht mehr zu übertreffen. Du führst dich hier auf, als wenn mit einem Kind sprichst, das belehrt werden muss.
Wenn man von Anfang an mit einem XY Speicherinterface plant, dann ist da garnichts "beschnitten".
Und genau dort liegt dein Fehler. Wenn bereits in der Planung ein kleineres Speicherinterface vorgesehen wird, geschieht das vorsätzlich und mit der Absicht, die Leistung der Karte zu kleinzuhalten. Das macht Nvidia andauernd, wie ich dir bereits erklärt habe. Nvidia ist ein Abzockerverein und das ist bei denen das übliche Verfahren.
Und wie kommst Du darauf dass ein größeres Speicherinterface keine Mehrkosten verursacht? So ein Quatsch. Glaubst Du Fläche auf Chips ist umsonst?
:schief:
Dann erkläre mir mal bitte, wieso das mehr Fläche auf dem Chip braucht.
 
Dann erkläre mir mal bitte, wieso das mehr Fläche auf dem Chip braucht.

Wenn Grundlagen fehlen erübrigt sich die Diskussion.

https://www.hardwareluxx.de/index.p...nterface-für-den-ada-lovelace-nachfolger.html

Bei den kleineren Karten der Serie geht NVIDIA teilweise im Vergleich zu vorherigen Generation sogar einen Schritt zurück. Dies sorgte für Kritik, die NVIDIA mit einer Effektivität des Speichercontrollers und größerem L2-Cache konterte. NVIDIA will Chipfläche einsparen, denn ein schmaleres Interface bedeutet auch weniger Platzbedarf im Randbereich des Chips.
 
Zurück