AMD Navi: PCB-Bilder mit GDDR6 im Umlauf

Natürlich wäre ne 300-375W TBP Karte nicht das was wir wollen, in bezug auf Verbrauch und Kühlung, aber wir wissen nicht mal was dann da an Leistung raus kommt.
Das glaube ich nicht. Um das vllt. nochmal zu erläutern.

Bei der Enwticklung von PCBs werden mehrere 3d- und Simulationsmodelle erstellt, Layerstacks und Padstacks. Bauteilreferenz, Bestückungsdrucke, Bestückungspläne, Placement Outlines, Paltzierungspunkte inklusive Bauteilhöhe mit Pinnummerierung.

Das wird alles in einer CAD Bilbliothek eingetragen und entwickelt. Multilayersysteme können für mehrere Serien oder Varianten gleich ausgeführt werden, wenn Mindestdicken und Signallagen nicht anders ausgeführt werden müssen. Es ist grundsätzlich preiswerter nur eine Platine als Referenz auszuführen, als zig Serienmuster vorzufertigen. Die CAD-Layouts können den Anforgerungen entsprechend ausgeführt werden. Die Leiterbahnen usw. werden dann bspw. nach einen Rotingratser angelegt. Planere Anordnungen und Abätzungen, sowie Viaklassen müssen sich dabei nicht grundlegend unterscheiden.

Das hier ist ein Serienmuster, vermutlich wird danach gefertigt und es dient im Rahmen der Qualitätskontrolle als Vergleichsmuster, inklusive der Pläne die dazu mitgeliefert werden. Die stammen sicher von AMD oder wurden durch diese in Auftrag gegeben. Eine Platine für alles machte ja schon nVidia vor, wo auch viel bessere Varianten für schwächere GPUs verwendet werden. Das ist manchmal preiswerter als mehrere Muster zu entwerfen.

Wie weit der Stand ist, kann man anhand dieser Bilder aber nicht genau sagen, weil es möglich ist - dass dies eine Aufnahme aus einem Prüflabor sein kann oder dort wo für die Fertiger die CAD-Layouts und Pläne entwickelt werden. Genausogut kann es morgen schon losgehen, lässt sich schwer abschätzen, aber 7/7 wäre möglich. Vielleicht hält Lisa Su dann eine hoch.:D
 
Zuletzt bearbeitet:
Das glaube ich nicht. Um das vllt. nochmal zu erläutern.
Natürlich, aber nur wegen dem Markennamen. Du würdest nur 75W glauben.

Weil sie dort 16 Pole sehen und keine "Blindbelegung" als möglich erachten, verbrät eine Mittelklasse GPU in 7nm jetzt 375 Watt, ja genau...
Niemand behauptet was von 375W, nur du selbst bastelst dir einen Strohmann.

Die hier gezeigte PIN-Kombination wäre schon ab über 300W notwendig. Das ist durchaus möglich und würde in das bisherige AMD-Schema passen. Immerhin fehlen hier die ~50W PowerBudget-Vorsprung durch HBM.
 
Die hier gezeigte PIN-Kombination wäre schon ab über 300W notwendig. Das ist durchaus möglich und würde in das bisherige AMD-Schema passen. Immerhin fehlen hier die ~50W PowerBudget-Vorsprung durch HBM.

Zieh einfach deiner Wege, du hast davon absolut keine Ahnung. Mehr will, ich dazu nicht ausführen, wer hier einen Strohmann baut ist offensichtlich. Du hast mit so einer Entwicklung absolut nichts zu tun.

Lies dir deinen Unsinn mal selbst durch, AMD wird GDDR6 verwenden, was so gut wie sicher ist und an der Grid-Area für die Speichermodule erkennbar ist, welchen Effizienz-Vorteil hat Nvidia da. NULL.

Dein Eis wird immer dünner...

Ich will mit dir darüber auch nicht reden. Bist mal wieder *ignor*, schönen Abend noch.
 
Ja klar für einen Mittelklasse GPU Chip?!
Wohl nur in deiner Anti-AMD Filterblase!

Das verbraucht noch nicht mal die VII mit 16 GB VRam und Navi ist nun alles andere als nur ein simpler Shrink von Vega/ Polaris, aber mal kurz in den Raum gestellt, dass Navi in der Mittelklasse 300W verbrauchen könnte.
Mehr Nvidia Marketing und Influence Absichten geht wohl kaum!
 
Die Aktienkurse schmerzen so, mehr nicht. Damit hat man früher seine Titans finanziert, nun reicht es nach dem Crash und Kryptokater nur noch für eine RTX2070.

Er tut mir ja etwas Leid, aber...was gehts mich an.:D
 
Was habe ich denn zur TBP geschrieben, es liegt daran was für Bauteile am Markt verfügbar sind und wie effizient eine Karte ausfallen soll, was auch davon abhängt, wo und zu welchen Preis ich meine Hardware im Verkauf platzieren will.

Du hast überhaupt nichts zur TBP geschrieben, sondern Mimimimi, der den Verbrauch auf 225 Watt geschätzt hat und AMD gibt dafür bekanntlich die TBP an.
100 Watt über der 2070, wo soll das denn liegen bei knapp 300W? Ihr schreibt hier einen Bl*dsinn zurecht...:schief:.

Wer lesen kann ist klar im Vorteil, ich schrieb 50 bis 100 Watt.
Die TDP der RTX 2070 liegt bei 165 Watt, 50 Watt addiert würden 215 watt ergeben, da ich den Verbrauch aufgrund des PCB´s aber mit mindestens 225 TBP einsortieren würde, ergibt sich daher die Angabe 50 bis 100 Watt.
Diesen Aufschlag benötigt auch die Radeon VII inkl HBM Speicher gegenüber einer RTX 2080 mit 215 Watt TDP bei etwas neidriger Leistung.

Man sieht auf der Rückseite sehr deutlich, das etliche SMD Bauteile fehlen und nicht bestückt wurden. Ist halt so, manchmal muss man nehmen was verfügbar ist und legt nicht für jede GPU ein extra PCB inklusive Layout auf.

Äpfel mit Birnen und der Versuch sich herauszureden. Herstellerdesign =! Customdesign.
Das PCB ist grundsätzlich so ausgelegt, dass die Karte auch mit 300 Watt TBP betrieben werden kann.

Mehr will, ich dazu nicht ausführen, wer hier einen Strohmann baut ist offensichtlich. Du hast mit so einer Entwicklung absolut nichts zu tun.

Wer sich den Strohmann aufgebaut hat, kann ja jeder nachlesen.

8-PIN, also zusammen mit PCIe Slot ca. 225W Leistungsaufnahme. Für eine Leistung im Bereich unterhalb 2080 (also unterhalb der Radeon VII).

Sieht so aus, als hätte AMD das Thema Effizienz mal wieder nicht im Griff.

Ich sehe in keinem Beitrag eine Erwähnung von 375 Watt TBP Verbrauch der Karte, erwähnt wurden 225 Watt.
Wenn man ein solides OC Potenzial bieten möchte, dann empfiehlt sich auch die Beigabe von mindestens 1x6pin+1x8Pin.
Tatsache ist, dass du dir ein Strohmannargument aufgebaut hast.

Lies dir deinen Unsinn mal selbst durch, AMD wird GDDR6 verwenden, was so gut wie sicher ist und an der Grid-Area für die Speichermodule erkennbar ist, welchen Effizienz-Vorteil hat Nvidia da. NULL.

AMD hat auf den High End Karten, Fury, Vega und Radeon VII zur Erreichung einer gewissen Bandbreite immer HBM Speicher genutzt, der ohne Umschweife in etwa die Hälfte an Energie verbrät.
AMD nutzt dieses mal ganz offensichtlich wie Polaris ein 256bit breites Interface, allein an dem Interface muss man schon Erkennen dass bei AMD´s schwächerer Bandbreitenkompression ein sehr hoher Takt von GDDR6 notwendig sein wird um die nötige Leistung zu liefern.
Der HBM Vorteil fällt weg, alleine deswegen würde ich das Wunschkonzert etwas einbremsen.

Dein Eis wird immer dünner...

Ich will mit dir darüber auch nicht reden. Bist mal wieder *ignor*, schönen Abend noch.

Selbstreflexion könnte man auch Selbsterkenntnis nennen. Gemeinhin eine Tugend.

Ja klar für einen Mittelklasse GPU Chip?!

AMD hat Polaris auch auf 225 Watt aufgeblasen, ein Chip der eigentlich ursprünglich mit deutlich weniger als 150 Watt auskommen sollte.

...aber mal kurz in den Raum gestellt, dass Navi in der Mittelklasse 300W verbrauchen könnte.

Definitiv im Bereich des Möglichen, alleine die Lötpunkte auf dem PCB zeigen das.
 
Zuletzt bearbeitet:
Wer sagt, dass sie langsamer als die 2080 ist? Lisa hat nur gesagt, dass sie preiswerter als die Radeon VII ist. Der Vollausbau von Navi kann auch gut die 2080ti vernaschen.
 
Definitiv im Bereich des Möglichen, alleine die Lötpunkte auf dem PCB zeigen das.
Dann habe ich wohl den Strohmann aufgegriffen den Chris-W201-Fan gebaut hat, weil ich auf seinen Beitrag geantwortet habe.

DU (und ich schreibe mit Absicht Du, weil 3 Leute nicht die gleiche Wahrnehmungsschwäche haben können *Schaffe*???), habt überhaupt keine Ahnung wovon ich geschrieben habe - oder?

Auf der Serienplatine die dann bestückt wird, müssen diese Lötpunkte wie auch auf dem Asusboard gar nicht vorhanden sein, was man an der Buchse der Referenz Asus 2070 gut erkennt. Die wurde in Dimension als ursprünglich 8 Pin Buchse ausgelegt (hatte also das gleiche Pinlayout und sah genauso aus wie auf der AMD Musterplatine), um dann mit zwei Blindkontakten ausgeführt werden, wenn man sie nicht braucht. Das kann vielerlei Ursachen haben. Liegt daran, weil die Bohrungen in der Referenz-Platine als Aufnahmelager für eine 8 Pin Buchse bereits vorhanden waren und das Basic Design Kit diese dort vorsieht. Danach muss man eine "Refrenzplatine" auch so fertigen (Dimension!, Materialstärke, Viaklasse). Das hat was damit zu tun, damit das Ding zum Schluss nicht zirpt und quiescht wie eine Grille.

Für mich sieht das hier nach was ganz anderem aus, es wird wahrscheinlich gar keine Referenz geben und wenn kommt sie vermutlich von Sapphire (wie immer). Die Musterplatine in der Ausführung kann bedeuten, dass wir von Anfang an - sehr unterschiedlich ausgelegte Custom Platinen zu sehen bekommen, wo den Partnern Freiraum gelassen wird - was sie daraus basteln wollen.

Man muss dann gar nicht alle Pins belegen oder ausführen, dass lässt sich mit ein paar Klicks in der Maschine einfach entfernen oder man läd den Musterplan dazu einfach hoch, weil man den geliefert bekommt.

Also, Du baust dir deinen Strohmann selbst, egal wie viele Accounts du hier und dazu noch benutzt.

Daher nochmal, zieh einfach deiner Wege und lass die Leute hier in Ruhe miteinander diskutieren, dazu scheinst du nicht in der Lage zu sein. Wenn man zig mal versucht zu erklären, worum es sich hier handelt und diese Argumente immer wieder mit dem gleichen Unfug beantwortet werden, ist das schon ziemlich nervig. Such dir doch bitte ein anderes Hobby als Foren zuspammen. Ich finde ja immer lustig, wenn Foren-Accounts gesperrt werden, dass man den Ar*ch nicht in der Hose hat, seine Zensur abzusitzen und dann sinnvoll weiter zu machen. Oder wie in diesem Fall, wie ein trotziges Kind seinen Account löschen zu lassen und dann unter anderem Nick wie zuvor weitermacht. Du weißt hoffentlich das die Mods und Admins ihre Pappenheimer immer wieder erkennen, oder?

Schönen Tag noch.
 
Zuletzt bearbeitet:
Das glaube ich nicht. Um das vllt. nochmal zu erläutern.

... (anmerkung Chris-W201-Fan; gekürzt für besseren Lesefluss)

Dann habe ich wohl den Strohmann aufgegriffen den Chris-W201-Fan gebaut hat, weil ich auf seinen Beitrag geantwortet habe.
...

Ich verstehe gerade nicht auf was du raus willst in Bezug auf meine Aussage. Ich habe lediglich die theoretisch mögliche TBP der Bilder genommen und behauptet, dass das eher nicht der Wunsch der Kunden ist, solche Karten zu erhalten. Das stimmst du mir ja wohl auch zu, denn eigentlich wollen alle Kunden sparsame Karten.


Des weiteren führe ich aus, dass, wenn man das Limit nutzen würde, wir nicht wissen was an Leistung (FPS) raus käme (ebenfalls reine Theorie). Auch da musst du mir zustimmen, denn wir haben alle noch keinen Navi in der Hand gehabt und wüssten, wie die skallierung aus fällt.

Was war jetzt also bitte deine Absicht mit dem Beitrag bei dem Zitat?
Ich habe lediglich darauf hingewiesen, dass wir auf sehr dürftigen Informationen sehr viel Spekulation in den Diskussionen haben, und es somit durchaus möglich ist, dass bestimmte Punkte da gar nicht so kommen wie wir spekulieren.

Ich sehe in keinem Beitrag eine Erwähnung von 375 Watt TBP Verbrauch der Karte, ...
Dann hast du mich überlesen, wobei das eine rein theoretische Überlegung war. Ich habe natürlich nicht behauptet, dass es so ist, dass die Karte jetzt 375W TBP hätte ;)
Insofern hast du wieder recht ;)
 
Des weiteren führe ich aus, dass, wenn man das Limit nutzen würde, wir nicht wissen was an Leistung (FPS) raus käme (ebenfalls reine Theorie). Auch da musst du mir zustimmen, denn wir haben alle noch keinen Navi in der Hand gehabt und wüssten, wie die skallierung aus fällt.

Was war jetzt also bitte deine Absicht mit dem Beitrag bei dem Zitat?
Ich habe lediglich darauf hingewiesen, dass wir auf sehr dürftigen Informationen sehr viel Spekulation in den Diskussionen haben, und es somit durchaus möglich ist, dass bestimmte Punkte da gar nicht so kommen wie wir spekulieren.
Genau dieses Level hatte ich aufgegriffen und einfach nur erläutet in welchen Zusammenhang das steht. Die Damen und Herren versteifen sich aber darauf, weil sie 8 Lötpunkte sehen und nicht nachvollziehen können, wie das letztlich in der Produktion von einem Layouter gelöst wird.

Von Lötpunkten kann man nicht auf FPS schließen, schon allein PCIe 4.0 könnte hier, wenn es geometrielastige Spiele wären, die viele Drawcalls fordern etwas bewirken (soweit es überhaupt berücksichtigt wird und in Abhängigkeit der Systemressourcen).

Ich kann mich noch erinnern, dass ich mit der Dame/dem Herr eine Diskussuion führte, dass 14 belegte Lötpunkte plus PEG Slot 300W Leistungsaufnahme bedeuten könnten und das vehement, genau von diesem Nick hier abgestritten wurde, dieses Argument aber nun aufgegriffen wird - um in diesem Fall völlig anders zu argumentieren. Wahrscheinlich hat man zwischenzeitlich einfach nachgelesen, fehlt einem aber das Hintergrundwissen, wie das in der Fertigung letztlich gelöst wird.

Einfach mal Viaklassen googeln. Man kann nicht einfach irgendwo eine Bohrung durch eine Platine vornehmen, wenn in deren Nähe Bauteile sitzen. Genau dafür gibt es ein Musterlayout das man einhalten muss, nicht nur um die elektrische Stabilität zu gewährleisten, weil es dabei um die zuverlässige Funktionsweise geht (einfacher erklärt).

Ich nahm den Post nur als Bsp. weil man mir unterstellt ich hätte rechnerisch 375W in den Raum geworfen.

Ich würde jetzt gerne zum Thema zurück, weil hinter Offtopic Beiträgen immer wieder die Absicht steckt, genau diese Kommunikation zu stören. Die Beiträge sind ja zum Teil völlig inhaltslos, auf Einzellersätze beschränkt.

Hier ist übrigens der Ausgangspost, der das Thema wohl angeschubst hat:
Mit 2x8Pin und PCIe könnte die Karte bis zu 375W aufnehmen. Allerdings wissen wir nicht ob es sich bereits um das finale PCB handelt bzw. ob wirklich zwei 8Pin Buchsen verbaut werden.
Und wie Da_Obst völlig richtig einwirft muss es nicht das finale Layout sein. Das passt nur nicht in bestimmte Köpfe.

Da positive Äußerungen zu AMD Hardware bestimmte Damen und Herren hier stören, ist der kontroverse Disput wahrscheinlich vorprogrammiert.
 
Zuletzt bearbeitet:
Viel schlimmer als eine Karte mit höherem Verbrauch ist eine Karte die durch ein künstliches PowerLimit nicht ausgefahren werden kann. Immer her mit den Pins. Bei meiner 1060 hatte ich mich über6 statt 8 PIN im nachhinein geärgert
 
Da positive Äußerungen zu AMD Hardware bestimmte Damen und Herren hier stören, ist der kontroverse Disput wahrscheinlich vorprogrammiert.
Was ist positiv daran, wenn das PCB einer Mittelklasse-GPU eine Leistungsaufnahme von 375W erlaubt?

AMD ist nun mal bekannt dafür das PowerBudget auszuschöpfen, bzw. gern sogar deutlich mehr als die Spezifikation erlaubt aufzunehmen. Das ist nichts neues.

Alleine dass es ein solche PCB gibt, spricht nicht für eine Leistungsaufnahme von 150W und darunter. Niemand baut ein EVAL Board für 375W, wenn die GPU da um die Hälfte drunter bleiben soll. Welchen Sinn sollte es haben etwas zu entwickeln (kostet Zeit + Geld), wenn es hinterher nicht genutzt werden kann?

Die Diskussionen hatten wir übrigens schon. Bei Polaris. Da habe ich in nem anderen Forum einen Ban für "Trolling" gesammelt, weil ich gesagt habe, dass AMD die "150W PowerBudget" nicht ohne Grund nennt (wurde in einer Vorab-Präsentation genannt). Dabei war es sogar noch positiv für AMD von 150W auszugehen :ugly:

Viel schlimmer als eine Karte mit höherem Verbrauch ist eine Karte die durch ein künstliches PowerLimit nicht ausgefahren werden kann.
Wo das PowerLimit bei NVIDIA zu schlägt, würde mehr Leistung sowieso keinen relevanten Erfolg bringen. Gerade wenn du dann plötzlich mit ner 1060 ankommst. Da ist es sinnvoller eine 1070 oder 1080 zu kaufen, wenn die 1060 zu langsam ist.

Ein Golf wird auch mit ChipTuning kein Ferrari.
 
Was ist positiv daran, wenn das PCB einer Mittelklasse-GPU eine Leistungsaufnahme von 375W erlaubt?
Hast du schon mal was von "Ausrichtung der Massefläche" gehört und warum dann mehr Pins Sinn machen? Es geht nicht darum ein Powerbuget auszuschöpfen. Bei der Separierung von Bauteilen geht es dabei um die Reduzierung kapazitiver Kopplung. Andersherum könnten zu geringe Masseflächen zu Störimplusen führen und zuletzt wird so eine Platine thermisch entlastet (Thermal Reliefs, Teardrops), wobei dies schon beim Verlötvorgang erfolgt.

Da habe ich in nem anderen Forum einen Ban für "Trolling" gesammelt, weil ich gesagt habe, dass AMD die "150W PowerBudget" nicht ohne Grund nennt (wurde in einer Vorab-Präsentation genannt).
Das gehört hier nicht her und ist mit dem jeweiligen Mod zu besprechen. Moderative Entscheidungen fallen in den Bereich "Forenregeln". Zensur erfolgt nicht weil man etwas mitteilt (was vllt. sogar wichtig ist und einen selbst bewegt, man sich mehr Infos wünscht), sondern wie.

Zuhören liegt euch/dir nicht.
 
Hast du schon mal was von "Ausrichtung der Massefläche" gehört und warum dann mehr Pins Sinn machen?
Blödsinn, niemand entwickelt ein 2x8 PIN Layout, wenn darauf eine 150W GPU kommt. Niemand. Ende.

Zumal nicht mit 8-Phasen Spannungswandler. Eine RX480 in der Leistungsklasse von um die 150W hatte auch nur 6.

Zuhören liegt euch/dir nicht.
Hier hört man auch ziemlich wenig, weil es ein Forum ist :ugly:

Dein Problem liegt ja leider, wie so oft, beim Lesen und dem Leseverständnis.
 
Blödsinn, niemand entwickelt ein 2x8 PIN Layout, wenn darauf eine 150W GPU kommt. Niemand. Ende.

Zumal nicht mit 8-Phasen Spannungswandler. Eine RX480 in der Leistungsklasse von um die 150W hatte auch nur 6.

Folgendes ist denkbar:

1.: Wir sehen ein vorläufiges PCB bei welchem ein bereits bestehendes Layout auf Navi umgemodelt wurde.

2.: Das PCB ist final und so ausgelegt, dass selbst bei sehr starkem OC kein Engpass entsteht und die PCIe Versorgung innerhalb der Spezifikationen bleibt.

3.: Wir sehen ein PCB, welches für sowohl für little-, als auch big-Navi entworfen wurde und dementsprechend auch die notwendigen Versorgungspunkte für den großen Chip bereit stellt.

4.: Wir sehen eine littleNavi welche unter Last das Zimmer heizt. (Wenn die kleine Karte schon auf V64 Niveau vor sich hin brutzelt, was wird dann der große Chip fressen?)

5.: Wir sehen einen guten Fake.

Die Anzahl der Lötaugen lässt nicht auf den tatsächlichen Verbrauch der GPU schließen. Ich denke nicht, dass Navi die sparsamste GPU aller Zeiten wird, aber ich glaube auch nicht, dass AMD mit so einer Karte aufwarten wird, wenn das Teil bei mutmaßlicher ~2070 Leistung ~375W braucht. Diese Karte existiert nämlich schon.
 
1.: Wir sehen ein vorläufiges PCB bei welchem ein bereits bestehendes Layout auf Navi umgemodelt wurde.
Abgesehen davon, dass das niemand tut:

Welches PCB sollte AMD da ummodeln? Alle HighEnd-PCBs mit GPUs für um die 300W war bisher HBM und daher komplett inkompatibel zu Navi. Man hat wohl kaum ein PCB seit 5 Jahren in der Ecke liegen, dass man dann plötzlich raus holt.

Nein, das ist ein speziell für Navi entwickeltes Board. Oder eben nicht, aber dann stellt sich die Frage, für welchen Chips das sonst sein soll.
 
Abgesehen davon, dass das niemand tut:

Welches PCB sollte AMD da ummodeln? Alle HighEnd-PCBs mit GPUs für um die 300W war bisher HBM und daher komplett inkompatibel zu Navi. Man hat wohl kaum ein PCB seit 5 Jahren in der Ecke liegen, dass man dann plötzlich raus holt.

Nein, das ist ein speziell für Navi entwickeltes Board. Oder eben nicht, aber dann stellt sich die Frage, für welchen Chips das sonst sein soll.

Fair enough.
Wer weiß schon was sich bei AMD so alles in der konzeptionellen Entwicklung befindet/befunden hat. Wir haben null Einblick in die Hintergründe und können nur anhand von mehr oder weniger glaubhaften Leaks spekulieren. Dementsprechend bleiben wohl meine restlichen Punkte, wobei ich ein "Master-Layout" für sämtliche Navi-GPUs am wahrscheinlichsten halte.
 
Zurück