AMD Navi: PCB-Bilder mit GDDR6 im Umlauf

Wir könnten auch Igor fragen, siehe u.a.

Für AMD war und ist es auch immer einer Frage des Preises. Diese Wunschvorstellungen 300-400 EUR für 1080ti Leistung ist unerfüllbar. Das weiß jeder der sich damit beschäftigt. Selbst die 2080 kann da nicht immer draufsetzen, wenn man die Speicherausstattung betrachtet. In Einzelfällen kann man aber sicher beweisen das es möglich ist. Trotzdem ist GCN eher Vulkan. Das dies den Markt spaltet dürfte jedem bewusst gewesen sein.

Letztlich ist Turing nichts weiter als eine Weiterentwicklung (Fermi-Maxwell 1/2-Pascal-Volta-Turing). AMD macht nichts anderes. Was die Zukunft bringt werden wir sehen. Monolithisch muss nicht bedeuten, dass nicht zwei Dices in ein Package passen.
 

Anhänge

  • 12345678.jpg
    12345678.jpg
    144,8 KB · Aufrufe: 45
Zuletzt bearbeitet:
Ja das ist was mich auch so ärgert bei AMD, siehe Fury X/ Vega/ 7, Rohleistung on Mass, haben von allem mehr im Chip verbaut, aber es kommt nicht auf den Bildschirm an.
Es gibt ja schon länger die Idee, 2 Chips auf eine Karte zu packen, Multi-Chip-Module (MCM). Mal sehen wann das wird, abwegig finde ich das nicht.
 
Zuletzt bearbeitet:
Wir könnten auch Igor fragen, siehe u.a.

Für AMD war und ist es auch immer einer Frage des Preises. Diese Wunschvorstellungen 300-400 EUR für 1080ti Leistung ist unerfüllbar. Das weiß jeder der sich damit beschäftigt. Selbst die 2080 kann da nicht immer draufsetzen, wenn man die Speicherausstattung betrachtet. In Einzelfällen kann man aber sicher beweisen das es möglich ist. Trotzdem ist GCN eher Vulkan. Das dies den Markt spaltet dürfte jedem bewusst gewesen sein.

Gerade in Vulkan wird GCN von Turing verdroschen. In 4k sind wir in Wolfenstein 2, dem absoluten Paradebeispiel, laut Heft bei 43% Vorsprung der 2080 Ti gegenüber der Vega VII, die schon in 7nm gefertigt ist. Turing kann mit Low Level API's besser umgehen als es Vega oder Polaris mit GCN können.
 
[1] Wir könnten auch Igor fragen:
[BILD]

[2] Für AMD war und ist es auch immer einer Frage des Preises. Diese Wunschvorstellungen 300-400 EUR für 1080ti Leistung ist unerfüllbar. Das weiß jeder der sich damit beschäftigt. Selbst die 2080 kann da nicht immer draufsetzen, wenn man die Speicherausstattung betrachtet. In Einzelfällen kann man aber sicher einen draufsetzen. Trotzdem ist GCN eher Vulkan. Das dies den Markt spaltet dürfte jedem bewusst gewesen sein.

Letztlich ist Turing nichts weiter als einen Weiterentwicklung (Fermi-Maxwell 1/2-Pascal-Volta-Turing). AMD macht nichts anderes. Was die Zukunfst bringt werden wir sehen. Monolitisch muss nicht bedeuten das nicht zwei Dices in ein Package passen.
[1] Wenn du das Bild anschaust, wie würdest du es denn selber zu deiner Aussage einordnen?
"Das war also schon damals ein Thema und Tahiti war bspw. unter AC4 Black Flag/Sniper auch schneller. Sogar Pitcairn konnte die 680 dort abrocken, hatte aber gar nicht so hohe FP Power."

Also da ist eine GTX770 an erster Stelle und eine GTX680 wäre ungefähr bei der 280X und 7970.
Pitcairn ist auf jeden Fall ein gutes Stück entfernt.
Und allgemein von abrocken sieht das nicht aus.

[2] Offensichtlich richtet sich der Preis immer daran, was das Unternehmen anstrebt und oder sich leisten kann.
Je nachdem wie stark Navi wird, wird AMD einen niedrigeren oder höheren Preis ansetzen, mit entsprechender Marge für sie.
Ein Bombenangebot gegenüber der Konkurrenz muss man sich aber nicht vormachen.


Und seit Ewigkeiten macht Nvidia fast ständig große Sprünge nach vorne bzw. baut massiv um.
Im Prinzip hat Nvidia jedes mal die Axt geschwungen, außer bei Pascal.
Kepler hat die ISA verändert, andere Ausführungslatenzen, die Cache-Hierarchie umgestaltet, viele Modifikationen beim Front-End und der Graphics-Pipeline gehabt, bei Maxwell hat man erneut das alles gemacht, Pascal (GP100 ausgeklammert) war dagegen eine kleine Verbesserung und Volta/Turing hat gegenüber den Vorgängern eine neue ISA, mit erneut anderen Ausführungslatenzen, einer verbesserten Cache-Hierarchie und viele weiteren Dinge.

AMD hat dagegen von GCN1-5 kaum etwas an den CUs oder der ISA verändert und die größten Änderungen finden sich bei der Graphics Pipeline und ein paar Modifikationen beim Front-End.
Während man sagen kann das AMD an vielen Stellen schon einen guten Startpunkt hatte und abseits der Architektur ist natürlich auch die physische Implementierung und das Energy-Management wichtig, aber offensichtlich hat Nvidia die weit größeren Fortschritte erzielt und liegt stark in Führung.
 
[1] Wenn du das Bild anschaust, wie würdest du es denn selber zu deiner Aussage einordnen?

Also da ist eine GTX770 an erster Stelle und eine GTX680 wäre ungefähr bei der 280X und 7970.
Tonga galt als Weitereinwicklung für Pitcairn. Mit OC, wird wurde hier ja auch angesprochen, oder UV was ja bei AMD alles nicht gehen soll. Man konnte gut 280 Leistung rausquetschen und läge dann mit 5% weniger zur 770, gut auf und kurz unter der 680 in dem jeweiligen Spiel. Zum deutlich billigeren Preis und Fehlgeburt Architektur. Das war der Grundtenor dieser Diskussion.

NVidia macht ordentlich Spünge weil sie genug Geld haben, woran das liegt frag dich selbst. Ich will diese Diskussion hier auch nicht ausweiten, weils nicht Thema dieses Threads ist. Mich stören immer wieder Einwürfe ohne diskrete Erläuertung, die nicht richtig sind und so einen falschen Eindruck hinterlassen, es wird überall hart gearbeitet. Ich will mich auch nicht in jedem Thread mit den selbsternannten Größen umherschlagen, wobei das Thema zig mal durchgekaut wurde. So schlecht wie GCN hingestellt wird, ist es nämlich nicht. Es war der notwendige Schritt weg von VLIW. Zuletzt hat es auch bewirkt, dass nVidia seine Strategie mehrmals durchdachte. Es gibt bei jedem Hersteller "Le*chen im Keller", nicht nur bei AMD.

Derzeit hat nVidia ganz andere Probleme, sieh es an CAD und nVidias Treiberstabilität, wenn es um openCL geht. Was man dort z.Z. abgeliefert ist ein Fiasko für die Integratoren - inklusive schrottiger PCBs bei over 1000$ Consumer Karten, wird aber in den Himmel gelobt. Wenn du das als moderne und zeitgerechte Entwicklungsarbeit bezeichnest, ist das dein Problem. Das du hier und da AMDs GCN als "Enttäuschung" bezeichnst ist mir sicher bekannt. Da machst du ja auch in Entwicklerforen nicht vor Halt. Interessiert dort aber kaum jemanden, verschenkst dir aber Möglichkeiten, Antworten zu erhalten nach denen du ständig auf der Suche zu sein scheinst.

Offtopic off.
 
Gerade in Vulkan wird GCN von Turing verdroschen. In 4k sind wir in Wolfenstein 2, dem absoluten Paradebeispiel, laut Heft bei 43% Vorsprung der 2080 Ti gegenüber der Vega VII, die schon in 7nm gefertigt ist. Turing kann mit Low Level API's besser umgehen als es Vega oder Polaris mit GCN können.

Eine Radeon VII hatte nie den Anspruch mit der 2080ti zu konkurrieren (auch wenn es ein paar Titel gibt, in der sie durchaus dazu in der Lage ist) und wie man in diesem Video gut sehen kann, sind 2080(non-ti) und Radeon VII in Wolfenstein 2 bei 4k gleichauf. Daher darf man deine Aussage "Turing verdrischt GCN" ohne weiteres ad acta legen.
 
Tonga galt als Weitereinwicklung für Pitcairn. Mit OC, wird wurde hier ja auch angesprochen, oder UV was ja bei AMD alles nicht gehen soll. Man konnte gut 280 Leistung rausquetschen und läge dann mit 5% weniger zur 770, gut auf und kurz unter der 680 in dem jeweiligen Spiel. Zum deutlich billigeren Preis und Fehlgeburt Architektur. Das war der Grundtenor dieser Diskussion.

NVidia macht ordentlich Spünge weil sie genug Geld haben, woran das liegt frag dich selbst. Ich will diese Diskussion hier auch nicht ausweiten, weils nicht Thema dieses Threads ist. Mich stören immer wieder Einwürfe ohne diskrete Erläuertung, die nicht richtig sind und so einen falschen Eindruck hinterlassen, es wird überall hart gearbeitet. Ich will mich auch nicht in jedem Thread mit den selbsternannten Größen umherschlagen, wobei das Thema zig mal durchgekaut wurde. So schlecht wie GCN hingestellt wird, ist es nämlich nicht. Es war der notwendige Schritt weg von VLIW. Zuletzt hat es auch bewirkt, dass nVidia seine Strategie mehrmals durchdachte. Es gibt bei jedem Hersteller "Le*chen im Keller", nicht nur bei AMD.

Derzeit hat nVidia ganz andere Probleme, sieh es an CAD und nVidias Treiberstabilität, wenn es um openCL geht. Was man dort z.Z. abgeliefert ist ein Fiasko für die Integratoren - inklusive schrottiger PCBs bei over 1000$ Consumer Karten, wird aber in den Himmel gelobt. Wenn du das als moderne und zeitgerechte Entwicklungsarbeit bezeichnest, ist das dein Problem. Das du hier und da AMDs GCN als "Enttäuschung" bezeichnst ist mir sicher bekannt. Da machst du ja auch in Entwicklerforen nicht vor Halt. Interessiert dort aber kaum jemanden, verschenkst dir aber Möglichkeiten, Antworten zu erhalten nach denen du ständig auf der Suche zu sein scheinst.

Offtopic off.
Tonga galt als Weiterentwicklung von Pitcairn?
Wer hat das offiziell gemacht?

Also rein von den Eckdaten war Tonga hauptsächlich wie Tahiti konfiguriert.
32 CUs/2048 ALUs, 32 ROPs, 384-Bit GDDR5, aber statt 2 Shader-Engines gab es 4.
Die Chipgröße mit 359mm² war auch entsprechend ähnlich zu Tahiti mit 365mm².
Pitcairn lag bei 212mm².

Neben der unsinnigen Fehlgeburt-Aussage, gab es aber auch die Behauptung mit Tonga hat Nvidia das Fürchten gelehrt oder wie Tahiti und Pitcairn in AC: Black Flag gerockt haben.
Auch ein Tick übertrieben das Ganze, findest du nicht?
Bezüglich der ersten Behauptung kann ich auch nur wiederholen, dass der GK104 2012 erschien, 294mm² groß ist und mit Tonga von 2014/15 auf einem Niveau war, was die Leistung und Effizienz angeht.
Das ist kein gutes Ergebnis und hat Nvidia sicherlich in keinem Aspekt das Fürchten gelehrt, die mit Maxwell zu der Zeit massiv vorgelegt haben.
Und wenn AMD ihr Angebot günstig verkauft, dann spricht das indem Fall nicht für Architektur.

Natürlich hat Nvidia seit Jahren ein massiv höheres R&D-Budget, als AMDs GPU-Sparte und wir sehen das Endergebnis davon.
Dadurch kann man viele Dinge besser in Relation setzen, aber leider ändert es an den Tatsachen nichts.

--------

Bezüglich CAD und Treiberstabilität, keine Ahnung ehrlich gesagt, da ich kein Fiasko mitbekommen habe und wenn es eins gibt, wie sehr betrifft das Nvidia finanziell?
Denn ich denke Nvidia muss sich vorerst mit schwächeren Finanzzahlen begnügen, nachdem man sich mit Pascal dumm und dämlich verdienen konnte, unter sovielen Marktsegmenten und mit dem Mining-Boom im Rücken.
Mit Turing sieht die Lage nicht mehr so paradiesisch aus.
Aktuell gibt es auch viel Bewegung, wo man noch nicht klar sagen kann, wie die Zukunft aussieht.
Intel will stark beim Automotive mitwirken, Tesla entwickelt selber, Intel wird auch bei den GPUs stark einsteigen, ob sie konkurrenzfähig sein werden, wird man noch abwarten müssen, aber Intel ist massiv und wenn die gut sind, hat Nvidia bei sehr vielen Absatzmärkten ein Problem.
AI ist ein großes Thema, aber dort gibt es auch mehrere Schwergewichte die attraktive Lösungen für den Markt oder gar Eigenbedarf entwickeln.

----

Ich bezeichne hier und da AMDs Fortentwicklung von GCN und die Resultate im Vergleich zur Konkurrenz als Enttäuschung.
Und bei wem verschenke ich mir Antworten, weil ich die Entwicklung und Situation bei AMD nicht so positiv bewerte?
 
Eine Radeon VII hatte nie den Anspruch mit der 2080ti zu konkurrieren (auch wenn es ein paar Titel gibt, in der sie durchaus dazu in der Lage ist) und wie man in diesem Video gut sehen kann, sind 2080(non-ti) und Radeon VII in Wolfenstein 2 bei 4k gleichauf. Daher darf man deine Aussage "Turing verdrischt GCN" ohne weiteres ad acta legen.

Ah, eine Vega VII mit 4096 Shadern soll man also mit einer 2080 mit nicht mal 3000 Shader vergleichen bei einer API die angeblich Rohleistung doch so toll ausnutzen kann? Abgesehen davon, tolle Quelle! Eine 2080 ist in Wolfenstein 2 in 4k 10% schneller. Was um so peinlicher ist, mit 7nm und 4096 Shadern so eine Leistung zu liefern, in einem AMD Spiel.
Abgesehen davon, der durchschnittliche Vorsprung einer 2080 Ti gegenüber einer Vega VII sind 36%, was eben nur der Durchschnitt ist, in manchen ist sie ein gutes Stück näher dran, aber gerade in einem AMD Game das Gegenteil. Was eben genau das verdeutlicht was ich schon geschrieben habe, Turing liegt Vulkan besser als GCN.
 
hat AMD im Verhältnis zur Die Größe eig nen größeres Package als Nvidia? (also bei den GPUs ohne HBM)
 
Zuletzt bearbeitet:
Ah, eine Vega VII mit 4096 Shadern soll man also mit einer 2080 mit nicht mal 3000 Shader vergleichen bei einer API die angeblich Rohleistung doch so toll ausnutzen kann? Abgesehen davon, tolle Quelle! Eine 2080 ist in Wolfenstein 2 in 4k 10% schneller. Was um so peinlicher ist, mit 7nm und 4096 Shadern so eine Leistung zu liefern, in einem AMD Spiel.
Abgesehen davon, der durchschnittliche Vorsprung einer 2080 Ti gegenüber einer Vega VII sind 36%, was eben nur der Durchschnitt ist, in manchen ist sie ein gutes Stück näher dran, aber gerade in einem AMD Game das Gegenteil. Was eben genau das verdeutlicht was ich schon geschrieben habe, Turing liegt Vulkan besser als GCN.
http://www.pcgameshardware.de/World...-Technik-Test-besser-als-Geforces-ab-1280318/

Ein Klick reicht eigentlich, dein Geschreibsel als persönliche Wahrnehmung abzutun und was du hier versuchst. Es wäre auch nett wenn du dein offtopic Gespame jetzt lassen könntest, oder das Thema auf einen Bereich im Forum verlagern - wo es passt.

hat AMD im Verhältnis zur Die Größe eig nen größeres Package als Nvidia? (also bei den GPUs ohne HBM)
Unter 7nm? Turing ist unter 12nm FFN deutlich größer, als z.Bsp. die Radeon 7.
 
Zuletzt bearbeitet:
Imo könnte es sein das Navi GDDR und HBM kann. Wo siehst du dort ein Package? Du siehst wenn die BGA, die sagt nichts darüber aus wie groß ein Package in seiner Fläche ausfällt.
 
Gerade in Vulkan wird GCN von Turing verdroschen. In 4k sind wir in Wolfenstein 2, dem absoluten Paradebeispiel, laut Heft bei 43% Vorsprung der 2080 Ti gegenüber der Vega VII, die schon in 7nm gefertigt ist. Turing kann mit Low Level API's besser umgehen als es Vega oder Polaris mit GCN können.

Hmm naja.Also in Wolfenstein komme ich mit OC auf knapp 105Fps,eineVergleichbare 2080mit OC erreicht etwa 110.
In Strange Brigade ist die VII deutlich schneller als die 2080, da liegen rund 20-30% dazwischen.
WWZ sieht es ähnlich aus. In DX12 Titeln skalieren die Arches etwa vergleichbar und in DX11 hat Nvidia dann klar die Nase vorne, außer es ist sehr Computelastig.
 
Du meinst das Substrate als "Elektronik Package" (Trägermaterial), dass lässt aber nicht auf die Dice Grösse schliessen. Das hängt vom Bounding ab, der Dicegröße, Siliziumpackage, Underfills, dem Thermal Grease (Heatsink) und den Capacitoren die noch dazu bestückt werden.
 
Hmm naja.Also in Wolfenstein komme ich mit OC auf knapp 105Fps,eineVergleichbare 2080mit OC erreicht etwa 110.
In Strange Brigade ist die VII deutlich schneller als die 2080, da liegen rund 20-30% dazwischen.
WWZ sieht es ähnlich aus. In DX12 Titeln skalieren die Arches etwa vergleichbar und in DX11 hat Nvidia dann klar die Nase vorne, außer es ist sehr Computelastig.

OC Tests kann man schwer dazu ziehen, da jeder Chip nun mal ein Unikat ist und es macht wenig beispielsweise keinen Sinn einen sehr guten Chip mit einem eher schlechten zu vergleichen. Out of the Box Werte sind die Einzigen die man bei sowas wirklich verwenden kann, außer man hat viele OC Ergebnisse in dem Spiel, von beiden Karten, um so einen Schnitt zu ermitteln.
Der Test von WWZ ist bewiesener Maßen Schwachsinn und bis heute ist kein Treiber von Nvidia für das Spiel draußen.
AMD Radeon VII im zweiten Test - ComputerBase , sie ist gerade einmal 7% schneller in Strange Brigarde, sprich weit entfernt von 20-30%.
Im PCGH Parcour in dem alles enthalten ist übertrumpft die Vega VII die 2080 nie um mehr als wenige Prozent Punkte bzw. maximal um 2 FPS und das auch nur in Spielen wo die FPS sowieso schon außerhalb des spielbaren Bereichs liegen.
 
Du meinst das Substrate als "Elektronik Package" (Trägermaterial), dass lässt aber nicht auf die Dice Grösse schliessen. Das hängt vom Bounding ab, der Dicegröße, Siliziumpackage, Underfills, dem Thermal Grease (Heatsink) und den Capacitoren die noch dazu bestückt werden.

jo, das mein ich

allerdings fällt mir gerade auf, dass Polaris10 ja auch n recht großes Package hat
 
Zuletzt bearbeitet:
Zurück