AMD Navi: PCB-Bilder mit GDDR6 im Umlauf

Die User hier im Forum, die nicht ständig ihre Namen ändern, haben euch doch schon längst erkannt....
Ich bin seit fast 10 Jahren in allen großen deutschen Foren angemeldet, habe noch niemals meinen Namen geändert, und stehe zu jedem einzelnen Post den ich jemals geschrieben habe.....

Das meint Rolli_Jonson mit seinem Post.
Ein echter Mann ist integer, steht zu seiner Meinung, und gibt auch Fehler offen zu.....

Denn was uns am meisten definiert im Leben, sind unsere Fehler, NICHT unsere Erfolge.
Daraus lernen wir am meisten, und dass bestimmt uns auch......
 
Extra zum stänkern hier angemeldet ? Und dann sogar noch TomsHW velrinkt. Dabei weis jeder das der "alte Mann" sehr gerne übertreibt weils seinen Fanboys gefällt.



Bei PCGH artet jede News dieser Art aus. Das einzige was für gute Aktivität sorgt und viel Stunk ist Nvidia, AMD, Intel und Windows.



Nein, eigentlich nicht. Zumindest nicht wenn man noch richtig und neutral auf die Sache schaut. Es schwimmen auch keine Felle davon, soweit ist AMD noch lange nicht.

Lustige Kommentare hier teilweise, da brauch ich heute keine Komödie mehr.

Nein, natürlich nicht zum stänkern, habe ich keinen Grund dazu. TomsHW (Igor) stellt das ganze dort sehr neutral vor, ich sehe keine Übertreibung. Dort gibt es kein "ich mag das lieber als das".
Wie ich anderweitig auch schon zitiert habe, geht hier um Navi, nicht um Nvidia-Karten.
Er wollte einen Link, ich gab einen, hoffe er ist nun zufrieden und man kann hier weiter zu Navi diskutieren.

Beste Grüße
 
Ich z.B. habe grad eine RTX2080 FE gekauft zu Release für 850€. Mich interessiert jetzt die Zukunft und das könnte Navi sein. Wenn die Karte gut wird, könnte sie in mein nächstes portables System passen. Geht aber nur wenn es anständige Karten gibt, die die Größe meiner RTX nicht übertreffen. Also 2 Slot und niedrige Bauhöhe. Zudem darf sie nicht viel verbrauchen um leise zu werkeln. Das alles kann die RTX 2080 FE schon mal wunderbar, die 2060 auch. FPS können die alle. Also schan mer mal.
 
Genau, dass ist der richtige Ansatz.
Du hast gerade (sehr teuer) Nvidia gekauft, und wünschst AMD trotzdem dass sie mit Navi erfolgreich sind. ^^

Wofür du dein mühselig erarbeitetest Geld ausgibst, ist allein deine Sache, und du hast dir dass auch verdient.

Unabhängig von deinen Hoffnungen, kann Navi eigentlich gar nicht mehr versagen.
Dafür hat Nvidia die Flanke für AMD extrem weit geöffnet.....^^

Hier könnt ihr aber gut sehen, wie wichtig ernsthafte Konkurrenz ist.
Und Intel kann aus meiner Sicht gar nicht schnell genug in den GPU-Markt mit einsteigen.

Nie wieder ein Duopol im GPU-Markt bitte......
 
Zuletzt bearbeitet:
Korrekt ist allerdings, dass Nvidia es als normale Ausfälle abtat.
Und was hat nVidia an dem PCB jetzt geändert? Fehler bereinigt oder behoben? Das Ding hält die 5 Jahre durch die sie den Partner versprechen und auwiehö. Hier meinte man aber man hätte das behoben. Da wurde nichts behoben, einfach Kleber zur Stabilisierung draufgeschmiert (ohne die Langzeitwirkung zu kennen, das ist Flickschusterei vom Feinsten). Ich kenne die Beiträge von Igor dazu. Und er ist einer der Wenigen die sich tiefgreifend damit beschäftigen.

Das nVidia es trotzdem verkauft beweist doch mal wieder, das die sich alles erlauben dürfen, AMD hätte man bei gleicher Vorgehensweise dafür in der Luft zerfetzt.

PS: ...und falls du denkst das sei behoben, nein ist es nicht und schreibt Igor auch nicht. HardOPC haben 3 FE Karten getauscht (was aus der vierten wurde ist ungewiss), dort im Forum tausche jemand 3 EVGA über RMA, der letzte Eintrag stammte von Ende Januar, dort war wieder eine 2080ti FE eines Forenmitglieds betroffen. Da mit Weggang von Kyle Bennet das Forum eingeforen wurde, wird dort zu dem Thema nicht mehr gepostet.

Von nVidia hört man nur es gäbe keine Probleme und keine hohe Rückläuferquote. Dann braucht man ja auch keinen Kleber zur Stabilisierung draufschmieren.
 
Zuletzt bearbeitet:
Und Intel kann aus meiner Sicht gar nicht schnell genug in den GPU-Markt mit einsteigen.

Nie wieder ein Duopol im GPU-Markt bitte......

Volle Zustimmung! Mir ist es egal WAS ich verbaue, es ist mein Geld und ich suche nach meinem Bedürfnis passend aus. Herstellerunabhängig.
Hätte nichts gegen die "Qual der Wahl" wie in den Neunzigern...es gab so viele Hersteller.
 
Konkurrenz belebt zwar das Geschäft, aber auf Dauer können mehr Hersteller auch dazu führen das es kleinere Entwicklungsschritte gibt, nämlich dann wenn sich die Einnahmen auf mehr Hersteller verteilen. Die Kosten steigen derzeit immens an. Z.Z. kann nV mit ihrem riesigen Buget durch die Einnahmen die sie generieren, jedesmal einen größeren Schritt machen, dass muss absolut nicht so bleiben wenn man bedenkt, dass Intel 68-70% des GPU Marktes hält. Und die machen bekannterweise nur so viel wie sie müssen. Ob sich das dann noch für AMD lohnt wird man sehen.
 
Laut Su: Launch in Q3, wird unterhalb der Radeon VII angesiedelt sein - allerdings hat sie dahingehend bewusst "from a price point view" betont.

Wortwörtlich:
Zitat:
Navi is a new architecture for us in gaming. It has a lot of new features across the Navi architecture. Things are progressing well, we expect it to launch in the 3rd quarter. From a positioning standpoint I probably won't go through it in great detail right now other than to stay that it is 7nm Navi but it will be positioned below where for example our Radeon VII is positioned today from a price point standpoint. And then in terms of ray tracing again we will talk more about our overall Navi roadmap as we get closer to the launch.


AMD Confirms Navi GPU Launching In Q3 2019
 
Ähm, wo nimmst du das jetzt wieder her? Ohne Leistungsmessung in Benchmarks und in der Energieversorgung raten wir nur.

Es gibt auch GTX1060 mit 8Pin, die ist auch kein Schlucker.
 
8-PIN, also zusammen mit PCIe Slot ca. 225W Leistungsaufnahme. Für eine Leistung im Bereich unterhalb 2080 (also unterhalb der Radeon VII).

Sieht so aus, als hätte AMD das Thema Effizienz mal wieder nicht im Griff.

Mit 2x8Pin und PCIe könnte die Karte bis zu 375W aufnehmen. Allerdings wissen wir nicht ob es sich bereits um das finale PCB handelt bzw. ob wirklich zwei 8Pin Buchsen verbaut werden.

Könnte ja sein, dass AMD mit Peltier Elementen kühlen möchte. (Sehr unwahrscheinlich.) ^^
Einfach abwarten, wenn die Karte wirklich ab September verfügbar sein wird, dann werden wir ja bald mal nähere Infos bekommen. :)
 
Ist doch ein typischer Mimi Post. Was hat die Anzahl der Lötpunkte auf einer Platine mit der tatsächlichen Bestückung zu tun - rein gar nichts.

Andersherum verteilt man die Energie auf dem Bord sinnvoller und bietet OC Potential. Sonst bräuchte die "effiziente" 1070 ja nicht 75+75+150, oder eine 1650 nicht 75+75 bzw. die 2070 nicht 75+75+150? Und diese Karten gibt es.

Quark mit Soße mal wieder.
 
Ähm, wo nimmst du das jetzt wieder her? Ohne Leistungsmessung in Benchmarks und in der Energieversorgung raten wir nur.

Es gibt auch GTX1060 mit 8Pin, die ist auch kein Schlucker.

Das sind aber Custom Modelle, Referenz Modelle sind im Einsteigerbereich oft an der Grenze, hat man zum Beispiel bei der 480 zu Beginn gut gesehen. Ein 8 Pin sagt zumindest, dass ein 6 Pin nicht mehr sicher reichen würde, also keine allzu beeindruckende Effizienz.
 
Das sind aber Custom Modelle, Referenz Modelle sind im Einsteigerbereich oft an der Grenze, hat man zum Beispiel bei der 480 zu Beginn gut gesehen. Ein 8 Pin sagt zumindest, dass ein 6 Pin nicht mehr sicher reichen würde, also keine allzu beeindruckende Effizienz.
Polaris 10 hatte ein Package Limit von 110W, wie die Hersteller das zu nutzen wussten und dabei Platinen entwickelten die preiswert und effizient genug sind ist deren Problem. Man wird sich sicher in vielen Fällen an die Basics halten.

Es gibt auch bei anderen Karten die viel mehr aufnehmen als die Referenz verspricht. Das hat oft nichts mit der Effizienz oder Sparsamkeit der GPU zu tun, sondern welche Bauteile am Markt verfügbar sind und in welcher Preisklasse man Produkte absetzen will.
 
Ist doch ein typischer Mimi Post. Was hat die Anzahl der Lötpunkte auf einer Platine mit der tatsächlichen Bestückung zu tun - rein gar nichts.
:lol:

Ja, die Lötpunkte und die 8 Phasen an Spannungswandlern sind nur aus Spaß da und die Karte nimmt hinterher nur 75W auf :daumen:

Trolololololol.

Andersherum verteilt man die Energie auf dem Bord sinnvoller und bietet OC Potential.
Die AMD-Karten sind ja so bekannt für ihr gigantisches OC-Potential. Ich dachte man müsste UV machen, um bei NVIDIA mit halten zu können? :ugly:
 
Hmm naja.Also in Wolfenstein komme ich mit OC auf knapp 105Fps,eineVergleichbare 2080mit OC erreicht etwa 110.

Ist das eigentlich ein Scherzversuch eigene Ergebnisse über die von rennomierten Magazinen zu stellen?

In Strange Brigade ist die VII deutlich schneller als die 2080, da liegen rund 20-30% dazwischen.

Und in Wolfenstein mit CAS ist die 2080 Ti rund 50% schneller als die Radeon VII. In Strange Brigade ist die Radeon VII nur knapp 10% schneller.
Gerade die Entwickler haben dort brav mit beiden Grafikherstellern zusammengearbeitet und zunächst war Wolfenstein als reines AMD Paradebeispiel verschrien.
Nun ist man dazu übergegangen und versucht wieder Kirschen zu picken, wohlwissend, dass Turing für Low Level APIs das bessere Grundgerüst als noch Vega aufbieten kann.
WWZ sieht es ähnlich aus. In DX12 Titeln skalieren die Arches etwa vergleichbar und in DX11 hat Nvidia dann klar die Nase vorne, außer es ist sehr Computelastig.

Aus WWZ derzeit die Performance unter Vulkan abzuleiten ist komplett unseriös.

Ist doch ein typischer Mimi Post. Was hat die Anzahl der Lötpunkte auf einer Platine mit der tatsächlichen Bestückung zu tun - rein gar nichts.

Mit der tatsächlichen Bestückung weniger, aber zum Beispiel mit der geplanten Bestückung.
Da wir laut Lisa Su nun wissen, was eh jeder schon gewusst hat, dass Navi leistungsmäßig etwas unterhalb der Radeon VII platziert wird bahnt sich folgendes wahrscheinliche Szenario an.
RTX 2070 Leistung mit den gewohnten 50 bis 100 Watt mehr Stromaufnahme, denn man darf nicht vergessen, dass die Radeon VII noch den HBM Vorteil mitbringt.
Quark mit Soße mal wieder.

225 Watt TBP ist eine sehr schöne und nüchterne Einschätzung, die ich auch teile.

Polaris 10 hatte ein Package Limit von 110W, wie die Hersteller das zu nutzen wussten und dabei Platinen entwickelten die preiswert und effizient genug sind ist deren Problem. Man wird sich sicher in vielen Fällen an die Basics halten.

Entscheidend ist nicht das Package Limit sondern die TBP der gesammten Karte, inkl V-ram. Dafür muss man auch die Stromstecker so wählen dass sie in jeder Lebenslage die PCIe Spezifikationen einhält.
8 Phasen an Spannungswandlern sind wie schon erwähnt nicht um Spaß verbaut und deuten darauf hin, dass AMD die Karte dieses mal bis ans Limit prügeln wird.
Es gibt auch bei anderen Karten die viel mehr aufnehmen als die Referenz verspricht.

Diese interessieren aber hier nicht, es interessiert alleine die Referenzlösung, Boadpartner entwickeln dann eigene PCBs für ihre Customlösungen.
 
Zuletzt bearbeitet:
Ich würde mich von der Stromversorgung nicht blenden lassen. Nach der RX 480 geht man da vielleicht lieber auf Nummer sicher ;)
 
Mit der tatsächlichen Bestückung weniger, aber zum Beispiel mit der geplanten Bestückung.
Da wir laut Lisa Su nun wissen, was eh jeder schon gewusst hat, dass Navi leistungsmäßig etwas unterhalb der Radeon VII platziert wird bahnt sich folgendes wahrscheinliche Szenario an.

RTX 2070 Leistung mit den gewohnten 50 bis 100 Watt mehr Stromaufnahme, denn man darf nicht vergessen, dass die Radeon VII noch den HBM Vorteil mitbringt.

225 Watt TBP ist eine sehr schöne und nüchterne Einschätzung, die ich auch teile.

Entscheidend ist nicht das Package Limit sondern die TBP der gesammten Karte, inkl V-ram. Dafür muss man auch die Stromstecker so wählen dass sie in jeder Lebenslage die PCIe Spezifikationen einhält.
8 Phasen an Spannungswandlern sind wie schon erwähnt nicht um Spaß verbaut und deuten darauf hin, dass AMD die Karte dieses mal bis ans Limit prügeln wird.

Diese interessieren aber hier nicht, es interessiert alleine die Referenzlösung, Boadpartner entwickeln dann eigene PCBs für ihre Customlösungen.
Machst du einen auf Schaffe? Du hast mehrere logische Fehler in deiner Erläuterung - wie, was, warum.

Die Partner halten sich an ein Basic, dass gibt ihnen der IHV vor. Erst wenn sie eine Freigabe für was anderes haben, dürfen sie selbst entwickeln was auch von den Stückzahlen abhängig gemacht wird. nVidia macht das nicht anders und ist dort viel restriktiver. Auch die lassen oder liessen in der Vergangenheit einfach Phasen frei.

Was habe ich denn zur TBP geschrieben, es liegt daran was für Bauteile am Markt verfügbar sind und wie effizient eine Karte ausfallen soll, was auch davon abhängt, wo und zu welchen Preis ich meine Hardware im Verkauf platzieren will.

100 Watt über der 2070, wo soll das denn liegen bei knapp 300W? Ihr schreibt hier einen Bl*dsinn zurecht...:schief:.

Zudem wisst ihr nicht, wo sich Navi und wie einsortiert. Es kann sich um die Navi10 Platine handeln, der soll ca. 260-290mm² und damit nicht besonders klein ausgefallen, wenn man an 7nm denkt. Darunter kommen sicher noch kleinere Derivate. Trotz alledem hat man anscheinend ein wenig reorgarnisiert, so wie erste Infos zum gfx1010 ausfallen. Damit kann nur Navi10 gemeint sein (gfx10-10). GCN ala Vega inklusive R7 ist gfx9.

PS: ...hier sieht man eine 2070 Turbo von Asus und erkennt das auch diese für 2x8 Pins gedacht war, später aber das Layout optimiert wurde um Kosten zu sparen. Da zählt dann beim Partner jeder Cent. Der ursprüngliche Platz ist klar vorhanden.

https://pics.computerbase.de/8/5/0/5/0/3-1080.1146567204.jpg

Man sieht auf der Rückseite sehr deutlich, das etliche SMD Bauteile fehlen und nicht bestückt wurden. Ist halt so, manchmal muss man nehmen was verfügbar ist und legt nicht für jede GPU ein extra PCB inklusive Layout auf.
 
Zuletzt bearbeitet:
100 Watt über der 2070, wo soll das denn liegen bei knapp 300W? Ihr schreibt hier einen Bl*dsinn zurecht...
Er schrieb 225W, das könnte hin kommen. Angesichts des bisherigen NVIDIA/AMD Verhältnisses und angesichts dieses Leaks.

Zudem wisst ihr nicht, wo sich Navi und wie einsortiert.
Hat AMD bereits gesagt: Unterhalb Radeon VII. Also unterhalb der 2080, mit Pech unterhalb der 2070.

PS: ...hier sieht man eine 2070 Turbo von Asus und erkennt das auch diese für 2x8 Pins gedacht war/QUOTE]
Nein, wie man sieht gibt es keine Lötpunkt für 2x8 PIN, sondern nur 8+6-PIN. Das PCB ist klar für 300W statt 375W ausgelegt.

Das einzige was es da gibt, ist ein zu einem 8-PIN von der Größe her identischen 6-PIN. Sicherlich, weil man damit weniger an den Bestückungsmaschinen ändern muss, wenn man unterschiedliche Karten produziert. Mit deiner eigentlich bescheuerten Behauptung, da wären Lötpunkte die man nicht nutzt, hat das nichts zu tun.
 
AMD hat bisher alles so gesagt, dass es platz für ne Menge Spekulation lässt, genauso das PCB da.

Wir wissen doch nicht mal, ob das überhaupt für die finale Version gedacht ist, oder ob das eines der Entwicklungs-PCBs ist, bei denen man eben die Grenze austestet, um zu sehen wohin man final gehen will.

Natürlich wäre ne 300-375W TBP Karte nicht das was wir wollen, in bezug auf Verbrauch und Kühlung, aber wir wissen nicht mal was dann da an Leistung raus kommt.
 
Zurück