News Radeon RX 7000: AMD klärt Verwirrung um "Probleme" beim Shader-Prefetch

Boar ist das wieder ein Erlebnis hier mitzulesen... ein unangenehmes. Warum kann man andere Aussagen nicht einfach mal neutral betrachten. Jemand sagt dass Firma X tat Y begeht und schon wird ihm unterstellt er fände es bei Firma Z gut. Was soll das.

Für mich ist die aktuelle Marktsituation wie folgt:
- Nvidia ist schneller im RT +1
- Nvidia ist effizienter +1
- AMD ist schneller im rastern +1
- AMD ist beim Preis noch nicht ganz so abgehoben +1

Da ich aber so gut wie nie an der Kiste sitze und mir die Effizienz egal sein kann, betrachte ich die aktuellen Produkte als sehr ausgeglichen.
Ich werde AMD aber dennoch vor beim Verbrauch einen Bock geschossen zu haben. Der ist einfach nicht gut im Vergleich. Siehe meine Signatur. Ich wollte wechseln, tue es aber schlicht noch nicht. Wird das Produkt 7950XTX auch mit den gleichen Ecken und Kanten auf den Markt kommen, setze ich aus oder kaufe eben grün. Das ist doch ein ganz lockeres Thema eigentlich.
Nvidia werfe ich hingegen ihre Preispolitik vor. Der große Monolith ist einfacher und die Erfahrung vorhanden. Diese Karte wäre auch für gut 40 Prozent weniger noch ertragreich gewesen.

Seid doch nicht so engstirnig und verbissen und lässt eurem Gegenüber einfach Mal den Status neutral, bis er klar etwas anderes schreibt. Diese Interpretationen von manchen sind wirklich sehr unangemessen.
 
Zuletzt bearbeitet:
Das die Hardware so teuer ist, sind ja auch die Auftragsfertiger mit Schuld. Die bieten mittlerweile alle 2 Jahre ein neues Herstellungsverfahren an. Das geht eben ins Geld. Ständig werden neue Maschinen angeschafft oder die vorhandenen auf- und umgerüstet. Die Hersteller sind so in ihrem Wettbewerbsdruck verhaftet, daß die Kosten langsam das Dach sprengen. Braucht eigentlich niemand. Und in dieser Phase kauft man am besten nicht. Es dauert nicht mehr lange und der fehlende Umsatz durch die hohen Preise bewirkt wieder eine Stagnation.
 
Ja, das stimmt wohl. Sowohl TSMCs als auch Samsung und Co. langen ordentlich zu. Ich finde das auch total überzogen. Aber das könnten sie nicht, oder würden sie nicht, wenn die Auftraggeber nicht dabei wären. Nur wollen die halt auch maximalen Vorteil um mehr Leistung zu erzielen. Wenn dann der Kunde die aufgerufenen Preise fürs Endprodukt auch noch zu zahlen gewillt ist, dann schließt sich so eine Spirale und jeder wird in seinem tun gestärkt.
 
Ich war auch mal so drauf, dass ich AMD wegen fast allem in Schutz genommen habe, aber wenn sich Dinge zu oft wiederholen ist es aus mit dem Underdogbonus, vor allem wenn man so eine dicke Stange Geld verlangt.
So war ich bis ca. 2012 auch drauf. Dann ist die Helikopterturbine aka 7970 abgeraucht und xfx hatte sich aus verschiedenen Gründen vor der Garantie gedrückt. Habe dann aus trotz eine Nvidia gekauft.
Lustig wie plötzlich alle Probleme mit Spiele die nicht starten wollten oder sonstige Grafikfehler weg waren.
Von wegen die bösen Entwickler und so.
Ich halte dann einen Teil meines Geldes auch so lange zurück wie AMD braucht oder wie?
Ja wie damals beim Phenom II X4 965 BE (C3) mit dem teuersten Asus Crosshair Board.
Der lief dann auch erst mit dem letzten Bios update für die X6 Cpu's. Vorher ging der Ram nicht Abstürze und vieles mehr.
Ja, das stimmt wohl. Sowohl TSMCs als auch Samsung und Co. langen ordentlich zu. Ich finde das auch total überzogen. Aber das könnten sie nicht, oder würden sie nicht, wenn die Auftraggeber nicht dabei wären. Nur wollen die halt auch maximalen Vorteil um mehr Leistung zu erzielen. Wenn dann der Kunde die aufgerufenen Preise fürs Endprodukt auch noch zu zahlen gewillt ist, dann schließt sich so eine Spirale und jeder wird in seinem tun gestärkt.
Du must dir mal das Video anschauen. Dann wird dir klar warum EUV so teuer ist.
Von wegen 50 000 winzige Zin Tröpfchen pro Sekunde in die Maschine schießen und jedes Tröpfchen jeweils zweimal im perfekten Winkel mit einem speziellen Laser treffen etc. Ich dachte ich höre nicht richtig.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet:
Du must dir mal das Video anschauen. Dann wird dir klar warum EUV so teuer ist.
Von wegen 50 000 winzige Zin Tröpfchen pro Sekunde in die Maschine schießen und jedes Tröpfchen jeweils zweimal im perfekten Winkel mit einem speziellen Laser treffen etc. Ich dachte ich höre nicht richtig.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Sehr geil, danke für den Link! Man hört hier im Forum immer "ja aber die nächste Generation muss doch günstiger werden da die Fertigung immer kleiner und besser wird". Eben nicht. Wir sind an einem Punkt angekommen wo nur noch durch hochgradig komplexe Maschinen Verbesserungen erreicht werden. Die Kosten pro EUV Einheit von ASML sind ja bekannt, und laut Video schaffen die ca. 125-170 Wafer pro Stunde.
 
Vor 2 Tagen schon wollte ich antworten, aber es kam immer wieder etwas dazwischen. ;)
Die ausgelieferten Karten haben Revision C8.
Ich habe die Twitter Kommentare gelesen und jemand meint, im Programm GPU-Z steht etwas von C8, aber im VGA BIOS ist von A0 die Rede. Interessant.
Was kann man sich um den Shader Prefetch vorstellen? Soll das eine Vorhersage der zukünftig zu errechnenden Pixel darstellen, um vorab schon die nötigen (Grund-)Berechnungen zu tätigen?
So kann man sich die Funktionsweise von Glaskugeln vorstellen. Sie sagen einem immer die Wahrheit, verleiten einen aber dazu, die falschen Schlüsse zu ziehen. :devil:

Sprungvorhersage und Branch Prediction sind übrigens wunderschöne Worte, will ich mal so anmerken. Gefällt mir super!
Was soll denn das Prefetch mehr bringen?
So wie ich es verstehe ist das über den Treiber aus?
Kepler, der kritisierte Twitter Leaker, sagt dazu auf Nachfrage: Es sind unter 5% bei RDNA2. Durch Erhöhung der Instruktions Cacheline Größe kann es bei RDNA3 aber anders sein. Mit Sicherheit wird man das erst mit Erscheinen von Navi32 (RX 7800 Serie) wissen.

>> 30% Unterschied in etwa hätten wohl derart hart reingeknallt in der Technikwelt, dass AMD wohl doch auf das nächste Stepping gewartet hätte. Die Funktion ist aktiviert. Performancesprünge die noch kommen, beinhalten deshalb nicht die Aktivierung vom Shader Prefetch.
Gab es die schmelzenden Stromstecker nicht nur bei der 4090? Hast Du ein Beispiel für einen
4080 Fall?
Mir ist auch keine Quelle dafür bekannt. @PCGH_Richard empfiehlt den Herstellern, die Sense Verbindungen zu kürzen, so dass die Karte gar nicht mehr anläuft. Spätestens jetzt verliert die Steckerproblematik zumindest für mich gänzlich ihren Schrecken, auch weil Vorsicht und Sorgfalt hier beim PC Bau mit an Bord sind, ganz ohne aufgeregt zu sein oder sonstige Emotionen. Verbessert wurde der Stecker noch nicht...und die Watt, die die 4080 maximal weniger zieht zur 4090, sind wohl weniger ausschlaggebend für einen auf Dauer einwandfreien Betrieb als die vorgewarnten und anhand des Preises sowieso recht nüchternen RTX 4080 Bastler.

Das Folgende ist das, was einem Defekt am nächsten kommt und meines Wissens nach ist das Spaß.
BitWit sagte in seinem RTX 4080 Starter Paket Video:

"Jeder, der diesen Testbericht als dumm oder lächerlich bezeichnet, vergisst dass keine nicht mit dem Strom verbundene Ada Karte jemals geschmolzen ist. Ich selbst habe meinen Karten Spitznamen gegeben zu Ehren der Ada Karten, die schon gebraten wurden. [zeigt auf 4080] Das ist Firestrike [zeigt auf 4090] und das ist Combustor."

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Genau auf den Punkt gebracht:daumen:
Die Mitbewerber kommen in der Zukunft nicht drum rum den selben Weg einzugehen und dann werden die erstmal ähnliche Probleme bekommen.
Einziger Kritikpunkt von mir, der Release erfolgte etwas zu hastig. Könnte noch ruhig paar Monate reifen bevor man es released hätte bzl. Treiber ect. Aber sie waren unter Zugzwang gegenüber nVidia.
440mm² sind es maximal in Zukunft, die TSMC fertigen kann. Bei den "kleineren" Modellen wird es also noch ein Zeit länger gut gehen, monolithisch zu fertigen, statt den Cache auszulagern. Quelle: AdoredTV im Gespräch mit Moore's Law Is Dead. Die Folge heißt "Broken Silicon 183"

Manchmal bin ich ja froh, verheimlichen zu können, ob ich von etwas Ahnung habe oder nicht und einfach mal das Wochenende zu genießen ist auch etwas Feines. Andererseits stößt man ja auch auch Gegenwehr, wenn man alles hinterfragt oder zum Beispiel mit einem "weiß ich nicht" oder Desinteresse reagiert, wenn auch nur vorgespielt. Während einige Leute sich voll entfalten können, ziehen andere ihre Vorteile daraus, zurückhaltender und achtsam zu sein. Wir sind ja auch hier um etwas zu lernen. Sofern das Verhalten in Ordnung geht je nachdem wie sehr man interessiert ist an einem Thema, kommt man beim schreiben wieder auf die für einen wichtigen Dinge zu sprechen:

Ob 10% an Leistung per Treiber herausgeholt werden kann und wann welche Produkte neu auf den Markt kommen. Den Umgang mit der Hardware zu üben, das machen die Spielentwickler selbst. Alles gut, weil die neue Architektur braucht immer etwas mehr Zeit. Und da wird dann AMD tatsächlich besser dastehen. Nur sich darauf zu verlassen, dass Hardware wie guter Wein reift statt wie gute Milch, empfinde ich als Glücksspiel. Wenn es sofort gut läuft, ist es ja umso besser. Die RDNA2 Treiber sind jetzt grundsolide, was man am von TechPowerUp gemessenen Leerlaufverbrauch von 2 Watt für die XFX Radeon RX 6600XT Speedster Merc 308 sieht. Am Power Limit ist auch alles okay, nur V-Sync im Teillastbereich war im Test recht hoch. Ich kann das von hier aus nicht testen, habe nur Turing und Ampere.

Seit 2 Wochen übrigens gibt es 2 GA107 RTX 3050 Karten auf dem Markt, um 15 Watt einzusparen bei Vollgas: 115W statt 130W, nur sie sind etwas teuer.


Während die Twitter Diskussion sehr unterhaltsam ist und JayzTwoCents in seinem neuesten Video erklärt, was es mit den Schwankungen auf sich hat, würde ich gerne Tester sein, weil es lustig ist, mit solchen Reglern herumzuspielen.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Bei diesem "kompakten" Kühlerdesign kann AMD die T Junction Temperatur und die Leistungsaufnahme nicht niedrig genug halten, weshalb der Stabilität bei hohem Takt zuliebe die VRAM Geschwindigkeit zurückgefahren wird und so mehr Spannungsbudget der GPU selbst zur Verfügung steht. Das Power Limit hochzusetzen führt zu keinem Absenken der VRAM Geschwindigkeit, weshalb die Wattzahl an sich entscheidend ist, wie viel sich GPU und VRAM gönnen dürfen. Die Stabilität ist auf diese Weise gut, nur wenn man zu viel will mit zu wenig Watt, bekommt GPU oder VRAM weniger Saft und die Performance geht in den Keller. Es wurde die Vermutung geäußert, dass einige Tester die Karte übertaktet haben und dabei dann weniger Punkte in Benchmarks erzielt haben. Konkret geht es um TimeSpy Extreme (4K Preset), wo Jay erst 10.000 Punkte hatte, aber die Tester Ergebnisse von 12.000 bis 16.000 veröffentlichten. Er machte kein manuelles Undervolting, sondern verwies nur auf die entsprechende Auto Tuning Funktion im Treiber.

Ich finde es sogar spannend, herauszufinden wie man zum gewünschten Ergebnis kommt, wobei Jay sagte, die Lüfter können anders als bei Nvidia nicht auf 100% manuell gestellt werden, sondern sie sind gebunden an den Lastzustand.

"Not An Apple Fan" sagt zu dem Thema: "We will see how much scaling actually happens."

Da wird sich beklagt über die fürchterliche VR Performance der 7900 XTX. Einige Titel laufen auf RDNA2 50FPS schneller. Da muss ich mich noch reinlesen, macht aber im schlimmsten Fall den Vorteil des USB-C Anschlusses zunichte. AMD wurde gebeten, das in Ordnung zu bringen, aber sie tun es nicht, weil sie "C*nts" sind. Was ich wiederum nicht glauben kann, ist wie Verbesserungen durch Treiber sich nie materialisieren und wenn doch, sprechen wir über eine neue Generation von Grafikkarten.

Mich selbst stört das ja gar nicht, weil ich nicht genug Wissen hatte, um zu sagen jo ab zum Shop und kaufen, weil 10x so gut wie Nvidia und intel, weil Einhorn etc...

Ich bin ja nicht einmal unzufrieden mit der kleinen Ampere Karte hier, aber da es ein Schnäppchen war, gelang das Kunststück, trotzdem sein Geld beisammen zu halten für den Fall, dass hier auf einmal Wunder passieren. AdoredTV und Moore's Law Is Dead sprachen darüber über 2 Stunden, dass AMD klar gelogen hat bei der Präsentation.

Für die 2 Jungs ist klar, AMD möchte nicht plötzlich mehr als 50% Marktanteil im GPU Markt haben. Alles muss kontrolliert ablaufen und keine Fehlinvestition sein. Das alles wird mit der Zeit besser, nur einerseits war RDNA3 gut genug für einen Marktstart, es gab viel Cherrypicking bei den Benchmarks und andererseits da noch nicht alles rund läuft, entschied man sich dazu, nicht den Infinity Cache zu verdoppeln mit stapeln ("stacken"); das hebt man sich für später auf.

Während ja viele Spieler mit Schwierigkeiten dieser Art gut zurecht kommen und trotzdem kaufen, muss man das ja nicht gut finden. Falls Nvidia also in der Mittelklasse "liefert" scheint es sich nicht um einen Premiumanspruch wie bei Apple zu handeln (wobei diese ja streng genommen ja viel selbst machen und deshalb teurer sind), sondern bei Nvidia bekommt man tatsächlich einen Mehrwert an Erlebnis für sein Geld. AMD will auch liefern...und dass sie auf Nachfrage antworten, was es mit dem Shader-Prefetch auf sich hat, ist ein Pluspunkt.

Kepler sollte auch zugute gehalten werden, dass er nicht entführt wurde und sich der Diskussion stellt und versucht, Missverständnisse aufzuklären, weshalb ich allen Grund habe, ihm zuzuhören.
 

Anhänge

  • Twitter Kepler + AMD.jpg
    Twitter Kepler + AMD.jpg
    70,7 KB · Aufrufe: 24
  • A0 Stepping.png
    A0 Stepping.png
    75,9 KB · Aufrufe: 21
Zuletzt bearbeitet:
Dass AMD gar nicht versucht schnell an die Spitze zu kommen, da bin ich mir schon länger sicher. Selbst wenn die technischen Möglichkeiten da sind, bringen sie kein Halo-Produkt. Ist aber auch nicht nötig. Es ist eine Aktiengesellschaft und die muss nicht schnell an die Spitze. Ganz im Gegenteil. Die muss theoretisch nur einen Dollar mehr Wert generieren und bleibt erfolgreich. Der Kurs darf einfach nur nicht lange rückläufig sein. Ist man an der Spitze angekommen, gerät man unter Druck. Entweder kann man über seine Position die Preise diktieren um gewinne zu erzielen, oder man muss neue Geschäftsfelder erschließen. Wenn beides nicht geht, geht's abwärts.
 
Richtig ist, wer bei Multimonitor die Bildschirme über 120 HZ betreibt brauch bei Nvidia auch 100 Watt.
Das ist Falsch (zumindest aber nicht 100% richtig.). Ich habe eine 4090 und achte, fast schon penibel, auf den Idle Verbrauch meiner Hardware. Ich gehe auch soweit SATA/USB/etc auf dem Mainboard zu deaktivieren oder LED Gedöns bei GPUs einfach abzuklemmen oder auszuschalten, in der Hoffnung noch ein Watt hier oder da zu sparen.

Jedenfalls sind an meiner 4090 immer zwei Monitore angeschossen. Eigentlich immer im Klon Modus aber ich habe aufgrund Deiner Aussage das mal bei mir getestet. Im Oktober (vor dem 4090 kauf) habe ich eine ähnliche Messung mit meiner 1080TI gemacht und mich schon da bereits vor 35 Watt der 4090 im Idle gefürchtet. Allerdings unbegründet, hier sind die Erlebnisse mit neustem Treiber:

1 Monitor60hz15.701 Watt
1 Monitor144hz17.408 Watt
2 Monitore (klonemodus)60hz17.497 Watt
2 Monitore (klonemodus)144hz20.311 Watt
2 Monitore (erweitert)60hz17.425 Watt
2 Monitore (erweitert)144hz20.775 Watt

Die Werte wurden von HWiNFO64 ausgelesen (nach jeder Umstellung resettet natürlich), mit einem Strommessgerät hab ich das jetzt zwar nicht nochmal überprüft aber wird schon hinkommen. Höher als ~21 Watt bekomme die 4090 nicht auf dem Desktop beim nichts tun. Und ob Klon Modus oder Erweiterter Modus (Multimonitor) machen erstaunlicherweise kaum einen Unterschied. Es sind übrigens ungefähr ~3 Watt mehr als meine 1080TI gezogen hat aber dafür spart die 4090 beim Spielen gegenüber der 1080TI enorm ein.

Also nein, 100 Watt im Idle kann nicht richtig/normal sein. Vielleicht mit drei Monitoren, das habe ich nie probiert und dazu kann ich nichts sagen aber auf keinen Fall bei nur zwei Monitoren. Möglicherweise liegt es daran das die beiden Monitore bei mir baugleich sind, mit zwei unterschiedlichen Modellen oder unterschiedlichen Bildwiederholraten könnte das anders aussehen aber auch dazu kann ich nichts sagen. Eventuell liegt es auch am Modell meiner 4090, eine Strix, Suprim X oder FE könnte sich anders verhalten aber es würde mich wundern wenn da mehr als 80 Watt zwischen liegen.

Mit 100 Watt im Idle wäre meine 4090 jedenfalls gleich Retoure gegangen :stupid:
 
Du must dir mal das Video anschauen. Dann wird dir klar warum EUV so teuer ist.
Welcher Satz in meinem Beitrag suggeriert dir denn das ich das Video dafür schauen müsste? Es gibt Aufsichtspersonen welche die Anwender solcher Laserautomaten (nicht nur solche zur Chipfertigung) von Zeit zu Zeit überprüfen. Rate mal wer dazu gehört.
 
Zuletzt bearbeitet:
@MicroProse
Krass wie viel Aufwand du dir für sowas machst, aber ich find's auch cool irgendwie.
Was für Panel sind das? Bisher kennen wir die Frequenz, aber nicht die Auflösung, Besonderheit wie Syn Funktionen, oder einfach das Modell. Würde mich im Sinne der Vergleichbarkeit alles interessieren.
 
@Cleriker Es ist 2x der Asus ROG PG278QR (2560x1440). Ist wohl ein TN Panel aber ich habe nicht viel Ahnung von Monitoren also kann ich Dir auch nicht sehr viel darüber sagen. Hab Dir die Technische Daten aber oben verlinkt.

Beide sind per DisplayPort angeschlossen und beide (logisch weil Klon Modus) laufen (für gewöhnlich) mit Nativen G-Sync*. Das der Stromverbrauch im Idle vom Panel abhängen kann war mir überhaupt nicht bewusst, werde ich beim nächsten Monitor kauf aber auf jeden Fall mit beachten, hab ja nun einen Vergleichswert. :daumen:

*G-Sync an oder aus (Feste Aktualisierungsrate) ändert am Idle Verbauch übrigens nichts. G-Sync im Fenster Modus schalte ich nur bei Bedarf ein und ist daher normalerweise aus.
 
Zurück