soulstyle
Volt-Modder(in)
Und ich habe mich gefragt wo das Fensterglas herkommtWas sollte sie sonst machen?
Effizienz ist doch ein Fremdwort geworden, nur Leistung zählt, bis das Silizium schmilzt.
Und ich habe mich gefragt wo das Fensterglas herkommtWas sollte sie sonst machen?
Effizienz ist doch ein Fremdwort geworden, nur Leistung zählt, bis das Silizium schmilzt.
zu RDNA kennen wir im Wesentlichen nur zwei Gerüchte. RDA soll 50% effizienter pro Watt sein als RDNA2 und die größte Karte hat 375W.
Eine 6900XT hat 300W TDP, die 7900XT hätte die Leistung wie eine 6900XT mit 562W, wenn diese denn linear skalieren würde. Laut PCGH Leistungsindex wäre das knapp oberhalb der 4090. Dazu gesellen sich Frage wie, "wie schlecht ist Raytracing diesmal" und hat auch AMD was in der Pipeline in Sachen Frame Generation.
Was ich nicht erwarte ist, dass AMD die Karte für 1000€ auf den Markt wirft. Wenn uns Ryzen eines gelehrt hat, dann dass AMD vielleicht das beste Produkt machen will und kann, aber dann auch die Hand am größten aufhält, wenn es um Leistung pro Euro geht.
es wird nix mit AMD, Nvidia is alleiniger Grafikkönig. Ich wünschte ich hätte nie meine 6600 XT gekauft. Ich wette meine seltsamen Glitches wären bei Nvidia nie der Fall gewesen. Noch dazu damals im Jänner um 650€
Du hattest also vor ner gefühlten Ewigkeit ein Problem mit ner ATI GPU und kauft seitem nur noch Nvidia. Was machst du wenn das bei Nvidia auch mal passiert? Nie wieder PC Gaming? Oder Intel ARC?Ich habe in meinem Leben genau eine ( damals noch ) ATI Graka gekauft ; die HD5850 und hatte ebenfalls in diversen Games Probleme. Anisotroper Filter funktionierte manchmal gar nicht und erst beim Erscheinen der Nachfolgegeneration hat ATI die Problematik offiziell zugegeben, dass es sich dabei um ein Bug handelt.
HD 5000er Serie war eher eine bessere DX10 Karte als DX11 weil dafür viel zu lahm. Seit dem kann mich ATI / AMD mal gerne haben. Mit nvidia bin ich immer sehr zufrieden gewesen. Abgesehen von der VRAM-Geiz-Problematik.
Ich verstehe die 562 Watt nicht ^^
War das vor 20 oder vor 30 Jahren?Ich habe in meinem Leben genau eine ( damals noch ) ATI Graka gekauft ; die HD5850 und hatte ebenfalls in diversen Games Probleme. Anisotroper Filter funktionierte manchmal gar nicht und erst beim Erscheinen der Nachfolgegeneration hat ATI die Problematik offiziell zugegeben, dass es sich dabei um ein Bug handelt.
HD 5000er Serie war eher eine bessere DX10 Karte als DX11 weil dafür viel zu lahm. Seit dem kann mich ATI / AMD mal gerne haben. Mit nvidia bin ich immer sehr zufrieden gewesen. Abgesehen von der VRAM-Geiz-Problematik.
Glaube ich fast nicht, ich denke und befürchte, dass man jetzt nicht mehr viel "optimieren" kann. Ebenso wie NV bei den 4080 Karten, werden die Radeons schon fertig sein und in der Produktion liegen. Alles andere würde mich 14 Tage vor dem bisher angekündigten Launch doch sehr schwer wundern.Da kann man nur hoffen, dass Optimieren nicht bedeutet, auf Teufel komm raus hochzutakten, scheiß auf Effizienz, nur um mit Nvidia im High-End mithalten zu wollen.
Davon gehe ich aus, zumindest im reinen Rasterizing!Ich hoffe echt das AMD wenigstens ansatzweise mit der 4090 mithalten kann
das würde ich nicht hoffen! AMD wird den Preis ziemlich covern, mit dem üblichen AMD Abschlag von 10-15%.und mehr als "deutlich" geringer im Preis ist.
Wieso?Die 4090 werden sie eh nicht schlagen von der Leistung her.
AMD hat doch zuletzt noch mit hoher Effizienz geworben. Mal schauen was davon übrig bleibt, nachdem die rtx4090 doch Recht effizient geworden ist.Was sollte sie sonst machen?
Effizienz ist doch ein Fremdwort geworden, nur Leistung zählt, bis das Silizium schmilzt.
Die 6900XT ist RDNA2 und hat 300W
Die 7900XT hat vermutlich 375W und ist RDNA3
RDNA3 holt aus einem Watt aber 50% mehr Leistung als RDNA2.
???Ja sagt dir wo die RX 7900XT landen wird knapp über einer RTX 4080 16GB
Naja, selbst bei 150% der 6900XT wird man weit vor der 4080 16GB liegen! 150% der 6900XT entsprechen einem Rückstand von 25%! Die 4080 16GB wird aber eher in Richtung 40% dahinter liegen!Weil die 7900XT nicht linear Skalieren
???
Die 4090 hat 187% der 6900XT (in 4K, dadrunter sind es teilweise unter 50%)
100% Ausgangsbasis 6900XT, würde bei einer 7900XT mit 300W = 150% entsprechen, jetzt multiplizieren wir noch 125% Leistungsaufnahme und landen völlig überaschend bei 187,50% und damit exakt bei der 4090 und damit weit jenseits der 4080 16GB!
Naja, selbst bei 150% der 6900XT wird man weit vor der 4080 16GB liegen! 150% der 6900XT entsprechen einem Rückstand von 25%! Die 4080 16GB wird aber eher in Richtung 40% dahinter liegen!
Wieso?
Die 4090 liegt 87% vor einer 6900XT! Klingt wahnsinnig viel, wenn man aber bedenkt, dass RDNA3 die Shaderzahl mit dem Faktor 2,4 versieht, würde man bei identischem Takt bei 240% der Leistung liegen!
Wenn man es extrem sieht (was ich nicht tue, ich gehe im Rasterizing von einem "Patt" aus, so wie es auch schon in der aktuellen Generation ziemlich der Fall war, also plus minus 10% für den einen oder den anderen), müsste man sagen, dass AMD mit seiner Ankündigung 50% mehr Effizienz zu liefern, bei 50% mehr Leistungsaufnahme würde in Summe auf 225% der Leistung hindeuten und das widerum passt sogar zur Anzahl der Shader! Andersherum gerechnet würde gar auch ein Schuh draus werden:
100% = 300W; davon 70W Periperhier und 230W der Chip; Peripherie bleibt gleich, Chipvolumen steigt um 140%, also 552W! Davon kann man ca. 15% abziehen da der Wechsel von 7 auf 5nm erfolgt ist, also 470W die übrig bleiben. Würde für mich bedeuten bei 470W der Chip und 540W die Karte würde man bei 240% der Leistung landen. Da man aber insgesamt wohl nur 450W nehmen darf, wird man den Takt senken müssen, 24% (90W von 470W) rein rechnerisch (ohne Berücksichtigung, dass man sich dem Sweetspot ja nähern würde und oftmals bei 70% der Leistungsaufnahme immer noch 90% Leistung bietet! 24% Taktsenkung / Leistungsaufnahme senken, kommt man ausgehend von 240% bei 183% der Rasterizingleistung raus! Überaschung, Patt mit der 4090
Also ich habe meine 6600xt am 1. Tag für 379 gekauft und nie Glitches, komisches wird nix mit AMD, Nvidia is alleiniger Grafikkönig. Ich wünschte ich hätte nie meine 6600 XT gekauft. Ich wette meine seltsamen Glitches wären bei Nvidia nie der Fall gewesen. Noch dazu damals im Jänner um 650€
Die ewig gestrigen. Das sind alles Vorurteile von anno dazumal... DX 10 liegt jetzt wie lang zurück? 12 Jahre, 13 Jahre?Ich habe in meinem Leben genau eine ( damals noch ) ATI Graka gekauft ; die HD5850 und hatte ebenfalls in diversen Games Probleme. Anisotroper Filter funktionierte manchmal gar nicht und erst beim Erscheinen der Nachfolgegeneration hat ATI die Problematik offiziell zugegeben, dass es sich dabei um ein Bug handelt.
HD 5000er Serie war eher eine bessere DX10 Karte als DX11 weil dafür viel zu lahm. Seit dem kann mich ATI / AMD mal gerne haben. Mit nvidia bin ich immer sehr zufrieden gewesen. Abgesehen von der VRAM-Geiz-Problematik.