AMDs HD 7000 Serie nur ein Die-Shrink?

mixxed_up

BIOS-Overclocker(in)
Laut der bekannten Gerüchteküche Fudzilla soll auch bei AMDs kommender HD 7000 Serie keine neue Architektur zum Einsatz kommen. Zwar wird es wohl mehr Takt und Shader geben, die zugrundeliegende Architektur bliebe jedoch die selbe. Eine neue Architektur wird wohl kommen, wenn der 28nm Prozess ausgereift ist und gute Yield-Raten bietet.

Quelle: http://fudzilla.com/graphics/item/22373-amds-28nm-graphics-is-only-a-die-shrink
 
Zuletzt bearbeitet:
Da der Startpost zum zweiten Mal editiert wurde, hat dieser Post nur einen Sinn … +1! :D
 
Zuletzt bearbeitet:
ist ja nichts neues die HD69x0 wurde ja in 28nm geplannt, musste aber wegen der fehlenden Fertigung etwas verändert werden und wurde dann in 40nm angepasst.

Somit hat AMD die Baupläne für die HD7900 schon länger in der Schublade, die Frage bleibt ob jetzt die HD6900 nur einen DIe Shrink erfährt oder ob die ursprungliche HD6900 28nm Design genutzt wird!
 
Also ich brauch keine neuen Features (ich brauch eh keine neue Graka, aber egal), wenn die neue Karte schneller ist und weniger Energie verbraucht.
 
Features brauche ich auch nicht mehr. Was soll man da noch rein packen? Die Architektur ist ebenfalls sehr gut. Bestenfalls Tesselation etwas weiter optimieren, fertig. Dafür kann man nach einem Shrink mehr Shader, TMUs und Co rein packen und die Taktraten gegeben falls erhöhen wie auch den Verbrauch weiter senken. Kleine Verbesserungen wird es so oder so mit Sicherheit geben. Gab es bisher immer. die liegen ja nicht auf der faulen Haut. Nur gravierend wird sich nichts ändern. Hatte ich auch nicht erwartet. Ein komplett neues Designe dauert und kostet. Der R600 (2900XT) hat ja mit einigen Änderungen auch ewig überlebt. ;)
 
Ach, Features? Bitte:
-Downsampling
-Flimmerfreies AF
-Verbesserte AA-Unterstützung

Nie wieder AMD:ugly:
 
Downsampling ist eine Softwaresache und kein Hardware Feature :ugly:
Was die Leute immer mit flimmernden AF haben.... bleibt ihr im Spiel stehen und sucht das Flimmern?
Äh, das AA bei ATI ist stellenweise und gerade unter DX10 und 11 besser als bei nVidia. Außer du willst SSAA und Co nutzen, nur ist dann der Leistungseinbruch extrem und lohnt nur für ältere Spiele. Die meist schon ausgelutscht sind.

Im Gegenzug... 2 Monitor Betrieb mit nVidia? :ugly: Meine Stromrechnung muss ich selbst zahlen :P
 
ist ja nichts neues die HD69x0 wurde ja in 28nm geplannt, musste aber wegen der fehlenden Fertigung etwas verändert werden und wurde dann in 40nm angepasst.

Somit hat AMD die Baupläne für die HD7900 schon länger in der Schublade, die Frage bleibt ob jetzt die HD6900 nur einen DIe Shrink erfährt oder ob die ursprungliche HD6900 28nm Design genutzt wird!

Entweder hast du etwas verwechselst oder durcheinander gewürfelt. Northern Island war ursprünglich als 32 nm Design geplant, dieses wurde gecancelt um besser in die Entwicklung von 28 nm investieren zu können. Damit war man gezwungen von 32 nm auf 40 nm zu „ kastrieren“.

Features brauche ich auch nicht mehr. Was soll man da noch rein packen? Die Architektur ist ebenfalls sehr gut. Bestenfalls Tesselation etwas weiter optimieren, fertig. Dafür kann man nach einem Shrink mehr Shader, TMUs und Co rein packen und die Taktraten gegeben falls erhöhen wie auch den Verbrauch weiter senken. Kleine Verbesserungen wird es so oder so mit Sicherheit geben. Gab es bisher immer. die liegen ja nicht auf der faulen Haut. Nur gravierend wird sich nichts ändern. Hatte ich auch nicht erwartet. Ein komplett neues Designe dauert und kostet. Der R600 (2900XT) hat ja mit einigen Änderungen auch ewig überlebt. ;)

Ach, Features? Bitte:
-Downsampling
-Flimmerfreies AF
-Verbesserte AA-Unterstützung

Nie wieder AMD:ugly:

KOF antwortet super.

Offizielles Downsampling wäre cool, flimmerfreies AF und SSAA unter jeder API, von mir aus nur inoffiziell, aber irgendwie so ein Tipp das es auch theoretisch gehen würde, wenn jemand doch versuchen würde....

Keine Ahnung wie Nvidia die DX-Sperre umgehen konnte, aber ich will das AMD das auch irgendwie hinbekommt. Besonders AMD hat es doch so leicht, mit ihrer starker Shader-Architektur sich besser in Pose zu setzten bei SSAA. GPU-Computing ist auch so eine Sache. Mir kommt es so vor, als würde AMD so blöd sein und ihre Stärken total verspielen und „ abchillen“ bis es zu spät ist. Manche Anwendungen schreien praktisch nach Shader-Power und was ist? Es gibt keine gescheiten Dinge für AMD Karten. Läuft natürlich vieles unter Nvidia.

Downsampling ist eine Softwaresache und kein Hardware Feature :ugly:
Was die Leute immer mit flimmernden AF haben.... bleibt ihr im Spiel stehen und sucht das Flimmern?
Äh, das AA bei ATI ist stellenweise und gerade unter DX10 und 11 besser als bei nVidia. Außer du willst SSAA und Co nutzen, nur ist dann der Leistungseinbruch extrem und lohnt nur für ältere Spiele. Die meist schon ausgelutscht sind.

Im Gegenzug... 2 Monitor Betrieb mit nVidia? :ugly: Meine Stromrechnung muss ich selbst zahlen :P

Im stehen sieht man kein Flimmern, nur in der Bewegung und wenn im Hintergrund Alles „ knistert“ geht es mächtig auf'n Sack. Ich sehe das und ich wünsche dir alles gute der Welt, du bist einer der Menschen den es scheinbar nichts ausmacht oder es kaum wahrnehmen. Wäre ich nur auch so, wäre ich kaum gezwungen von AMD auf Nvidia wechseln zu müssen. Habe aber noch eine Radeon am Start.

Welches AA meinst du übrigens?


@ Topic

Es wundert mich das scheinbar so wenig verändert werden soll? AMD hat immerhin gesagt, dass das AF-Flimmern bei der nächsten Generation bearbeitet wird. Also muss AMD, um diese Aussage halten zu können, zwangweise irgendetwas an den TMUs drehen.
Wohlmöglich dreht man noch ein bisschen an den 4D-Shadern oder erhöht sie nur.
Ich stelle mir aber erhöhte 4D-Shader vor, TMUs die mal nicht " schice" sind und verbesserte Tesselation. Ich denke AMD will einfach wieder ein " Rundes Paket" abliefern, wie damals die HD 5870, auch wenn man die Tesselationleistung bemängeln konnte.
 
Zuletzt bearbeitet:
Downsampling wär für mich wahrscheinlich der einzige Grund auf eine stärkere GraKa zu wechseln um damit wunderbares AA auch in Spielen zu erhalten, die leider ohne eben dieses auskommen müssen. Dann kann mir auch eine Schwäche im Filter vollkommen egal sein, denn Downsampling erfasst jedes Pixel :D Also ist Flimmerfreies AF für mich vollkommen irrelevant.
 
Im stehen sieht man kein Flimmern, nur in der Bewegung und wenn im Hintergrund Alles „ knistert“ geht es mächtig auf'n Sack. Ich sehe das und ich wünsche dir alles gute der Welt, du bist einer der Menschen den es scheinbar nichts ausmacht oder es kaum wahrnehmen. Wäre ich nur auch so, wäre ich kaum gezwungen von AMD auf Nvidia wechseln zu müssen. Habe aber noch eine Radeon am Start.

Achtest du beim filmschauen auch aufs rauschen? Wenn ja, dann schaust du die falschen Filme und so kann man das auch auf die Spiele übertragen.
 
@Locuza ja 28nm mit 32nm verwechselt, die Grundaussage ist aber korrekt :D jedenfalls weißt was ich meinte ^^
 
Achtest du beim filmschauen auch aufs rauschen? Wenn ja, dann schaust du die falschen Filme und so kann man das auch auf die Spiele übertragen.

Du meinst also, ich spiele die falschen Spiele?
Das Rauschen bei Filmen nehme ich zwar wahr, aber es stört mich nicht. Störend ist es beim spielen, wo der Effekt für mich deutlicher heraustritt und vorne ruhig ist, aber hinten "rauscht".
Ich achte da ja nicht mit Absicht drauf, bloß es sticht einem ins Auge, wenn man ein Spiel startet. Nach 30 Minuten gewöhnt man sich daran, aber dann gibt es wieder Stellen da merkst du es wieder und hast deinen Fokus darauf.

@Locuza ja 28nm mit 32nm verwechselt, die Grundaussage ist aber korrekt :D jedenfalls weißt was ich meinte ^^

Joa, hat sich aber ein bisschen komisch angehört das man das ursprüngliche Design von 28 nm nimmt, obwohl erst in 2 Jahren 28 nm kommt, seit man das erste mal von der Generation gehört hat :D
 
Denke mal das der Die Skrink wenn dan dazu genutzt werden kann um 1. den Stromverbrauch zu senken und 2. die neue Shader Architektur zu optimieren.
 
Locuza schrieb:
Im stehen sieht man kein Flimmern, nur in der Bewegung und wenn im Hintergrund Alles „ knistert“ geht es mächtig auf'n Sack. Ich sehe das und ich wünsche dir alles gute der Welt, du bist einer der Menschen den es scheinbar nichts ausmacht oder es kaum wahrnehmen.

Bei Nvidia flimmert auch das ganze Bild, stellenweise genausostark wie bei AMD im Mittel aber etwas weniger. Der Unterschied ist in der Praxis so erbärmlich gering.
Oder hast du schonmal nen Vergleich angestellt mit ca 20 Spielen?:ugly: Ich schon. Diese minimal höhere Flimmernanfälligkeit wurde dermaßen gepusht, dass es nicht mehr feierlich ist. Immerhin hat es AMD darauf aufmerksam gemacht, dass ihre eigenen Karten einen Filter-Bug hatten. Und hoffentlich gibts bald wie bei Nvidia besseres AF.

ffizielles Downsampling wäre cool, flimmerfreies AF und SSAA unter jeder API, von mir aus nur inoffiziell, aber irgendwie so ein Tipp das es auch theoretisch gehen würde, wenn jemand doch versuchen würde....
Gibt schon leise Stimmen, die behaupten, AMD würde an Downsampling arbeiten.
Bis heute lief eine Petition, die SGSSAA @ directx10/11 bei Nvidia ohne AA-Bits Frickelei fordert.

Welches AA meinst du übrigens?
Er meint wohl SGSSAA mit mathematisch korrekt berechnetem LOD, was Nvidia nicht bietet und daher das (meiner Meinung nach) schlechtere SGSSAA in directx9 bietet. Es gibt aber ungefähre pauschalwerte.

Mir kommt es so vor, als würde AMD so blöd sein und ihre Stärken total verspielen und „ abchillen“
Nvidia hat auf Cache gesetzt und mehrere Eiheiten die die Karten für Computing besser eignen.
AMD hat den Vorteil dass sie mehr Aufgaben pro Takt Berechnen können. 4-VLIW bzw 5. Lohnt sich aber nur unter bestimmten Bedingungen.
 


Ich will für niemanden sagen das die Bilder total flimmern, er soll es selber ausprobieren.
Ich merke es und habe es bemerkt ,schon bevor es bei den Medien zum Thema kam. Als ich damals kurz eine 6800 eingebaut habe, hab ich gemerkt: Mensch die rauscht ja mehr als meine.

Heute zieht Nvidia davon und ich spüre das weichere sampling auf einer 9800 GTX.

Für die meisten kann es total unsichtbar sein, aber mich stört es. Ich kann ja von mir aus, nicht für andere sprechen. Für dich kann es auch so sein das du es gerade noch so wahrnimmst, ohne das du der Dramatikauch nur bisschen zustimmen könntest, aber andere weinen ihre Augen wund.

Das LOD wird bei AMD ja auch nicht total perfekt berechnet, sondern hat einen guten Kompromiss gefunden. Bei Nvidia muss man eben jedes mal manuell frickeln?


Zu den Caches: AMD hätte schon zum HD-Beginn anfangen können solche Projekte weiter zu unterstützen. War der erste Client nicht für ATI exklusiv? Whärend die heutigen aus einer AMD wenig rauspressen können. Mit der 200-Generation hat Nvidia mehr Caches verbaut und mit dem Fermi noch einmal eine Schippe drauf gelegt. AMD hat es einfach verschlafen.
 
Zuletzt bearbeitet:
Was die Leute immer mit flimmernden AF haben.... bleibt ihr im Spiel stehen und sucht das Flimmern?
Äh, das AA bei ATI ist stellenweise und gerade unter DX10 und 11 besser als bei nVidia.
Das AF flimmert in Bewegung und nicht, wenn man steht! Und ja, ich sehe es, ohne zu suchen - das ist ja das Nervige.

Wo ist bei AMD/Ati das Antialiasing unter DX10/11 besser? Boxed-MSAA ist praktisch identisch, ED-/EQ-AA oder die Tents sind Geschmackssache, ebenso wie CSAA. Wo das AA gerade unter DX10/11 besser sei, müsstest du mir ergo erklären. Unter DX9 dagegen erlaubt AMD per Treiber SGSSAA samt adaptivem LOD-Bias; NV nur inoffziell.

Bei Nvidia flimmert auch das ganze Bild, stellenweise genausostark wie bei AMD im Mittel aber etwas weniger. Der Unterschied ist in der Praxis so erbärmlich gering.
Erbärmliches Argument :P Denn das von dir angesprochene Flimmern von Alpha-Tests, Shadern, Geometrie etc. hat mit dem AF nichts zu tun. Nur das Flimmern von gefilterten Texturen ... und ob hier der Unterschied "so erbärmlich gering" ist, bezweifle ich. Denn AMD wird seit Jahren dafür kritisiert und hat Bugs eingestanden (Banding) und an der Qualität (HQ/Q) geschraubt und BQ-Enthusiasten greifen seit der GF8 zu einer Geforce. Wenngleich eine Radeon mit ED-CFAA wie gehabt die beste Geometrie-Glättung und unter DX9 mit SGSSAA samt adaptivem LOD-Bias out-of-box die beste BQ bietet.
 
Wie du sagst, Geschmackssache..... generell wirkt AA in meinen Augen bei ATI ausgeglichener und besser. Mal abgesehen davon das mir die Frikelei und der starke Performanceeinbruch mit den tollen diversen AA Modis schlichtweg zu blöd ist. AF... kann man sich streiten, ich bin da nicht so empfindlich.
Alles in allem... sehe ich bei nVidia qualitativ keinen echten Vorteil. Das ist eher die krampfhafte Suche nach Argumenten. Ähnliches glt für das tolle CUDA. Überall wird davon geredet, aber echten praktischen Nutzen hat man nicht wirklich. Videorendering über CUDA? Alles was da bisher gibt ist Qualitativ eher bescheiden. Und bei Programmen die man im Alltag brauchen könnte, wird es nicht genutzt (z.B. Photoshop wo ATI sogar mehr und schneller Beschleunigt als das per Treiber ausgebremste nVidia. Mal abgesehen davon das es im Grunde nicht mal eine Handvoll Filter betrifft).

Mir sind insgesamt andere Dinge wichtig, allen voran die Leistungsaufnahme im Zweischirm Betrieb (ohne zweiten Monitor könnte ich nicht leben :ugly:). Und da geht derzeit kaum ein Weg an ATI vorbei. Gerade bei den stärkeren Karten. aber selbst da hat ATI noch Nachholbedarf.
 
hatte zwar gehofft, dass AMD mit der 7xxx Reihe die Einheiten abseits der Shader stark überarbeitet, aber ein Die-Shrink ist besser als nichts :daumen:
wenn die Karten dann auch noch im Q3 auf den Markt kommen, dann ist eine der Reihe so gut, wie gekauft, da AMD für meine Ansprüche die besseren Argumente hat ;)
Bei mir zählen P/L und Stromverbrauch mehr als des letzte Quäntchen BQ, wobei ich mich glücklich schätzen kann das flimmern, über das sich einige aufregen, nicht wirklich wahrzunehmen :ugly:
 
Du meinst also, ich spiele die falschen Spiele?

Oh man, geht das heute nicht mehr, dass man einfach mal zwischen den Zeilen liest?
Wenn man auf sowas achtet, dann ist der Film/Spiel nicht gut genug von dem gebotenen (nicht Grafik) Inhalt, dass man das bemerkt.

Das Rauschen bei Filmen nehme ich zwar wahr, aber es stört mich nicht. Störend ist es beim spielen, wo der Effekt für mich deutlicher heraustritt und vorne ruhig ist, aber hinten "rauscht".
Ich achte da ja nicht mit Absicht drauf, bloß es sticht einem ins Auge, wenn man ein Spiel startet. Nach 30 Minuten gewöhnt man sich daran, aber dann gibt es wieder Stellen da merkst du es wieder und hast deinen Fokus darauf.

Man kanns mit dem genörgle aber auch übertreiben und das musste ich nun schon viel zu oft lesen. Das schlimme ist, dass die meisten das erst dann mitbekommen, wenn es an die große Glocke gehangen wird.

BTT:
Ein shrink ist dennoch mit einem gewissen redesign verbunden. Man kann ja nicht 1:1 die Masken verkleinern.
 
Zurück