AMD Pirate Islands: Angebliche Spezifikationen zur Radeon R9 390X, R9 380X und R9 370X

Oh man da hab ich seit ein paar Monaten die 280X und da kommen die mit der zweitnächsten Generation an.Ich hätte glaube ich in eine 290 investieren sollen.Oder ich kauf mir eine von den 300ern wenn ich die 280X noch gut verscherbeln kann.Oder ich kauf mir ne zweite 280X.Naja vorher erstmal ein 1440p Bildschirm.
Das ärgert mich alles irgendwie.Das geht ja alles viel zu schnell :P

SCHNELL? :what: Wir haben seit Ende 2011 28nm-Karten, und es wird wohl Ende 2014 oder Anfang 2015, bis 20nm-Chips auf den Markt kommen und wieder richtigen Fortschritt in Sachen Transistoren und damit Leistung pro Chip ermöglichen... schnell ist irgendwie anders.
 
Also ich glaube hier haben manche eine Rote Brille auf!

Wo nach die Leaks der GTX880 als halbwegsglaubwürdig erschienen, da nicht übertrieben und sogar Sachen reduziert wurden... sind die Werte der 390X Einfach nur aus der Luft gegriffen, die schreien ja nur so FAKE!!!

Vergleicht mal die 290X mit der 390X --> einfach die Werte der ROP, ALU, TMU... und x1,5 --> merkt ihr was? dann noch ein übertriebenes Interface...

Das ist einfach die Aktuelle Generation genommen und nach Wunschdenken angepasst! AMD wird auch Optimiert haben und die Architektur etwas unstrukturiert haben... Sicher wird die neue mehr Recheneinheiten haben, aber alles um banal gesagt 50% gesteigert, wird nicht der Fall sein, dafür lege ich schon die Hand ins Feuer.

Würde dieser Leak stimmen, würde es bedeuten, dass AMD rein gar nicht weiter entwickelt hat nur mit dem Hammer und der möglichkeiten einer kleineren Struktur die Recheneinheiten vermehr hat. Ich schätze AMD zu sehr um zu glauben, dass sie so Primitiv handeln würden!
 
Übertriebenes Interface? Hawai hatte doch auch schon 512bit.

arcDaniel schrieb:
Würde dieser Leak stimmen, würde es bedeuten, dass AMD rein gar nicht weiter entwickelt hat nur mit dem Hammer und der möglichkeiten einer kleineren Struktur die Recheneinheiten vermehr hat. Ich schätze AMD zu sehr um zu glauben, dass sie so Primitiv handeln würden!

Das was die Chiphersteller schon seit gefühlt 1000 Jahren tun, extrem primitiv.:lol:
Zudem lassen sich anhand der Specs keine Architekturverbesserungen erkennen.:schief:

Letztendlich ist das auch nur eine bias Aussage von jemanden der 2x GTX 680 SLI im PC hat.
 
Für das Interface habe ich mich in der Tabelle versehen... SORRY

Meine Aussage ist auch nicht gegen AMD, wie schon gesagt ich schätze AMD und würde mir Softwareseitig (PhysX, TXAA) eine bessere Zusammenarbeit der beiden Marken wünschen. Dann würde ich auch vielleicht zu einer AMD Haupt-GPU mit einer Nvidia PhysX Karte wechseln!

Es geht einfach darum, dass zum jetzigen Zeitpunkt weder zu der gtx880 noch zu der 390x zuverlässige Infos existieren, die Leaks verleiten zu hitzigen Diskussionen, allerdings können Werte mehr oder weniger zutreffen. Bei dem gtx880 Leak sind die Werte nun mal um einiges Realistischer als bei der 390x.

Nochmals, damit will ich nicht sagen dass AMD es nicht fertig bringt eine zu 50% stärkere GPU zu entwickeln, nur dass diese mit sehr grosser Wahrscheinlichkeit intern anders strukturiert sein wird, vielleicht auch weitere/grössere Caches, mehr oder weniger ALUs pro Cluster... aber mit sehr grosser Sicherheit nicht der jetzige Stand +50%, so einfach geht dies nun auch nicht.
 
Für mich sind die Werte auch eher unglaubwürdig hoch, schön wäre es allemal aber das ist einfach unrealistisch.

Beim lesen der 80 Beiträge musste ich zeitweise krampfhaft lachen, mit was hier manche argumentieren... :schief:
 
Was die Karten wohl so kosten werden?
Ich denke ja AMD hält sich an sein jetztiges Preissegment und das finde ich auch gut so.
 
Zuletzt bearbeitet:
Für mich sind die Werte auch eher unglaubwürdig hoch, schön wäre es allemal aber das ist einfach unrealistisch.
Milchmädchenrechnung: 20nm statt 28nm Strukturbreite bedeutet nur noch 51% des Flächenbedarfs der gleichen Struktur. Demnach wäre auch ein doppelter Hawaii zu 5632 SPs (ach, wir wollen mal nicht so sein - gleich 6144 ^^) unter 20nm kaum größer, als der aktuelle Hawaii-Chip, der mit 440 mm² noch deutlich unter der Grenze des machbaren liegt (die ist offensichtlicherweise jenseits von 550 mm², wie man an GK110 sieht). Säts teh magic of kleinere Fertigung.
 
Gehen tut vieles...
RV670 -> RV770 (HD3870 / 4870) : 320 -> 800 Shader (+ 150%)
RV770 -> Cypress aka RV870 (HD4870 / 5870) : 800 -> 1600 Shader (+100%)
:D

ok die wette nehme ich an. du hand ins feuer ich ehre, meld mich wieder.

Ich glaube ich drücke mich flasch aus, versuch es anhand eines Beispiels mal zu erklären
ROP + 40%
Shader + 60%
TMU + 50%
...

Also durchaus ich glaube durchaus an +50% aber nicht in der gleichen Aufteilung der verschiedenen Einheiten. Da wird AMD schon daran arbeiten, dass vieles Optimiert wird. Ich könnte mir z.b. Vorstellen, dass es interessant wäre weniger Schader pro Cluster zu haben, dafür aber mehr Cluster, dann könnte man bei nicht Optimalen Chips und einer nötigen Cluster deaktivierung weniger Shadereinheiten verlieren...

Versteht ihr was ich meine?
 
Übertriebenes Interface? Hawai hatte doch auch schon 512bit.

.

Trotzdem schnallt man der Platine nicht mal eben so ein großes SI auf die Brust es sei denn man wird limitiert durch den Speicher. Das frisst Strom ohne Ende und ist zudem noch teuer wie Hund weil ich unnötig viele Layer brauche

Wenn da also wieder so weit aufgebohrt wird ist es absolut konträr zu einem sparsamen Chipdesign erst recht wenn da auch noch so ein Mörder DIE folgen soll
 
Zuletzt bearbeitet:
Ich glaube ich drücke mich flasch aus, versuch es anhand eines Beispiels mal zu erklären
ROP + 40%
Shader + 60%
TMU + 50%
...

Also durchaus ich glaube durchaus an +50% aber nicht in der gleichen Aufteilung der verschiedenen Einheiten. Da wird AMD schon daran arbeiten, dass vieles Optimiert wird. Ich könnte mir z.b. Vorstellen, dass es interessant wäre weniger Schader pro Cluster zu haben, dafür aber mehr Cluster, dann könnte man bei nicht Optimalen Chips und einer nötigen Cluster deaktivierung weniger Shadereinheiten verlieren...

Versteht ihr was ich meine?

Ist natürlich möglich, aber ich vermute mal fast, dass sich am Verhältnis von SPs:TMUs (16:1) nichts ändern wird und die ROPs tendentiell bei 64 bleiben. Die Unterteilung der Rechenwerke in Compute Units (aktuell 64 SPs/CU) und die Zusammenfassung der CUs unter Shader Engines (8 bei Tahiti, 11 bei Hawaii) ist offenbar viel flexibler.
 
Erwartet nicht zu viel, dann könnt ihr nicht enttäuscht werden. Ich gehe von 28nm auf 20nm bei gleicher DIE Grösse von ungefähr +30% Hardwareeinheiten aus.
Was den Stromverbrauch angeht und deren Argumentation ist das ganze eigentlich Sinnfrei. Man muss doch sehr sehr lange etwas am laufen haben damit man den höheren Verbrauch erstmals bemerkt.
Ob 100w Verbrauch oder 300w ist relativ.
Die Daten sind etwas extrem gehalten, würde mich aber nicht wundern wenn es auf ähnliche Werte bei Relase hinauslaufen würde.
 
Wäre das nicht 1 Jahr früh? Sind doch meistens eher 2 Jahre für eine neue Generation eingeplant.


Kann man so Pauschal nicht sagen, zwischen HD 5870 und den ersten HD 6xxx Karten lag ein Jahr, von der HD 6970 zur 7970 dauerte es ebenfalls ein Jahr. Daher ists gut denkbar das gegen Ende des Jahres bereits die nächsten Karten kommen. Der Zyklus der 79er Reihe war etwas länger, weil man nach einem halben Jahr noch als Reaktion auf die GTX 680 die 7970ghz rausgebracht hat.
 
Trotzdem schnallt man der Platine nicht mal eben so ein großes SI auf die Brust es sei denn man wird limitiert durch den Speicher. Das frisst Strom ohne Ende und ist zudem noch teuer wie Hund weil ich unnötig viele Layer brauche

Unsinn, das 512 bit Speicherinterface ist kleiner wie die 384 Bit bei Tahiti.:schief:
Noch frisst ein Interface mit 512 bit Strom ohne Ende, alles idiotische Pauschalfehlaussagen.

Wenn da also wieder so weit aufgebohrt wird ist es absolut konträr zu einem sparsamen Chipdesign erst recht wenn da auch noch so ein Mörder DIE folgen soll

Von welchem "Mörder-Die" redest du überhaupt? 400 mm² Was soll da ein Mörder Die sein?
Nvidia baut die großen Chips nicht AMD.

Und das 512 Bit Interface wird nicht aufgebohrt, sondern einfach höher getaktet.
Nvidia taktet ihren GDDR5 deutlich höher wie AMD, das kostet gar nicht soviel Leistungsaufnahme, wie du hier fabulierst.

Zusammenhanglose Stammtischparolen.

Schraube mal lieber weiter an deinem Projekt, das ist das einzige wo du sachliche und sinvolle Dinge ins Forum schreibst.
 
Zuletzt bearbeitet:
Unsinn, das 512 bit Speicherinterface ist kleiner wie die 384 Bit bei Tahiti.:schief:
Noch frisst ein Interface mit 512 bit Strom ohne Ende, alles idiotische Pauschalfehlaussagen.



Von welchem "Mörder-Die" redest du überhaupt? 400 mm² Was soll da ein Mörder Die sein?
Nvidia baut die großen Chips nicht AMD.

Und das 512 Bit Interface wird nicht aufgebohrt, sondern einfach höher getaktet.
Nvidia taktet ihren GDDR5 deutlich höher wie AMD, das kostet gar nicht soviel Leistungsaufnahme, wie du hier fabulierst.

Zusammenhanglose Stammtischparolen.

Schraube mal lieber weiter an deinem Projekt, das ist das einzige wo du sachliche und sinvolle Dinge ins Forum schreibst.

I lol'd. Und weil's grad so gut passt, an dieser Stelle noch ein herzliches FU! an alle die Phrasen wie:

"rote/grüne Brille aufsetzen / haben"
"blah Spekulatius blah"
"Glaskugel schauen blubb"

verwenden. :-)
 
Zurück