AMD Pirate Islands: Angebliche Spezifikationen zur Radeon R9 390X, R9 380X und R9 370X

Uh :sabber: Die Daten lesen sich gut :)

Warum Geld für eine Heizplatte ausgeben, wenn man auch eine GTX 870 haben kann? Dazu kommt nächstes Jahr noch DirectX12 raus und dann hat sich auch das Thema Mantle erledigt.
Hast du dir auch mal angeschaut, das der aktuelle AMD-Chip bei Hawaii kleiner ist als der CHip des GK110? Das macht auch schon einen Unterschied bei der Hitze und noch viele andere Aspekte. Man kann doch nicht Äpfel mit Birnen vergleichen :nene:
 
Vor allem weil du jetzt schon weißt wie warm der Chip wird :klatsch: bin aber mal gespannt was sich dann in der nächsten Generation so alles tut :)
Naja, der Unterschied zwischen den letzten Kepler (NVIDIA)- und den Hawai (AMD)-Modellen war ja schon ziemlich extrem (R9 290 ca. 40-50 Watt höherer Verbrauch bei gleicher Leistung). Wenn man
sich jetzt nochmal den Riesenschritt von Kepler auf Maxwell bei der GTX 750 Ti (ca. 30 Prozent weniger TDP bei selber Performance) ansieht habe ich an meiner Aussage keine Zweifel.

P.S.: Es kommt nicht darauf an wie warm der Chip wird, sondern wieviel Abwärme er liefert. Selbst wenn die Hawai-Chips auf 50 Grad runtergekühlt werden würden wären sie immer noch Heizplatten, weil die enorme Leistungsaufnahme sich ja nicht in Luft (sondern in Abwärme) auflöst.
 
Die R9 290x sollte auch mit über 4k stream prozessoren releast werden

Wo sind die hin? Wegen der temps verraucht?
 
Naja, der Unterschied zwischen den letzten Kepler (NVIDIA)- und den Hawai (AMD)-Modellen war ja schon ziemlich extrem (R9 290 ca. 40-50 Watt höherer Verbrauch bei gleicher Leistung). Wenn man
sich jetzt nochmal den Riesenschritt von Kepler auf Maxwell bei der GTX 750 Ti (ca. 30 Prozent weniger TDP bei selber Performance) ansieht habe ich an meiner Aussage keine Zweifel.

P.S.: Es kommt nicht darauf an wie warm der Chip wird, sondern wieviel Abwärme er liefert.
Ah ja, weil es in der Akutellen Generation bei gleicher Rechenleistung einen Unterschied von 30W gibt, wird der sich selbstverständlich bei der nächsten Generation auf 60W verdoppeln. :wall:
Ist ja nVidia, seit der 600er Serie können die doch nur effizient und ausserdem sind sie ja eh prinzipiell besser als AMD. (aus: "Illusion des grünen Fanboys")

Wo wären wir, wenn wir bei der GTX400 auch schon davon ausgegangen wären?
AMDs akutelle Karten würden beim Spielen vermutlich sogar noch strom produzieren. Hey, du hast das Energieproblem gelöst. :schief:


EDIT:
Wo wir gerade bei nvidias ach so überlegenen Architektur sind:
AMD hat zurzeit die effizienteste und schnellste Profikarte. Und das sind die gleichen Chips wie auf dem Desktop.
Auf dem Profimarkt wird idr der unbeschnittene Chip verkauft. Mal scharf überlegen, wieso ist nVidias gamer Verschnitt der Profikarte plötzlich sparsamer geworden?
Dazu ist die Die Size bei AMDs High-End Chip kleiner. Die Architektur ist also auch in dieser Hinsicht besser. Günstiger zu produzieren ist er auch noch.
Aber hey, es lebe die grüne Brille. :fresse:
 
Zuletzt bearbeitet:
Ah ja, weil es in der Akutellen Generation bei gleicher Rechenleistung einen Unterschied von 30W gibt, wird der sich selbstverständlich bei der nächsten Generation auf 60W verdoppeln. :wall:
Ist ja nVidia, seit der 600er Serie können die doch nur effizient und ausserdem sind sie ja eh prinzipiell besser als AMD. (der Traum des grünen Fanboys)

Wo wären wir, wenn wir bei der GTX400 auch schon davon ausgegangen wären?
AMDs akutelle Karten würden beim Spielen vermutlich sogar noch strom produzieren. Hey, du hast das Energieproblem gelöst. :schief:

Das wäre was
Graka mit eigenem strom agregat xD
 
4K Gaming kommt in greifbare Nähe^^

1080p Gaming @konstant 60 FPS @ Ultra Details in sämtlichen Games zum absoluten Spottpreis kommt in greifbare nähe. Nein, ernsthaft. Mir solls recht sein, wenn in Zukunft alles auf 4K hinarbeitet. 1080p reicht mir zum Zocken vollkommen aus. IMHO kommt 4K erst richtig zur Geltung, wenn es um das lesen von Texten geht, GUI usw. aber nicht bei Bildern/Videos/Games mit entsprechendem Sitzabstand.... Bei schrift geht man ja gerne mal näher ran, aber wenn ich in Games den gesamten Monitor überblicke ist der Unterschied zu 4K minimal.
 
1080p Gaming @konstant 60 FPS @ Ultra Details in sämtlichen Games zum absoluten Spottpreis kommt in greifbare nähe. Nein, ernsthaft. Mir solls recht sein, wenn in Zukunft alles auf 4K hinarbeitet. 1080p reicht mir zum Zocken vollkommen aus. IMHO kommt 4K erst richtig zur Geltung, wenn es um das lesen von Texten geht, GUI usw. aber nicht bei Bildern/Videos/Games mit entsprechendem Sitzabstand.... Bei schrift geht man ja gerne mal näher ran, aber wenn ich in Games den gesamten Monitor überblicke ist der Unterschied zu 4K minimal.

Meist hat man kaum zeit die grafik zu bewundern und man konzentriert sich eher auf den gameplay
 
Wollen wir mal hoffen, dass die Leistungsaufnahme diesmal nicht noch höher wird. 250W von Hawaii sind schon ziemlich grenzwertig für meinen Geschmack .
 
Ah ja, weil es in der Akutellen Generation bei gleicher Rechenleistung einen Unterschied von 30W gibt, wird der sich selbstverständlich bei der nächsten Generation auf 60W verdoppeln. :wall:
Ist ja nVidia, seit der 600er Serie können die doch nur effizient und ausserdem sind sie ja eh prinzipiell besser als AMD. (aus: "Illusion des grünen Fanboys")

Wo wären wir, wenn wir bei der GTX400 auch schon davon ausgegangen wären?
AMDs akutelle Karten würden beim Spielen vermutlich sogar noch strom produzieren. Hey, du hast das Energieproblem gelöst. :schief:
Wo schreib ich denn etwas von 60W und verdoppelt? Technologisch gesehen sind Intel und NVIDIA state-of-the-art. AMD hält im Moment leistungsmäßig nur über erhöhte Leistungsaufnahme mit. Von der Architektur und den Treibern ist NVIDIA objektiv gesehen besser. NVIDIA investiert im Moment auch mehr Geld in die Forschung. Ich find die R9 aber nicht so schlecht. Für Leute, die weníg spielen lohnen sie sich, da sich der erhöhte Stromverbrauch auf Grund des geringeren Anschaffungspreises noch nicht negativ auswirkt. Im Übrigen hab ich früher nur AMD 'CPUs und GPUs verwendet, war also AMD Fan. Musste dann aber einfach die deutliche Überlegenheit von Intel und NVIDIA im mid to high Bereich erkennen.
 
!"Freu Freu"! neue AMD Karten, die R9 380X wird was wie die 280X heute :) wollen wir hoffen das AMD das hält, "wir werden nie wie unsere Konkurrenz eine Single GPU auf 1000€ bringen" aber 4224shader sind echt viel oO uglylaugh.gif
 
Nvidias Architektur ist nicht "besser", sondern anders. GCN verbraucht bei Single Precision-Anwendungen (wie zb bei Spielen) ca 10-20% mehr für die gleiche Leistung, dafür ist die Double Precision-Leistung und auch Effizienz deutlich überlegen - weder Nvidia noch Intel haben aktuell Chips die hier mithalten können. Übrigens ähnelt die Maxwell-Architektur GCN stärker, als Kepler es tat... so verkehrt ist AMDs Architektur eindeutig nicht.
 
Technologisch gesehen sind Intel und NVIDIA state-of-the-art. AMD hält im Moment leistungsmäßig nur über erhöhte Leistungsaufnahme mit. Von der Architektur und den Treibern ist NVIDIA objektiv gesehen besser. NVIDIA investiert im Moment auch mehr Geld in die Forschung. Ich find die R9 aber nicht so schlecht. Für Leute, die weníg spielen lohnen sie sich, da sich der erhöhte Stromverbrauch auf Grund des geringeren Anschaffungspreises noch nicht negativ auswirkt. Im Übrigen hab ich früher nur AMD 'CPUs und GPUs verwendet, war also AMD Fan. Musste dann aber einfach die deutliche Überlegenheit von Intel und NVIDIA im mid to high Bereich erkennen.

Ok, bei CPUs ist intel amd im High-end deutlich überlegen was die Leistung pro MHz usw angeht.. Aber dass nvidia gpus viel besser sind als die von amd halte ich für ein Gerücht.. Ok, bei der spiele Performance brauchen die amd's alle bisschen mehr Watt um das gleiche zu erreichen, allerdings kann man auch eine WAKÜ haben wenn man sich für <500€ eine GRAKA kauft, und da spielt es dann nicht mehr so die rolle.. In vielen anderen Berechen ist AMD aber mit seinen gpus deutlich vorne bei der Leistung pro Watt, sodass man nicht sagen kann dass eine Karte wirklich besser ist!
Und ist es nicht so dass sich die Architektur von Maxwell der GNC annähert? Das würde doch für amd sprechen..
Und wo halten amd Grafikkarten denn nicht mit denen von nvidia schritt? Nvidia hat halt eine 3000€ desktop Karte, welche aber vollkommen überteuert ist und für einen normalen gamer nicht zu gebrauchen (P-L) ist!! Die doppelte R9 290X stellt da für über Tausend das deutlich sinnvollere Stück hardware da!
Und seit wann spielt der Stromverbrauch eine Rolle (aus finanzieller sicht)?? Da müsste man schon sehr lange zocken um so die Preisdifferenz wieder wett zu machen :D
 
Hui, zum erhofften WQHD Monitor dann wieder ein AMD Geschoss? Die Werte lesen sich zumindest deutlich flotter als die für NV diskutierten. Ob man überhaupt irgendetwas davon glauben kann sei mal dahingestellt ^^

Käffchen trinken und abwarten ;) :kaffee:
 
Nvidias Architektur ist nicht "besser", sondern anders.
Hast du nicht gelesen? :what: OBJEKTIV besser!! :D

Die Specs der 390x wären ja abartig. Würde mich interessieren, wie man das ganze auf einen Chip quetschen will. AMD ist zwar wieder mehr in die Breite gegangen, aber das scheint mir doch ziemlich unrealistisch.

Dann noch der Takt und das 512-SI... Das Ding müsste Strom schlucken bis zum geht-nicht-mehr.
 
Die Specs der 390x wären ja abartig. Würde mich interessieren, wie man das ganze auf einen Chip quetschen will. AMD ist zwar wieder mehr in die Breite gegangen, aber das scheint mir doch ziemlich unrealistisch.

Dann noch der Takt und das 512-SI... Das Ding müsste Strom schlucken bis zum geht-nicht-mehr.

Unter 20nm leicht möglich (nicht zu Beginn wenn die yields noch grottig sind, aber später). Unter 28nm niemals.
 
Wo schreib ich denn etwas von 60W und verdoppelt? Technologisch gesehen sind Intel und NVIDIA state-of-the-art. AMD hält im Moment leistungsmäßig nur über erhöhte Leistungsaufnahme mit. Von der Architektur und den Treibern ist NVIDIA objektiv gesehen besser.
Das ist, wenn es um Grafikchips geht, falsch. AMD High End Grafikkarten sind kostenoptimiert, d.h. die Hawai Chips sind kleiner als der GK110. Man kompensiert diesen Transistornachteil durch eine etwas höhere Leistungsaufnahme. Der Kunde erhält dafür aber auch eine günstigere Grafikkarte.

Im Midrange Bereich (bis 200 Euro) ist AMD sowohl was die Chipgröße als auch den Stromverbrauch angeht konkurrenzlos gut aufgestellt. Nvidia wildert hier erst seit kurzem mit der 750Ti.

NVIDIA investiert im Moment auch mehr Geld in die Forschung. Ich find die R9 aber nicht so schlecht. Für Leute, die weníg spielen lohnen sie sich, da sich der erhöhte Stromverbrauch auf Grund des geringeren Anschaffungspreises noch nicht negativ auswirkt.
Das von AMD angestrebte gute Performance/Chip-Fläche Verhältnis ist Unternehmenspolitik und keine technische Unterlegenheit.

Dass Nvidia mehr Geld für sinnvolle Features ausgeben würde, klingt gerade jetzt wo Mantle den DX12 Stein ins Rollen gebracht hat, wie eine Farce. Nvidia haben wir nur proprietären Müll zu verdanken, der dem PC Gaming insgesamt überhaupt nichts gebracht hat.
 
Zurück