Angebliche Vorab-Benchmarks: R9 390X 65 % schneller als R9 290X?

Nächstes Jahr wird dann teuer, werde mir dann je nachdem wie die neuen Karten performen, gleich 2 Maxwell Full + Gsync oder Freesync Monitor kaufen, aber wie gesagt, so wirklich glauben tue ich nicht daran das die AMDs so schnell werden. Wünschenswert wäre es aber allemal, nVidia braucht mal wieder nen Stock zwischen die Beine.
 
War ja wieder klar, dass viele wegen dem Stromverbrauch meckern. Vor allem sind die 30€ Stromkosten im Jahr ein KO Kriterium, da sonst die 500€ Karte meinen Geldbeutel zerreist.:rollen:
 
Wenn Ihr dann Alle die 970/290-er in die Bucht schmeißt,bin ich auch wieder ein paar Jahre versorgt!
Danke schon mal!
Gruß Yojinbo
 
Also das is kein blödsin das es wärmer wird wen ich zocke grade in Winter wen Fenster zu sind und ich 8 Stunden zocke beschlagen sogar die Fenster und es is sau warm sicher 5-7 grad wärmer dan schaltet PC aus und nach 1ner Stunde merkst das es kalt wird bei den Zehen wo sollte den die hitze hin verschwinden wen die Fenster zu sind
 
Also das is kein blödsin das es wärmer wird wen ich zocke grade in Winter wen Fenster zu sind und ich 8 Stunden zocke beschlagen sogar die Fenster und es is sau warm sicher 5-7 grad wärmer dan schaltet PC aus und nach 1ner Stunde merkst das es kalt wird bei den Zehen wo sollte den die hitze hin verschwinden wen die Fenster zu sind

schreibst du mit Handy ? Oder muss ich via Wimmelbild die Satzzeichen suchen ? :ugly:
In welcher Kammer zockst du denn , dass die Fenster beschlagen ? :D
Im Sommer merke ich schon, wenn mein Rechner Wärme abgibt, aber im Winter bleibt es eisig kalt, egal wie lange ich zocke.
 
Sobald ich erfahre das r9 380/390x kommt werde ich sofort meine GTX 980 verkaufen und eine r9 vor bestellen bevor die 980 komplett entwertet wird so muss ich wahrscheinlich um die 100-150 Euro draufzahlen und habe so eine bessere Architektur wahrscheinlich mehr vram und mehr zunkunftssicherheit ,und das für wenig Geld weil wen man wartet und in 2 Jahren um steigt is die 980er nix mehr wert und man muss viele 100 Euro zahlen für was neuesneues

PS. Ja ich schreibe mit nem 3.5 Zoll Handy und mit meinen wurstfingerwurstfinger tut man sich sehr schwer bein schreiben :)
 
Laggy.NET; schrieb:
Die Effizienz ist mir auch wurst. Wichtig ist, dass die Verlustleistung in annehbaren Regionen bleibt und nicht immer weiter erhöht wird. Und das wird bei diesen Karten nicht der Fall sein. Sowohl bei AMD als auch bei nVidia.

Ich will aus meinem PC keinen Scheppernden Traktor machen. So zeug kommt mir nicht mehr in den Rechner. Schon meine HD 7950 war diesbezüglich ein großer Fehlgriff, den ich nicht nochmal machen werde. Schon die R9 290er Karten waren weit abseits meines Interessen Bereiches. Was da im HighEnd segemnt stattfindet ist nichts anderes, als auf biegen und brechen den Längeren Balken in Benchmarks zu erreichen. Scheiß auf Verlustleistung und gutes, leises Gesamptaket. Marketing = Alles.
76.gif

Interessante Ansichten mit einem mehrfachem inhaltlichen Widerspruch und Draufhaumentalität.
Dann waren ja sämtliche GTX 780/780 Ti Karten völlig fern deines Interessenbereichs.

Die Effizenz hat mal absolut ÜBERHAUPT nichts mit der Verlustleistung zu tun. Das sind zwei völlig unabhägige Dinge.

Mit gesiterigerter Effizienz kann man bei GLEICHER Velustleistung mehr Rechenleistung erzielen.
Zwagsweise wird bei den großen Karten aber beides gesteigert, was meiner Meinung nach alles andere als Positiv ist.

Ich finde das positiv, wenn AMD beispielsweise auf eine hybridkühlung setzt und somit mehr Performance ermöglichen kann.
Zudem ist das Konzept bei guter Umsetzung auch deutlich leiser wie sämtliche Luftkühler von Performancekarten.

Und die Effizienz hat sehr wohl etwas mit der Verlustleistung zu tun.
Ich würde mir jederzeit eine Single GPU mit 500 Watt und Wasserkühlung einbauen, wenn die Karte auch demenstprechend schnell wäre.

Wenn (laute) 250-300 Watt GPUs quasi vorraussetzung für maximale Details werden, dann hat man wieder den salat und eben KEINE wahl, ob mans gerne Leiser und Kühler möchte

Diejenigen die einen 4K Monitor nutzen, werden da nicht drumrumkommen.
Selbst eine GTX 980 würde keine Mehrleistung in 4K gegenüber meiner r9 290x 8GB bringen, obwohl das eine neue Generation mit recht großem Chip ist und die 290x 8GB 160 Euro günstiger war.
Wenn die Leistung stimmt, kann man gerne auch 300 Watt TDP Karten bringen, wahlweise mit guter Lukü oder Wakü.

Rollora schrieb:
weniger hitze im Raum
weniger hitze im Gehäuse
geringere Stromkosten
okay.
zwinker4.gif

geringere Umweltverschmutzung
längere Lebensdauer
geringere Herstellungskosten
größerer Spielraum bei Übertaktung
Spielraum beim Hersteller (kann noch größere Chips bringen bei Bedarf)

usw usf.

Die rotgefärbten kann ich ehrlichgesagt nicht nachvollziehen.
Vergessen hast du noch den Hunger in der Welt, welcher durch effizientere GPU´s bekämpft wird.
rolleyes4.gif


Fraglich ist auch das Argument mit mehr Hitze im Raum. Nehmen wir beispielsweise ne Karte die 50 Watt mehr im Schnitt verbrät.
Dadurch erwärmt sich der Raum, wenn es nicht die Besenkammer ist sogut wie nicht.

Die 30-50 Euro Mehrkosten im Jahr die man wegen 50-100 Watt mehr hat kann man sowieso leicht verkraften, mir ist in erster Linie die Leistung wichtig.

Ich weiß nicht wie lange du spielst, aber um 30 bis 50 Euro Mehrkosten zu produzieren, kann man bei etwa 70 Watt Differenz eigentlich fast schon Dauerzocker sein.
Ich komme aufs Jahr gerechnet bei meiner Spielzeit ( etwa 5h pro Woche ), meistens halt am Wochenende, auf etwa 5 bis 6 Euro im Jahr.

Ich kann nicht glauben dass es jemand schafft am Tag mehr als 2 bis 3 Stunden übers Jahr gesehen, seine GPU unter Last zu setzen, das hab ich selbst in meiner Schulzeit nicht gepackt.
 
Zuletzt bearbeitet:
Das klingt echt gut. Vorallem freut mich dass Global Foundaries endlich mal mit TMSC konkurrieren kann. Hoffentlich kommt die r9 390x mit HBM.
 
Also wenn die 380(x) nur ne TDP von <200Watt hat und wahrscheinlich auch schon schneller als die GTX 970 bzw 980 ist bin ich voll zufrieden. Die TDP von Bermuda geht voll in Ordnung wenn man bedenkt das der Chip fast so schnell ist wie ein Dual GPU System, ist das noch Sparsam und man redet hier von der Aktuellsten Generation momentan.
 
20nm bei GloFo? Haben die so einen Prozess überhaupt? Dachte die überspringen den komplett um (zusammen mit Samsung) 14nm FinFET schneller auf den Weg zu bringen (und so wie es aussieht läuft das bei Samsung schon in Risikoproduktion...). Auch verstehe ich nicht warum man Carrizo dann noch in 28nm fertigen sollte...

28nm SHP könnte ich mir vorstellen, da hat AMD ja nun auch schon Erfahrung mit, Kaveri wird ja damit gefertigt und so wie es aussieht ist das dem 28nm Prozess von TSMC etwas überlegen...
 
Die R9 380X wird vermutlich genauso stark wie die R9 290 bzw. R9 290X, also genauso stark bis leicht schwächer als eine GTX 970.
Sollte das Ding für ~200 Euro rauskommen wäre das ein Hit, die billigste R9 290 bekommt man ja auch schon für ~250 Euro.
 
20nm bei GloFo? Haben die so einen Prozess überhaupt? Dachte die überspringen den komplett um (zusammen mit Samsung) 14nm FinFET schneller auf den Weg zu bringen (und so wie es aussieht läuft das bei Samsung schon in Risikoproduktion...). Auch verstehe ich nicht warum man Carrizo dann noch in 28nm fertigen sollte...

28nm SHP könnte ich mir vorstellen, da hat AMD ja nun auch schon Erfahrung mit, Kaveri wird ja damit gefertigt und so wie es aussieht ist das dem 28nm Prozess von TSMC etwas überlegen...
Offiziell bieten sie nur "20LPM" ("Low Power Mobility") an. Denkbar wäre allerdings, dass GF in Zusammenarbeit mit AMD einen anderen 20-nm-Prozess entwickelt hat oder Letzterer einen solchen als enger Partner früher angeboten bekommt.

Zu Carrizo: Wenn OEMs ihre Notebooks/Convertibles Mitte 2015 auf den Markt bringen sollen, dann dürften in naher Zukunft schon die APUs verschickt werden. Sofern (großes Fragezeichen) die neuen Grafikkarten gegen Ende H1/2015 erscheinen werden, hätte man durchaus eine beachtliche zeitliche Differenz. Auf der anderen Hand könnte AMD mit dem neuen Prozess den GPU-Markt aufmischen wollen und die CPUs/APUs erst später in 20 nm bringen.
 
Zurück