AMD Livestream zu 30 Jahren Grafikkarten und Spielgrafik am Wochenende

Jo leute könnt ihr mir mal helfen wen schon so viele on sind muss ich ausnutzen.
und zwar die msi R9 290X Light. möchte ich gerne haben für die zukünftigen Spiele
und meine egentliche frage lautet soll ich noch warten wegen dem neuen tonga chip
Danke schon mal
Wozu die Lightning? Du hörst dich nicht danach an, als wärst du Extrem-Übertakter! Nimm lieber die 290X VaporX. Das ist die mit Abstand beste Hawaii-Custom-Karte...
Und natürlich hat Tonga keine Auswirkung auf deine Kaufentscheidung, die Tonga-basierten Karten sollen doch gar nicht mit den Hawaii-basierten Karten konkurrieren!
 
Ich habe mir vor ewigen zeiten genau 5jahre eine msi karte gekauft das wahr auch ne lightning und die hab ich heut noch und der nächste rechner soll auch wieder so lang halten und da geb ich gern ein bischen mehr aus
ich lasse ungern von msi ab
 
ΔΣΛ;6727114 schrieb:
Langweilig, hatte bedeutend mehr erwartet, war wohl nur eine reine PR Show, für Leute die genau das sehen wollten und nicht mehr :schief:

Ich hatte mir gerade auch in der Top 10 mal erhofft etwas von Downsampling zu hören. Ärgert mich echt immens :daumen2: Bleibe ich halt bei NV, wobei die das auch mal offiziell machen könnten.
 
EDIT: Gerade mal die Speicher Geschwindigkeit verglichen:

HD7950 @ Stock 1200 MHz = 240 GB/s
R9 280 @ Stock 1200 MHz = 240 GB/s
R9 285 @ Stock 1375 MHz = 176 GB/s

HD7950 @ 1500 MHz = 288 GB/s
R9 285 @ 1500 Mhz = 192 GB/s

(Shader Einheiten sind überall gleich)

Da merkt man erst mal, was die 256 Bit anrichten. Bin sehr auf Benchmarks gespannt. Ich vermute mal, dass sich das ganz schön niederschalgen wird. Aktuelle Spiele profitieren ganz gut von schnellerem Speicherdurchsatz.

Zweierlei:

1. Die HD 7950 und R9 280 arbeiten sogar mit 2.500 MHz Speichertakt (2.400 MHz = HD 7870), das hilft ihnen aber relativ wenig, sie haben einfach "zu viel" Speicherdurchsatz in Relation zur GPU-Leistung. Ich hatte allerdings auch gehofft, dass die R9 285 gegenüber der Fire Pro etwas an Speichertakt zulegt, etwa 3.000 MHz. Aber das werden OC-Versionen schon richten. 3.000 MHz und 4 GiB - das wäre ziemlich schick und gegenüber OC-Versionen der alten R9 280 (Round-up in der PCGH 09/2014) mit ihren 3 GiB bitter nötig.

2. GK110 und GM107 zeigen, dass Speichertransferrate nicht alles ist. Große Caches können viel reißen, dann muss man nicht so viel in den langsamen GDDR5 auslagern. Bin sehr gespannt, was Tonga diesbezüglich auffährt. Auch ist interessant, inwiefern sich das vierfache Frontend auswirkt, das ist gegenüber Tahiti ein Vorteil. Tonga kann pro Takt anscheinend genauso viele Dreiecke erzeugen wie Bonaire und Hawaii.

MfG,
Raff
 
Zuletzt bearbeitet:
Die R9 285 unterstützt als erste Grafikkarte Freesync, kommt also mit Displayport 1.2a
Ich dachte es hieß die R9 290/290X würden schon Freesync unterstützen? Also jetzt doch nicht oder wie kann man das verstehen? :huh:
 
Ich dachte es hieß die R9 290/290X würden schon Freesync unterstützen? Also jetzt doch nicht oder wie kann man das verstehen? :huh:

GCN "1.1" soll bereits Freesync unterstützen, d.h. R9 290(X) und R7 260(X). HD 7000, R9 280(X) und 270(X) sind Rebrands von GCN 1.0 und sollen daher nicht dazu in der Lage sein (siehe Artikel "Monitor-Features" in PCGH 09/2014). Das müsste eigentlich noch gelten.

MfG,
Raff
 
GCN "1.1" soll bereits Freesync unterstützen, d.h. R9 290(X) und R7 260(X). HD 7000, R9 280(X) und 270(X) sind Rebrands von GCN 1.0 und sollen daher nicht dazu in der Lage sein (siehe Artikel "Monitor-Features" in PCGH 09/2014). Das müsste eigentlich noch gelten.

MfG,
Raff
Ich war auf dem Kenntnisstand, dass ein Displayport nach 1.2a-Standard zwingend vorausgesetzt wird, da dort die für Freesync nötigen Specs mit einfließen. Wenn kein DP 1.2a, dann auch kein Freesync? :huh:
 
Irgendwie so. Freesync wurde von der VESA als Adaptive Sync spezifiziert und dort wird DP 1.2a vorausgesetzt. Allerdings war in diesem Zusammenhang bei den "alten" Karten von Treiber-Updates die Rede, die Software muss also auch mitspielen. Und daran kann's später immer noch hapern - beherrscht die HD 7790 mittlerweile True Audio? ;)

Ich frage mich daneben, was mit HDMI 2.0 ist und wann das in Grafikkarten ankommt ...

MfG,
Raff
 
GCN "1.1" soll bereits Freesync unterstützen, d.h. R9 290(X) und R7 260(X). HD 7000, R9 280(X) und 270(X) sind Rebrands von GCN 1.0 und sollen daher nicht dazu in der Lage sein (siehe Artikel "Monitor-Features" in PCGH 09/2014). Das müsste eigentlich noch gelten.
MfG,
Raff
Genau das war auch mein Kenntnisstand. Nur verwirt mich halt die Aussage, dass die R9 295 die erste Grafikkarte wäre, die Freesync unterstützt. GCN 1.1 unterstüzt doch auch Freesync, also warum soll die R9 285 dann die Erste sein die es unterstützt?
Edit: Dein Post kam während ich meinen hier verfasst habe. :ugly: Okay also ist es die erste die offiziell DP 1.2a und somit Freesync unterstützt, während dass bei GCN 1.1 nur per Treiber nachgereicht wird. Alles klar ^^
 
Genau das war auch mein Kenntnisstand. Nur verwirt mich halt die Aussage, dass die R9 295 die erste Grafikkarte wäre, die Freesync unterstützt. GCN 1.1 unterstüzt doch auch Freesync, also warum soll die R9 285 dann die Erste sein die es unterstützt?
Edit: Dein Post kam während ich meinen hier verfasst habe. :ugly: Okay also ist es die erste die offiziell DP 1.2a und somit Freesync unterstützt, während dass bei GCN 1.1 nur per Treiber nachgereicht wird. Alles klar ^^
Also früher hieß es, dass GCN 1.1 das potenziell könnte. Später wurde Adaptive Sync dann in Displayport 1.2a mit aufgenommen, folglich müsste eine GCN-1.1-Grafikkarte auch einen DP-1.2a-Ausgang haben, um Freesync nutzen zu können. Deshalb auch die Aussage, dass die R9 285 die erste GPU mit Freesync-Unterstützung sei.
 
Versteh jetzt nicht so den Sinn der R9 285. :what:
So wie ich das sehe lohnt es sich wesentlich mehr eine R9 280 non X für 170 € zu kaufen, als so eine Karte für knapp 250 $ ist gleich €. :huh:
 
Zuletzt bearbeitet:
Versteh jetzt nicht so den Sinn der R9 285. :what:
So wie ich das sehe lohnt es sich wesentlich mehr eine R9 280 non T für 170 € zu kaufen, als so eine Karte für knapp 250 $ ist gleich €. :huh:
Tonga dürfte vor allem die Produktionskosten für AMD senken. Tahiti ist/war mit seiner Größe (Speicherinterface, DP-Recheneinheiten, etc.) nicht wirklich rentabel in seiner Preisklasse.
 
:schief:
GoldenMic schrieb:
Die Tonga GPU klingt imo recht schwach.
Hatte da mehr Erwartet, vor allem weil man sich jetzt so lange Zeit gelassen hat mit dem Maxwell - Konter.
Naja mal den Test abwarten...

Der Konter für was?:schief: Maxwell ist doch nur als GK107 bereits draussen.
Also wie immer bei dir, bevor die ersten Tests da sind, mit beiläufigen Kommentare ala " da hätte ich mehr erwartet" oder irgendwelche Gedankenspiele zu Fakten zusammensetzen die keine sind.
Tonga ist Mittelklasse, falls du es nicht weißt.
Was Maxwell angeht, muss man erstmal abwarten, was kommt und nicht vorher schon irgendwelche Aussagen zurechtzimmern.
Wie kann man nur immer so einen Unsinn schreiben, unfassbar.:schief::schief:

Schießt man sich mit ner 2 Gb R9-285 nicht eigentlich selbst ins Bein bezüglich Mantle?

Naja ich hatte schon vor ein paar Stunden dran gedacht, aber ich hatte keine Zeit zu posten.

Schade, dass du noch Zeit gefunden hast. Man schießt sich damit natürlich komplett ins eigene Bein.

Soll man jetzt hergehen und wegen Battlefield 4 Mantle nurnoch 4GB Karten anbieten?
 
Die customized Versionen der Partner werden schon mit 4GB daherkommen, hoffe ich mal :D

Und ernsthaft am liebsten hätte ich heut schon Reviews. Können die nicht mal hinne machen.

Am aller interessantest find ich die Dirext 12 - Kompatibilität. D.h. für mich DX12 ist fest in den Spezifikationen. Und wird wohl den Zeitplan gut halten.
 
Ich dachte es hieß die R9 290/290X würden schon Freesync unterstützen? Also jetzt doch nicht oder wie kann man das verstehen? :huh:

GCN "1.1" soll bereits Freesync unterstützen, d.h. R9 290(X) und R7 260(X). HD 7000, R9 280(X) und 270(X) sind Rebrands von GCN 1.0 und sollen daher nicht dazu in der Lage sein (siehe Artikel "Monitor-Features" in PCGH 09/2014). Das müsste eigentlich noch gelten.

Wenn ich richtig informiert bin, verheimlicht AMD den wichtigsten Fakt über Freesync.

Es werden bisher nur folgende Modelle unterstützt:
-setzt Radeon R9 295 X2, R9 290X , Radeon R9 290 , Radeon R7 260X oder Radeon R7 260 voraus, da nur hier ein entsprechender Display-Controller integriert ist. Jetzt eben noch die neuen R9-285er! Zufälligerweise alles Karten mit TrueAudio. Ich vermute einmal, dass derselbe Chip für Audio- als auch Displaycontrollerfunktionen dient.

Ältere Karten wie die HD7970 funktionieren zwar im normalen Modus, allerdings wird Freesync damit nicht unterstützt. Das wurde von AMD auf dieser Veranstaltung nirgends erwähnt!

Quelle:
AMD Freesync - AMD veröffentlicht ausführliche FAQ zum G-Sync-Konkurrenten - News - GameStar.de


:schief:
Der Konter für was?:schief: Maxwell ist doch nur als GK107 bereits draussen.
Also wie immer bei dir, bevor die ersten Tests da sind, mit beiläufigen Kommentare ala " da hätte ich mehr erwartet" oder irgendwelche Gedankenspiele zu Fakten zusammensetzen die keine sind.
Tonga ist Mittelklasse, falls du es nicht weißt.
Was Maxwell angeht, muss man erstmal abwarten, was kommt und nicht vorher schon irgendwelche Aussagen zurechtzimmern.
Wie kann man nur immer so einen Unsinn schreiben, unfassbar.:schief::schief:

So viel Unsinn ist das gar nicht!

Die Leute sind zurecht stutzig. Immerhin hat AMD groß geprahlt wie effizient Tonga sei und wie sehr man auf Augenhöhe mit beispielsweise der GTX750 Ti sei....
Auf die Ankündigung der R9 285 hat jeder gewartet und manch einer hat sich nur deswegen diese Veranstaltung reingezogen.

Jetzt stellt sich heraus, dass genau diese Karten nicht Fisch und nicht Fleisch sind. AMD gibt eine TDP von 190W an. Das ist immer noch zu viel! Immerhin handelt es sich um die neue Mittelklasse. Gerüchten zufolge hat Nvidias Oberklasse(!) gleichviel oder weniger ..

TDP für Maxwell (Gerüchte)
-GTX870 = 170W TDP
-GTX880 = 190W TDP

Falls das stimmt, hat AMD ein ernstes Problem! Dann wäre Maxwell nämlich viel effizienter als GCN2.0. Im schlimmsten Fall wird es ein Desaster wie zu Zeiten der GTX8800er. AMD müsste dann ihre Karten zu Ramschpreisen anbieten.


Soll man jetzt hergehen und wegen Battlefield 4 Mantle nurnoch 4GB Karten anbieten?

Im Jahre 2014/2015 darf keine Mittelklassekarte mehr 2GB VRAM besitzen! Die Zeiten sollten schon lange vorbei sein! Das wird auf jeden Fall ein Flaschenhals werden, da es definitiv unterdimensioniert ist! Bei einer GTX750 Ti ist das gerade noch so OK, weil die Rohleistung der Karte für 4GB nicht ausreicht.
 
Zurück