DirectX 12: Kommender Geforce-Treiber soll Asynchronous Compute verbessern

Eigentlich Täuschung der Kunden vor-allem nachdem was der CEO gesagt hat "Partitionierter Speicher ist ein gutes Design", für wie viel mehr will man sich noch für d*** verkaufen lassen.

Jo, bei AMD läuft das ja grundlegend anders:

Die Fury X wird als 4K-Karte beworben, hat aber nur 4 GB RAM und ist durch die problematische Front-End-Architektur darauf angewiesen, Auflösungen und Qualitätseinstellungen zu fahren, bei denen das Gaming schon lange keine Laune mehr macht, dafür dann die Leistung im Vergleich zu Konkurrenz prozentual nicht mehr ganz so schlecht da steht. Gut, das die PCGH zuletzt mal wieder in knallharten Zahlen dargestellt hat, wie mies die Effizienz bei AMD ist. Da wird man dann pro Monat auch noch beim Stromabschlag geknüppelt.

Fazit: Es gibt nicht den perfekten Hersteller, in beiden Lagern wird Mist gebaut.

Ich will hier aber auch niemanden mit Fakten verunsichern. ;)
 
Jo, bei AMD läuft das ja grundlegend anders:

Die Fury X wird als 4K-Karte beworben, hat aber nur 4 GB RAM und ist durch die problematische Front-End-Architektur darauf angewiesen, Auflösungen und Qualitätseinstellungen zu fahren, bei denen das Gaming schon lange keine Laune mehr macht, dafür dann die Leistung im Vergleich zu Konkurrenz prozentual nicht mehr ganz so schlecht da steht. Gut, das die PCGH zuletzt mal wieder in knallharten Zahlen dargestellt hat, wie mies die Effizienz bei AMD ist. Da wird man dann pro Monat auch noch beim Stromabschlag geknüppelt.

Fazit: Es gibt nicht den perfekten Hersteller, in beiden Lagern wird Mist gebaut.

Ich will hier aber auch niemanden mit Fakten verunsichern. ;)

beim Stromverbrauch nehmen sich die 980Ti und Fury X wohl gerade nicht viel.

Ja AMD hat halt die Karte so beworben schön für sie, das mit 3,5 GByte Feature war doch so, das erst nachdem man drauf gekommen ist sich der CEO gemeldet hat. 4 GByte sind noch immer mehr als 3,5GByte und vor allem mit der Speicheranbindung. Es ist ein Unterschied ob ein Produkt nicht den technischen Daten entspricht oder ob man mit einem Produkt für etwas wirbt. Wer bitte setzt fest ob es 4k tauglich ist oder nicht ? Für Desktop arbeiten bei 4K wird es wohl reichen.
 
Sie haben keine exaken Zahlen genannt, aber das Teil wie üblich in den Himmel gelobt.

Welcher Hersteller tut das auch nicht bei der Präsentation? Aber darum hab ich dir ja auch nicht geantwortet, sondern wegen deiner Falschaussagen.
Wenn jemand die Karte als Titan X Killer hingestellt hat, dann wohl die Community.

Wer die Prästentationen damals gesehen hat wußte genau das der Gegner GTX 980Ti/ Titan X heißt und das ihr Eisen im Feuer erheblich besser sein wird. .

Von besser habe ich nicht viel gesehen. Eher von gleichgut. Keine Ahnung wie man darauf gekommen ist, die Karte wäre der Titan X Killer.



Mehr Speicher ist nunmal mehr Speicher und da ist die GTX 980 Ti/ Titan X nunmal besser, genau wie die R9-290X der GTX 970 in diesem Punkt überlegen war und die R9-390X sie nun völlig plattmacht..

Mehr Speicher ist immer besser als weniger. Aber kein Grund zu übertreiben.;)



Laut PCGH waren es 330W und 380W beim FurMark, der Verbrauch hängt sehr stark von der Auflösung ab...

Spielst du Furmark? Der Durchschnittliche Verbrauch wie CB, PCGH und Tomshardware ihn gemessen haben ist kaum höher.
Von "irrer" Stromverbrauch halt weit entfernt.
Wie kommst du also zu der Aussage?



Aber die Ankündigungen von AMD und selbst da sieht es nicht so gut aus für die Nano, auch wenn man AMD beim Wort nimmt und annimt das sie lediglich dezent getrickst haben...

Ich würde halt einfach den Launch abwarten, bevor man sich über ungelegte Eier Gedanken macht.




Der Bulli leistet unter Linux 50% mehr als ein 980X, so wie AMD ihn angekündigt hat?...

Einen 980X kenne ich nicht, genausowenig hat AMD dies angekündigt.

Bestenfalls kann er mit einem 2600K mithalten und schlimmstenfalls versagt er total.

Kannst du das "totale Versagen" mal anhand eines Benchmarks aufzeigen?
 
So ein Fass um etwas belangloses.
Bis DirectX 12 richtig ins rollen kommt sind alle aktuellen Grafikkarten Schnee von Gestern und kein Hahn kräht mehr nach Fury oder Maxwell.
 
Doch doch. Kauf dir die neue PCGH, da wurden verschiedene Spiele durchgemessen. Die unterscheiden sich sogar recht ordentlich.
Die 980Ti bieten dort deutlich mehr fps/Watt (besonders die Customs kommen gut weg).

Im Schnitt über alle Reviews sind es etwa 40 Watt.
Toms Hardware sieht in etwa 20 Watt Differenz gemittelt unter Full HD und 4K.
Also macht mal nicht so ein Fass auf, nervt langsam bisschen.
 
So ein Fass um etwas belangloses.
Bis DirectX 12 richtig ins rollen kommt sind alle aktuellen Grafikkarten Schnee von Gestern und kein Hahn kräht mehr nach Fury oder Maxwell.

die Nachfolgekarten kommen vielleicht mitte 2016, da sind schon mehrere Directx12 Spiele am Markt.
Oder kauft sich jetzt jeder ne neue Karte dann, auch die die Anfang 2016 noch zu ner Fury oder 980 gegriffen haben?
Ja ne is klar.
 
Naja wolln wir mal schaun, was die Zukunft noch bringt, momentan ist man ja mit 4 Gb noch gut dabei, und wer weiss, vielleicht ist es bei Nvidia noch keinem aufgefallen, dass die 980TI in Wahrheit auch nur 4 Gb hat, das würde erklären, warum man mit 4Gb noch so gut dabei ist...man weiss es nicht so genau.
Aber wer den Schaden hat, braucht für den Spot nicht zu sorgen...:-)
 
So ein Fass um etwas belangloses.
Bis DirectX 12 richtig ins rollen kommt sind alle aktuellen Grafikkarten Schnee von Gestern und kein Hahn kräht mehr nach Fury oder Maxwell.

Fable, Gears of War, Deus Ex,Hitman,Tomb Raider,Battlefront alles Games die DX 12 nutzen und rauskommen bevor du dir vor Freude über Pascal nass ins Hößchen machen kannst.
 
die Nachfolgekarten kommen vielleicht mitte 2016, da sind schon mehrere Directx12 Spiele am Markt.
Oder kauft sich jetzt jeder ne neue Karte dann, auch die die Anfang 2016 noch zu ner Fury oder 980 gegriffen haben?
Ja ne is klar.

ja macht sicher Spass gleich nochmal 700 Euro aus zugegeben, es macht einen Unterschied weil man etwas vielleicht länger damit auskommt, ein halbes Jahr können 100 Euro oder was sein. Ist sicherlich das Ziel bei jeder neuen Generation sich eine neue Karte zu kaufen, also alle 1,5 Jahre.
 
Welcher Hersteller tut das auch nicht bei der Präsentation? Aber darum hab ich dir ja auch nicht geantwortet, sondern wegen deiner Falschaussagen.Wenn jemand die Karte als Titan X Killer hingestellt hat, dann wohl die Community.Von besser habe ich nicht viel gesehen. Eher von gleichgut. Keine Ahnung wie man darauf gekommen ist, die Karte wäre der Titan X Killer.Mehr Speicher ist immer besser als weniger. Aber kein Grund zu übertreiben.;)Spielst du Furmark? Der Durchschnittliche Verbrauch wie CB, PCGH und Tomshardware ihn gemessen haben ist kaum höher.Von "irrer" Stromverbrauch halt weit entfernt.Wie kommst du also zu der Aussage?Ich würde halt einfach den Launch abwarten, bevor man sich über ungelegte Eier Gedanken macht.Einen 980X kenne ich nicht, genausowenig hat AMD dies angekündigt.Kannst du das "totale Versagen" mal anhand eines Benchmarks aufzeigen?
Sei mir nicht böse,ich hege auch eher Sympathie für eine Marke,aber was du so ablässt ist einfach...ziemlich unobjektiv und du bezweckst das genaue Gegenteil!Wenn selbst Frau Su öffentlich zu gibt das Bulli eine ziemliche Fehlkonstruktion sei dann sagt das doch alles - ich finde es einfach schlimm wenn man offensichtlich schlechtes auf biegen und brechen gut diskutieren muss.Das fängt schon damit an wenn du behauptest das man eine FuryX auf 1250 Mhz übertakten könne!Sorry,wo?Es gibt immer einzelne Sahnestücke aber ich kenne keine Karte die selbst über lächerliche 10% kommt - nicht weiter schlimm,es gibt eben Architekturen die dahingehend nicht gut sind.Aber das zeigt wo eine sachlich Diskussion (Versuch) mit dir hinführt...
 
Ahja, Traumwelt. Wenn ich etwas nur vermute, werde ich es nicht als Tatsache darstellen. Und da kannst du dir deine Links auch sparen. Ich habe mitbekommen wie es in der Welt zugeht. Das war vor allem mal ein Hinweis zur hier im Forum häufig auftretenden Meinung: Läuft etwas auf einer nVidia-Karte so wurde geschmiert, bei AMD ist es natürlich harte Arbeit von AMD. Warum Oxide plötzlich freundlicher zu nVidia ist? Weißt du es? Nein? Dann unterstelle ihnen nix.
Und mir ging es nicht darum PCGH irgendwelche Bestechung oder sonstiges vorzuwerfen. Nur wenn man weiterhin so berichten will, wie man es in den letzten Monaten getan hat, werde ich die Seite weniger besuchen und auch kein Heft mehr kaufen. Man hat hier im Forum eine Pöpelkultur aufgezogen, die einem jeden Spaß im Forum nimmt.

Ich bild mir meine Meinung! Die geb ich hier preis, um andere Sichtweisen aufzuzeigen. Das Offensichtliche darf wohl gepostet werden. Intel ist zB schon von der Eu zu Strafzahlungen verurteilt worden, auch Microsoft. Bei Nvidia ist für mich eine Frage der Zeit.
Amd ist nicht heilig, das hab ich nie behauptet. Dennoch ist es so, dass Amd offene Standards bringt und Nvidia nur proprietären Sh.t. Und das Amd durch Twimtbp ausgebremst wird ist auch so gut wie fix. Siehe Physix! Wäre Amd in der Situation von Nvidia, würden sie wohl nicht anders Handeln.

Und noch was: Ich hab nie geschrieben, dass PCGH nicht objektiv ist.

Und als letztes: In Internetforen wird diskutiert, extreme Meinungen vertreten und gestichelt?Nein, doch, ohhhh! Bitte warum liest du dann... Ich seh in fast jedem Post etwas Interessantes. Viele Meinungen und Standpunkte. Manches bringt mich auch zum Schmunzeln, wie deine Überreaktion zB.
 
Tomb Raider, Deus Ex und Hitman werden mit A-Sync Compute erscheiden. Wurde bereits so angekündigt.
Bei Tomb Raider weiß ich es nicht, aber die anderen beiden sind Gaming Evolved Titel.

Da wird man dann endgültig sehen was Asynchronous Computing auf GCN Karten bringt und wie sich Nvidias Software Scheduler dagegen schlägt.
 
Doch doch. Kauf dir die neue PCGH, da wurden verschiedene Spiele durchgemessen. Die unterscheiden sich sogar recht ordentlich.
Die 980Ti bieten dort deutlich mehr fps/Watt (besonders die Customs kommen gut weg).

Ist alles relativ! Bei Cs:go ist die fury x effektiever als sie Nvidias. Wennst daszB zockst, fahrst mit Amd besser!
 
Na da bin ich ausnahmsweise mal auf entsprechende Benchmarks gespannt. Spätestens wenn tatsächlich trotz CPU Berechnung eine Steigerung da ist, sollte auch überprüft werden ob nicht andere Grafikeffekte ein kleines bisschen zurückgefahren wuden.
 
Zurück