DirectX 12: Kommender Geforce-Treiber soll Asynchronous Compute verbessern

Einfach mal ein wenig googeln (oder was es sonst so an Suchmaschinen gibt. Selbst bei AMD redet man von einem Flop und sieht ein das es ein Griff ins Klo war, du brauchst den Mist nichtmehr schönreden.

AMD FX 8150 Bulldozer (Prozessoren) Test - Acht halbe oder vier ganze Rechenkerne im Benchmark-Test? - GameStar
FX-8150 oder Core i7-2600K kaufen? Leserbrief der Woche
AMD FX-8150 vs. Core i5-2500K and Core i7-2600K CPU Review - Hardware Secrets
AMD FX-8150 Bulldozer - Neue CPU-Generation im Test - 8-Core-Prozessor mit Turbo bis 4,2 GHz | TecChannel.de

Alles in allem ein einziges Debakel, der Bulldozer sah gegen den i7 2600K kein Land mehr, der i5 2500K war im Schnitt erheblich besser und auch der gute alte 1100T war dank seiner Einzelkernleistung klar die bessere Wahl.

Ich würde dann auch bitte mal diesen auch zu benutzen

AMD FX-8350 "Vishera" Linux Benchmarks - Phoronix

Bulldozer wurde falsch beworben, nichts anderes.
 
Ich würde dann auch bitte mal diesen auch zu benutzen

AMD FX-8350 "Vishera" Linux Benchmarks - Phoronix

Bulldozer wurde falsch beworben, nichts anderes.

Im Prinzip zeigt es etwa das selbe Bild wie unter Windows, in einigen Anwendungen sind sie gut, in einigen Mehrkernanwendungen können sie mithalten und in sehr vielen Dingen sehen die FX CPUs einfach kein Land mehr, da kann man Taktmäßig draufhauen was wie will. Wenn ich mir die Seiten vorher mit anschaue komme ich immernoch zu dem Ergebnis das die Intel CPUs da einfach erheblich besser sind. Man muß es einfach sehen wie es ist: der Bulldozer und seine nachfolger sind einfach als Fehlschlag zu bezeichnen: zu langsam, zuviel Verbrauch, zuviel Chipfläche, zu wenig übertaktbar und obendrein keine IGP. AMD hat sich an der Quadratur des Kreises versucht und ist leider gescheitert. Eventuell wird ja Zen der große Wurf, da sie ja mit dem Phenom II schonmal selbst eine bessere Architektur hatten bin ich ganz zuversichtlich das etwas daraus wird.

Man sollte nicht versuchen Krampfhaft irgendwelchen Mist schönzureden. Das hat für nicht AMD Jünger dann die unfreiwillige Komik eines Erich Honecker, der vom Sieg des Sozialismus sprach während die meisten sahen was wirklich los war.
 
Im Prinzip zeigt es etwa das selbe Bild wie unter Windows, in einigen Anwendungen sind sie gut, in einigen Mehrkernanwendungen können sie mithalten und in sehr vielen Dingen sehen die FX CPUs einfach kein Land mehr, da kann man Taktmäßig draufhauen was wie will. Wenn ich mir die Seiten vorher mit anschaue komme ich immernoch zu dem Ergebnis das die Intel CPUs da einfach erheblich besser sind. Man muß es einfach sehen wie es ist: der Bulldozer und seine nachfolger sind einfach als Fehlschlag zu bezeichnen: zu langsam, zuviel Verbrauch, zuviel Chipfläche, zu wenig übertaktbar und obendrein keine IGP. AMD hat sich an der Quadratur des Kreises versucht und ist leider gescheitert. Eventuell wird ja Zen der große Wurf, da sie ja mit dem Phenom II schonmal selbst eine bessere Architektur hatten bin ich ganz zuversichtlich das etwas daraus wird.

Man sollte nicht versuchen Krampfhaft irgendwelchen Mist schönzureden. Das hat für nicht AMD Jünger dann die unfreiwillige Komik eines Erich Honecker, der vom Sieg des Sozialismus sprach während die meisten sahen was wirklich los war.

Ich glaub da hat jemand Tomaten auf den Augen.


AMD FX-8350 vs Intel i7-3370k

ParallelBZIP Compression
7 vs 8

C-Ray Test
20.30 vs. 33.00

bei beiten steht lower is better

in den meisten Test führt bitte der FX-8350 vor den Intel CPUs

In der Conclusion steht auch das:
For many of the Linux computational benchmarks carried out in this article, the AMD FX-8350 proved to be competitive with the Intel Core i7 3770K "Ivy Bridge" processor. Seeing the FX-8350 compete with the i7-3770K at stock speeds in so many benchmarks was rather a surprise since the Windows-focused AMD marketing crew was more expecting this new high-end processor to be head-to-head competition for the Intel Core i7 3570K on Microsoft's operating system.

From my initial testing of the AMD FX-8350 over the past two weeks (though the last couple of days over in Prague for LinuxDays), I'm quite satisfied with the AMD FX-8350 eight-core processor on Linux. Aside from the FX-8350 performing well in most CPU benchmarks, the FX-8350 also works well under Linux. The only Linux compatibility complaint I have about the Piledriver CPUs on Linux is that the CPU temperature monitoring didn't work from Ubuntu 12.10, but that isn't normally a show-stopping problem. It would also be nice for AMD to port more user-space utilities to Linux for overclocking and other CPU information reporting, but there isn't any CPU vendor currently doing that for Linux so it's basically a feature request.
 
da könnte man auch sagen "Nvidia hat ja nur von 256Bit gesprochen und nicht davon das die alle gleich angebunden sind".
Wer das als Argument gelten lassen würde, wäre nun wirklich nicht mehr ernst zu nehmen.

AMD hat nie etwas von etwa gleichgut gesagt, die Karte wurde in den Himmel gelobt und AMD hatte wie immer ein Interesse daran das alle die Karte so gut wie nur irgendmöglich einschätzen. Wenn du sagst das sie nicht gelogen, sondern nur wichtige Details weggelassen haben: das hat Nvidiia mit der GTX 970 auch gemacht.
Äpfel und Birnen.

330W bei ordentlicher Last sind nicht gerade wenig, wenn man die Karte ordentlich unter Dampf setzt zieht sie sau viel Strom. Ein Sparsamkeitswunder ist sie nicht, das weiß auch AMD, sonst hätten sie keine Wakü Pflicht eingeführt.
So ein Unsinn. AMD hätte die Karte im Furmark genauso wie Nvidia die 980Ti auf knapp 260 Watt begrenzen können. Haben sie aber nicht - keine Ahnung wieso. Man sah anscheinend keine Notwendigkeit den Maximalverbrauch so eng wie Nvidia an der TDP zu orientieren. Die WaKü ist Teil des Marketings als leiseste High End Karte der Welt und praktischerweise auch noch kompakt, was das kurze PCB noch positiv hervorhebt.

Alles in allem ein einziges Debakel, der Bulldozer sah gegen den i7 2600K kein Land mehr, der i5 2500K war im Schnitt erheblich besser
Ja, deshalb ist nach 12 Jahren AMD der 2500 auch mein erster Intel Prozessor geworden. Und er steckt noch heute in meinem PC. Länger als jede AMD CPU davor.

Es gab vor Jahren mal ein paar interessante Einblicke in die Entwicklung der Architektur (war sehr aufschlussreich). PCGH hatte glaub ich auch eine News darüber. Lange Rede kurzer Sinn: Man hatte nicht die Kapazitäten (also das Geld) für mehr. Man hat die Architektur dann in den Markt geschmissen, wusste dass sie Schwächen hat und hat gehofft, dass man diese in den nächsten Jahren dahingehend noch ausmerzen kann (10% mehr IPC pro Jahr war das Ziel). Hat leider auch eher schlecht als recht geklappt.
 
Zuletzt bearbeitet:
Können wir hier mal bitte zurück zum Thema kommen?

Hier geht's um Asynchronus Compute, nicht um AMD FX vs. Intel i7...
Wie immer in solchen Threads geht es inzwischen um "AMD gegen den Rest der Welt".

Finde ich aber nicht schlimm. Zum Thema AC ist eigentlich alles gesagt. Nvidia ist jetzt im Zugzwang. Abwarten was passiert.
 
Jaja immer diese Wundertreiber, der letzte Wundertreiber von Nvidia hat DX11 auf Geforce Karten auf Mantle Niveau gebracht, so ab und an braucht die Welt einen Wundertreiber...

Und vor "Mantle" hat es Nvidia nicht für erforderlich gehalten, den Kunden die best mögliche Performance zu liefern. Selbst für diejenigen die Mantle für ein totes Pferd halten hat allein dessen Existenz immerhin
einem nicht unerheblichen kostenfreien Performancezuschlag unter DX11 gebracht.

Cunhell
 
Ich glaub da hat jemand Tomaten auf den Augen.

AMD FX-8350 vs Intel i7-3370k

ParallelBZIP Compression
7 vs 8

C-Ray Test
20.30 vs. 33.00

bei beiten steht lower is better

in den meisten Test führt bitte der FX-8350 vor den Intel CPUs

In der Conclusion steht auch das:
For many of the Linux computational benchmarks carried out in this article, the AMD FX-8350 proved to be competitive with the Intel Core i7 3770K "Ivy Bridge" processor. Seeing the FX-8350 compete with the i7-3770K at stock speeds in so many benchmarks was rather a surprise since the Windows-focused AMD marketing crew was more expecting this new high-end processor to be head-to-head competition for the Intel Core i7 3570K on Microsoft's operating system.

From my initial testing of the AMD FX-8350 over the past two weeks (though the last couple of days over in Prague for LinuxDays), I'm quite satisfied with the AMD FX-8350 eight-core processor on Linux. Aside from the FX-8350 performing well in most CPU benchmarks, the FX-8350 also works well under Linux. The only Linux compatibility complaint I have about the Piledriver CPUs on Linux is that the CPU temperature monitoring didn't work from Ubuntu 12.10, but that isn't normally a show-stopping problem. It would also be nice for AMD to port more user-space utilities to Linux for overclocking and other CPU information reporting, but there isn't any CPU vendor currently doing that for Linux so it's basically a feature request.

Ich habe mir jetzt mal den Spaß gemacht die Benchmarks durchzuzählen, ich habe den i7 3770K mit dem unübertakteten FX 8350 verglichen da sie direkte Gegner waren. Bei unter 10% habe ich es als Unentschieden gewertet (wobei ich 3 mal zugunsten von AMD abgewichen bin da es knapp über der 10% Marke lag. Wenn ich mich nicht verzählt habe lautet das Ergebnis:

Intel: 12
AMD: 6
Unentschieden: 7

Ich würde sagen das es klar zugunsten von Intel ausgangen ist, besonders da keine Singlethreadanwendungen getestet wurden, der FX mehr Strom braucht, schlechter übertaktbar ist und zuguterletzt keine IGP hat. Ich würde sagen du biegst dir deine Realität zurecht wie du sie gerne hättest.

Wer das als Argument gelten lassen würde, wäre nun wirklich nicht mehr ernst zu nehmen.

Warum?
Wer der Meinung ist man kann bei AMD nur das gelten lassen was sie exakt so gesagt haben und muß über alle Zweideutigkeiten, geweckten Erwartungen und verschwiegenen Informationen hinwegsehen sollte das konsequenterweise auch bei Nvidia machen. Es ist eine Tatsache das der Speicher mit 256 Bit angebunden ist, allerdings teilen sich zweimal 32 Bit eine Verarbeitungseinheit mit Cache, Nvidia hat niemals das Gegenteil behauptet. Tatsache ist das es unredlich war und sie das zumindest erwähnen hätten müssen, Tatsache ist dann auch das AMD mit einigen Mythen hätte aufräumen müssen oder gewisse Erwartungen garnicht hätte wecken dürfen.

So ein Unsinn. AMD hätte die Karte im Furmark genauso wie Nvidia die 980Ti auf knapp 260 Watt begrenzen können. Haben sie aber nicht - keine Ahnung wieso. Man sah anscheinend keine Notwendigkeit den Maximalverbrauch so eng wie Nvidia an der TDP zu orientieren. Die WaKü ist Teil des Marketings als leiseste High End Karte der Welt und praktischerweise auch noch kompakt, was das kurze PCB noch positiv hervorhebt.

"Hätte hätte Fahrradkette" würde ein gewisser Politiker dazu sagen. Tatsache ist sie haben das nicht, was uns zu der Tatsache führt das die Karte irre viel Strom braucht, wenn man sie ordentlich auslastet und dies führt dazu das ich mir ein neues Netzteil kaufen müßte wenn ich diese Karte verbauen wollte. Das eine Wakü diverse Vorteile hat steht außer Frage, allerdings auch einige Nachteile, wie den Radiator den man einbauen muß und die Tatsache das man Wasser im PC hat, gerade letzteres schreckt scheinbar viele Leute ab, sodas die Hersteller möglichst eine Luftkühlung verbauen.

Es gab vor Jahren mal ein paar interessante Einblicke in die Entwicklung der Architektur (war sehr aufschlussreich). PCGH hatte glaub ich auch eine News darüber. Lange Rede kurzer Sinn: Man hatte nicht die Kapazitäten (also das Geld) für mehr. Man hat die Architektur dann in den Markt geschmissen, wusste dass sie Schwächen hat und hat gehofft, dass man diese in den nächsten Jahren dahingehend noch ausmerzen kann (10% mehr IPC pro Jahr war das Ziel). Hat leider auch eher schlecht als recht geklappt.

Das Problem ist etwas komplizierter, die beiden Kerne schmeißen sich ihre Daten gegenseitig aus dem Cache und stehen sich so gegenseitig im Weg. Der mangelnde Fertigungsprozess von AMD führte dazu das sie ihren L3 Cache nur mit Northbridgetakt angebunden haben, statt wie Intel mit voller Geschwindigkeit. Das führt zu heftigen Einbußen in der Leistungsfähigkeit im bei dieser Architektur besonders kritischen Teil der CPU, mehr L3 Cache hätte das Problem zusätzlich entschärft. Die Idee dahinter ist schon ganz gut, zur Ausführung hatte AMD einfach nicht die richtige Technik. Eventuell probieren sie es ja in 10-15 Jahren nochmal wenn bei der Verkleinerung der Fertiung Schluss ist, dann kann Intel auch wieder seinen objektorientierten Prozessor an dem sie sich in den 80ern versucht haben aus der Mottenkiste holen und IBM seinen Cell.
 
Zuletzt bearbeitet:
Hier merkt man mal wieder, wie leicht sich die Menge mit einem konstruierten Skandal beschäftigen lässt.

Wegen EINEM Spiel und EINEM Feature wird hier ein Theater gemacht, als könnten jetzt alle ihre Maxwell-Karten wegwerfen. Ganz am Rande, niemand weiß ob das Spiel überhaupt Bock macht.

Bis Spiele erscheinen, die vom kompletten DX12-Umfang profitieren, vergehen locker noch 2 Jahre. Bis dahin hat man min. schon 1 - 2x wieder die Grafikkarte gewechselt.

Ich behalte meine 980 Ti jedenfalls und freue mich, dass ich JETZT die bestmögliche DX11-Leistung erhalte.

Viel Spaß noch beim Aufregen.



Skandal!
Haha, ist das nicht lusting.
Bedank dich doch noch bei denen für ne teure dx12 Grafkkarte die gar keine ist, und Rüste doch bald wieder auf, denn die ersten dx12 Spiele kommen schon bald.
Ich persönlich rüste selber alle 1-2 Jahre auf, hab aber gehofft das ich jetzt mit meiner Karte etwas länger auskommen konnte. Wurde dabei doppelt enttäuscht.
Hoffe auf ein Rückgang der Verkaufszahlen bei Nvidia , ich wechsle. :devil:
 
Wenn ein Hersteller in seinen Präsentationen gezielt gewisse Erwartungen weckt und der Welt verkündet wie toll sein Produkt doch ist, dann muß er es sich auch gefallen lassen das er nachher daran gemessen wird.

Es wurde nie was von Titan X Killer gesagt, das war ein Produkt der Community.
Aber das kann ich wohl auch 100 mal wiederholen, du kommst immerwieder mit dem Schmarrn, damit zu AMD schlechtreden kannst, immer dasselbe!


So wie es sich Nvidia mit der GTX 970 gefallen lassen muß das man ihnen vorhält das die 512MB nicht so angbunden sind wie sie es eigentlich sollten, da könnte man auch sagen "Nvidia hat ja nur von 256Bit gesprochen und nicht davon das die alle gleich angebunden sind".
??:lol:Was hat das jetzt damit zu tun?
Dich kann man nicht ernst nehmen. Nur weil du zu hohe Erwartungen hast, erfindest du jetzt absurde Argumente.
Wahrscheinlich stellst du Marketing ohne genaue Performanceangaben mit verschwiegenen Specs auf eine Stufe.
Wie kann man nur.:rollen:

AMD hat nie etwas von etwa gleichgut gesagt

Und genausowenig haben sie gesagt, die Karte wäre schneller. AMD hat ausgesuchte 4K Benchmarks ausgewählt wo die Fury X bisschen schneller wie die 980 Ti war und je nach Review ist sie auch knapp vorne in 4K also was willst du?:schief:
Soll ein Hersteller jetzt absichtlich Werte veröffentlichen die die Karte in ein schlechtes Licht rücken?


die Karte wurde in den Himmel gelobt und AMD hatte wie immer ein Interesse daran das alle die Karte so gut wie nur irgendmöglich einschätzen.

Das ist doch bei jedem Launch dasselbe, ich weiß echt nicht wieso du deswegen ein Fass aufmachst.
AMD hat die Karte trotzdem nicht als Titan X Killer hingestellt, das was du behauptet hast, ist einfach ne unsachliche polemische Bemerkung und die kann man auch mit soviel Geschreibsel nicht rechtfertigen.


Wenn du sagst das sie nicht gelogen, sondern nur wichtige Details weggelassen haben: das hat Nvidiia mit der GTX 970 auch gemacht.

Die Tests der Fury X Karten waren mit allen Specs und Werten korrekt, die Tests der GTX 970 nicht.
Was hat AMD denn für Details bei der Fury X weggelassen, kannst du eines nennen?


330W bei ordentlicher Last sind nicht gerade wenig, wenn man die Karte ordentlich unter Dampf setzt zieht sie sau viel Strom.

Auch nicht besonders viel mehr wie ne 980 Ti, insofern ist deine polemische Äußerung mit "irrer" Stromverbrauch schon lange widerlegt.


Ein Sparsamkeitswunder ist sie nicht

Ja, darum geht es auch nicht.


das weiß auch AMD, sonst hätten sie keine Wakü Pflicht eingeführt

Was für ein Unsinn. Die Fury X lässt sich problemlos auch mit Luft kühlen, die Karten ziehen ja auch nicht mehr wie ne r9 390/390x, eher weniger.
Dank des größeren Chips und der raushängenden Kühlerfläche kann man die mit ~1,5 Sone kühlen, siehe Fury.
Es gab keine Wakü Pflicht, erzähl das deiner Oma.


Der FurMark ist wichtig für die dimensionierung des Netzteils und da sind 380W nicht ohne

Es ging um die Stromaufnahme und da sind deine Angaben falsch. Ich weiß nicht was du jetzt mit Netzteil dimensionieren willst.
Was gibt es da zwischen 980 Ti und Fury X schon für Unterschiede, für beide reicht ein 450 Watt High Quality Netzteil.

Dann wäre es schön wenn sich die Fraktion der AMD Jünger genauso verhalten hätte. Da wurde ja gejubelt als hätte man Nvidia ungespitzt in den Boden gerammt, dabei hat man "nur" endlich etwas konkurrenzfähiges zur GTX 980, wenn auch zu einem wesentlich höheren Preis (laut AMD Aussagen).

Ist mir völlig egal was jemand irgendwann mal gesagt hat. Du hast dich hier keinen Deut besser verhalten und hast Aussagen zu einer nicht vermessenen und nicht gelaunchten Karte getroffen.

Bitte unterlass es einfach, polemische und absurde Aussagen zu schreiben und die dann zu verteidigen, das ist doch wirklich albern, alles Zeitverschwendung.

Einfach mal ein wenig googeln (oder was es sonst so an Suchmaschinen gibt. Selbst bei AMD redet man von einem Flop und sieht ein das es ein Griff ins Klo war, du brauchst den Mist nichtmehr schönreden.

Ändere doch bitte deine Wortwahl schlicht und einfach. "Total versagen" hört sich für mich danach an, dass er nicht richtig funktioniert, so extrem langsam ist, dass er nicht benutztbar ist etc..
Ich rede hier gar nix schön, ich verstehe nur nicht, warum du immer gegen AMD hetzen musst.
Spar dir das doch einfach.
 
Zuletzt bearbeitet:
Ich habe mir jetzt mal den Spaß gemacht die Benchmarks durchzuzählen, ich habe den i7 3770K mit dem unübertakteten FX 8350 verglichen da sie direkte Gegner waren. Bei unter 10% habe ich es als Unentschieden gewertet (wobei ich 3 mal zugunsten von AMD abgewichen bin da es knapp über der 10% Marke lag. Wenn ich mich nicht verzählt habe lautet das Ergebnis:

Intel: 12
AMD: 6
Unentschieden: 7

Ich würde sagen das es klar zugunsten von Intel ausgangen ist, besonders da keine Singlethreadanwendungen getestet wurden, der FX mehr Strom braucht, schlechter übertaktbar ist und zuguterletzt keine IGP hat. Ich würde sagen du biegst dir deine Realität zurecht wie du sie gerne hättest.

Wenn AMD eine CPU liefert die nicht so schnell ist, dann heißt es bei dir "total versagt". Ist schon klar.
Wieso wendest du keine passende Wortwahl? Was soll der Aufriss?:rollen:



Warum?
Wer der Meinung ist man kann bei AMD nur das gelten lassen was sie exakt so gesagt haben und muß über alle Zweideutigkeiten, geweckten Erwartungen und verschwiegenen Informationen hinwegsehen sollte das konsequenterweise auch bei Nvidia machen.

Was sind denn für Dinge verschwiegen worden? Die Tests haben doch alles aufgeklärt, vorher konnte man die Karte doch gar nicht kaufen.
Jeder Hersteller lässt sein Produkt besser dastehen, als objektive Tests das zeigen. Was hat das mit den verschwiegen Eigenschaften der 970 zu tun?

Es ist eine Tatsache das der Speicher mit 256 Bit angebunden ist

Nein, der ist mit 224bit angebunden, Addition gilt hier nicht.

,
allerdings teilen sich zweimal 32 Bit eine Verarbeitungseinheit mit Cache, Nvidia hat niemals das Gegenteil behauptet.

Natürlich haben sie das, das sieht man alleine schon an den Specs die Nvidia in der Pressemitteilung veröffentlicht hat.

Tatsache ist das es unredlich war und sie das zumindest erwähnen hätten müssen

Das war Betrug.

T
atsache ist dann auch das AMD mit einigen Mythen hätte aufräumen müssen oder

Welche Mythen sind denn bezüglich der Fury X verschwiegen worden? Kannst du das mal erklären?

gewisse Erwartungen garnicht hätte wecken dürfen.

Erwartungen schüren sich schon von alleine, was soll das Argument für einen Sinn haben? Hatten die Leute beim 780 Ti, Titan X, etwa keine überzogenen Erwartungen?

"Hätte hätte Fahrradkette" würde ein gewisser Politiker dazu sagen. Tatsache ist sie haben das nicht, was uns zu der Tatsache führt das die Karte irre viel Strom braucht, wenn man sie ordentlich auslastet

Wen interessieren eigentlich Furmarkwerte? Ne Luftkühlung kann auch problemlos solche unsinnigen Tests überleben. DAs sieht man ja an der Fury, oder an den 390x Karten die bei weniger Chipfläche im Furmark genausoviel, wenn nicht mehr an Strom ziehen:rollen:.
Was hängst du dich an Furmark auf? Interessiert niemanden.

und dies führt dazu das ich mir ein neues Netzteil kaufen müßte wenn ich diese Karte verbauen wollte.

Wen interessiert es ob du dir ein neues Netzteil kaufen willst? Willst du eine GTX 980 Ti bei normalen Spielen bisschen übertakten, dann musst du dir auch ein neues Netzteil kaufen.:ugly:


allerdings auch einige Nachteile, wie den Radiator den man einbauen muß und die Tatsache das man Wasser im PC hat

Ja das sind riesige Nachteile. "Wasser" im PC. Ohje. Hab seit 2012 ne H60 Wasserkühlung und die geht immernoch anstandslos.
Und die Montage des Radiators hast du in 30 sekunden erledigt. Riesen Nachteil.


Du bist im Grafikkartenthread und fängst an von CPU´s zu reden.
 
Da kaufst du dir Ende 2015 eine ca. 700,- eur teure Nvidia 980ti oder eine ca. 1000,- eur Titan die mit DX12 beworben wird,und dann muss man froh sein wenn sie unter DX12 nicht langsamer wird?!? :daumen2:

Das ist der nächste Fall in dem Nvidia seine Kunden bewusst Täuscht genau wie mit dem Speicherskandal der Nvidia GTX 970 bei der der Treiber es mit allen Mitteln vermeidet das mehr als 3,5GB Vram genutzt werden obwohl 4GB verbaut sind:daumen2:
 
Was bleibt ist der CPU Overhead durch Emulation oder schlechtere Frametimes durch Verhackstückelung von Async Compute, in der langen eingleisigen Maxwell Pipeline. Wenn Fakewieder dann doch einen Wundertreiber bringt, wird der so awesome sein, dass er die "Vorteile" von beidem verbindet. Dann wird es nur ein bisschen schei**e. Und ausserdem ist das alles nur ein bedauerlicher Einzelfall von Fehlinformation, verursacht durch Missverständnisse mit der Marketingabteilung.
 
Was bleibt ist der CPU Overhead durch Emulation oder schlechtere Frametimes durch Verhackstückelung von Async Compute, in der langen eingleisigen Maxwell Pipeline. Wenn Fakewieder dann doch einen Wundertreiber bringt, wird der so awesome sein, dass er die "Vorteile" von beidem verbindet. Dann wird es nur ein bisschen schei**e. Und ausserdem ist das alles nur ein bedauerlicher Einzelfall von Fehlinformation, verursacht durch Missverständnisse mit der Marketingabteilung.
Sind die selben Missverständnisse wie Overclockersdream (die uns live präsentiert wurden) oder vollmundige Prozessorversprechen und am Ende ist man langsamer als der Vorgänger, jeder Hersteller übertreibt und verspricht zuviel. Am Ende muss man immer schauen was wirklich gestimmt hat, das ist halt leider Marketing. Ich habe mir die 980ti zum Beispiel weniger wegen dem Dx12 Support geholt (das ist ein Thema für mich mit der nächstne Generation) sondern wegen der Leistung in Dx11. Je nach Spiel waren die Einbußen von AMD einfach viel zu schlimm, ein Kollege hat mit der Fury z.B. in WoW Probleme die 60 fps zu halten während seine 770 vorher dies einwandfrei geschafft hat. Im Zweifel deaktivier ich einfach das Feature oder Spiele unter Directx11 was auch gut funktionieren wird.
 
Bei Nvidia ist gar keine Async Compute Hardware verbaut :lol:Sehr zukunftsweisend vor allem bei dem Anspruch und den Preisen von Nvidia :devil:

Jetzt kommt der selbe Trick wie bei der GTX 970 zum Einsatz bei dem der Treiber verzweifelt versucht nicht vorhandene oder nicht in vollem unfang vorhandene Hardware NICHT zu Nutzen:lol:
 
Der Einsatz von Async Comp. ist der Einsatz von DX 12.

EIner der Einsätze, ist aber nicht das Hauptaugenmerk. Es ist nur für die meisten interessant wegen der Mehrleistung.

Bei Nvidia ist gar keine Async Compute Hardware verbaut :lol:Sehr zukunftsweisend vor allem bei dem Anspruch und den Preisen von Nvidia :devil:

Jetzt kommt der selbe Trick wie bei der GTX 970 zum Einsatz bei dem der Treiber verzweifelt versucht nicht vorhandene oder nicht in vollem unfang vorhandene Hardware NICHT zu Nutzen:lol:

AMD ist nicht günstiger, die Preise halten sich momentan sehr die Wage. Und wenigstens bekommt Nvidia so etwas hin während man bei AMD erst einmal 5-6 Monate warten darf :p
 
AMD ist nicht günstiger, die Preise halten sich momentan sehr die Wage. Und wenigstens bekommt Nvidia so etwas hin während man bei AMD erst einmal 5-6 Monate warten darf :p

AMD kann Async Compute seit Mantle und es erscheint JEDEN Monat ein Treiber (ok wird als Beta bezeichnet, fehlt aber nur die WHQL Zertifizierung).
Außerdem hat AMD es noch nie geschafft per Treiber (eigene) Grafikkarten zu zerstören,
 
Zurück