Nvidia Pascal: Geforce GTX 1080 angeblich im Mai mit 8 GiByte GDDR5(X)

Ich würde behaupten das es ganz auf die neuen Spiele Generationen ankommt, sonst bräuchte man kaum neuere Chips.
Da frage ich mich was kommt nach Pascal GP100 und 16 Gbyte HBM2?
Die letzte gekaufte Karte?
Bis dahin kann man evtl schon 16 Gbyte voll bekommen.
Es muss ja weiterhin verkauft werden.
Auf jeden Fall werden sie nicht billiger.
;) aber wenigstens schneller und etwas sparsamer.
 
Zuletzt bearbeitet:
mit dem oc war nur als beispiel gedacht.

muss ja ein grund geben wieso bisher halt immer gesagt wurde mit hynix is oc schlechter zu machen wäre.
amd aber von denen fertigen lässt, kosten-gründe?!

Hynix ist bisher als der eigentlich beste OC-Speicher bekannt (etwas besser als Samsung). Das Problem gab es damals bei den r9 290, als auf den ersten Modellen entweder Hynix oder Elpida gab und letzterer war kaum übertaktbar. Da spielt dir also deine Erinnerung wohl einen Streich.
 
Endlich mal neue Infos auch wenn ich gern mehr Input hätte.
Das wird sicher ein lecker Kärtchen als 1080Ti mit GDDR5X, flotter Speicher und sicher auch sparsamer aber für mich noch kein Grund umzusteigen. Zumindest nicht bevor HBM2 mit eingplant wurde.
Die GPU müsste letztendlich eh das doppelte an Leistung des jetzigen Maxwell haben, dann bin ich bereit mehr als 1000 Euro hinzulegen.
Hm, was habe ich da gerade gesagt?


Also doppelte Power einer 980Ti... da würde ich auch n 1000er für hin packen. Egal ob AMD oder nvidia. Aber ich denke mal die 1080 ist höchstens 20% schneller als ne 980Ti und die 1080Ti im besten Fall 50%. Und wenn nivia wieder 750€ dafür haben will muss ich da echt gründlich drüber nachdenken. Und ohne AC in Hardware sowieso nicht.
 
Hynix ist bisher als der eigentlich beste OC-Speicher bekannt (etwas besser als Samsung). Das Problem gab es damals bei den r9 290, als auf den ersten Modellen entweder Hynix oder Elpida gab und letzterer war kaum übertaktbar. Da spielt dir also deine Erinnerung wohl einen Streich.
Sorry, aber das ist wirklich Schmarren! Ich hatte bisher außer meiner jetzigen GTX 970 MSI Gaming ausschließlich Hynix Speicher auf meinen Grafikkarten verbaut und diese erwiesen sich im Bezug auf OC immer sehr Zickig und so gar nicht willig. Klar konnte ich diesen Hynix Speicher übertakten, aber das OC hielt sich doch sehr in Grenzen. Vor der GTX MSI Gaming hatte ich ein GTX 970 Gaming G1 von Gigabyte, da konnte ich den Hynix Speicher bis +280 MHz übertakten, alles darüber wurde mit Treiber abstürzen oder Artefakte quittiert.

In meinem Freundes u. Bekanntenkreis gibt es einige die den Samsung Speicher auf Ihrer Grafikkarte verbaut hatten und das was ich dort gesehen hab war, das diese sich sehr gut übertakten ließen. Da waren +500 MHz eigentlich noch das geringste, meist ging der Samsung Speicher ohne Mühe auf +700 /800/900 MHz Stabil und durch alle Benchmarks.

Und jetzt zu meiner MSI GTX 970 Gaming, diese hat den Elpida Speicher verbaut und nachdem was man so alles Negative schon über diesen Speicher geschrieben hat, dachte ich, das mit dem Speicher übertakten kann ich wohl vergessen. Aber dem ist überhaupt nicht so, ich habe diesen bisher auf +650 MHz übertaktet ohne jegliche Artefakte, mehr wollte ich dann aber auch nicht testen. In Games kann ich ohne Probleme auf +500 [4000 MHz] gehen, ohne das der Treiber abstürzt oder zurückgestellt wird. Im 3DMark Firestrike laufen die +650 MHz [4158 MHz] ebenfalls ohne Probleme durch.

So viel zu Hynix ist eigentlich der beste OC Speicher!

Hier mal ein Screen Shot aus COD Black Ops III mit meiner MSI GTX 970
MSI GTX 970 Ingame Screen WQHD Settings Vram Last.jpg
 
Zuletzt bearbeitet:
So wie sich Nvidia auschweigt zu DX12 Pfadtreibern und auch bei den TGMTPB Programm der DX 12 Schleppt, würde ich meinen Arsch drauf verwetten dass ACE in Hardware fehlt.
Naja Soll mir egal sein, Volta wird wohl ACE dann endlich bringen.. Mal sehen was man mit Mixed Precision erreichen kann
Gabs ähnliche Annahmen nicht auch für das Nicht-Vorhanden-Sein von Unified Shader in der Nvidia G80?
 
Sorry, aber das ist wirklich Schmarren! Ich hatte bisher außer meiner jetzigen GTX 970 MSI Gaming ausschließlich Hynix Speicher auf meinen Grafikkarten verbaut und diese erwiesen sich im Bezug auf OC immer sehr Zickig und so gar nicht willig. Klar konnte ich diesen Hynix Speicher übertakten, aber das OC hielt sich doch sehr in Grenzen. Vor der GTX MSI Gaming hatte ich ein GTX 970 Gaming G1 von Gigabyte, da konnte ich den Hynix Speicher bis +280 MHz übertakten, alles darüber wurde mit Treiber abstürzen oder Artefakte quittiert.

In meinem Freundes u. Bekanntenkreis gibt es einige die den Samsung Speicher auf Ihrer Grafikkarte verbaut hatten und das was ich dort gesehen war, das diese sich sehr gut übertakten ließen. Da waren +500 MHz eigentlich noch das geringste, meist ging der Samsung Speicher ohne Mühe auf +700 /800/900 MHz Stabil und urch alle Benchmarks.

Und jetzt zu meiner MSI GTX 970 Gaming, diese hat den Elpida Speicher verbaut und nachdem was man so alles Negative schon über diesen Speicher geschrieben hat, dachte ich, das mit dem Speicher übertakten kann ich wohl vergessen. Aber dem ist überhaupt nicht so, ich habe diesen bisher auf +650 MHz übertaktet ohne jegliche Artefakte, mehr wollte ich dann aber auch nicht testen. In Games kann ich ohne Probleme auf +500 [4000 MHz] gehen, ohne das der Treiber abstürzt oder zurückgestellt wird. Im 3DMark Firestrike laufen die +650 MHz [4158 MHz] ebenfalls ohne Probleme durch.

So viel zu Hynix ist eigentlich der beste OC Speicher!

Hier mal ein Screen Shot aus COD Black Ops III mit meiner MSI GTX 970
Anhang anzeigen 885640

Das ist echt egal wo der Speicher Herkommt von welcher Firma. Das Problem ist ganz einfach das es bei 4 Gb 8 chips sind,
was heißt ist nur einer der 8 etwas schlechter betrifft es alles Chip. Das kann dir bei jedem Hersteller passieren ist einfach eine
Glücks Sache sicherlich gibt es Tendenzen bei Gewissen Firmen aber die Unterschiede sind eher unbedeutend.
Genauso wie man nicht sagen kann ich kauf mir die GPU von Hersteller X weil bei einem Freund läuft die so und so.
 
Gabs ähnliche Annahmen nicht auch für das Nicht-Vorhanden-Sein von Unified Shader in der Nvidia G80?

Du vergisst nur, dass Unified Shader, nicht auch noch einen neuen DX Pfad bekamen.. Man hat nur die Architektur abgewandelt..Ausserdem wenn der Chip echt im Sommer 2015 Tapeout hatte befürchte ich, dass erst GP110/100 ACE haben wird. Es bleibt auch Intressant ob der GP104 reicht um wieder 500-700€ zu nehmen oder ob Polaris nicht ein paar Überraschungen offen hat. Derzeit vermute ich den GP104 bei 980Ti Niveau, warum der 225W Anschluss bekommt, verstehe ich aber nicht. Aber weder NV noch AMD werden gleich ihr Pulver verschießen
 
Wenn AMD effizienter ist, gute Treiber bringt und DX12 umfassend unterstützt, wünsche ich ihnen die Beste Zukunft, aber gerade beim letzten Punkt mache ich mir Sorgen und das ist wesentlich entscheidender, als ob die Konkurrenz jetzt Async Compute per Hardware unterstützt oder nicht.
 
LOL endlich eine FullHD Karte Geforce GTX 1080(p)

Wenn AMD effizienter ist, gute Treiber bringt und DX12 umfassend unterstützt, wünsche ich ihnen die Beste Zukunft, aber gerade beim letzten Punkt mache ich mir Sorgen und das ist wesentlich entscheidender, als ob die Konkurrenz jetzt Async Compute per Hardware unterstützt oder nicht.
Die GCN-Karten haben Async Compute per Hardware-Support.
 
Wenn AMD effizienter ist, gute Treiber bringt und DX12 umfassend unterstützt, wünsche ich ihnen die Beste Zukunft, aber gerade beim letzten Punkt mache ich mir Sorgen und das ist wesentlich entscheidender, als ob die Konkurrenz jetzt Async Compute per Hardware unterstützt oder nicht.
Naja, im Moment mach ich mir in Bezug auf DX12 deutlich mehr Sorgen um Nvidia als um AMD. Bisher sind alle Maxwell Chips ohne Ausnahme in den Benchmarks gnadenlos eingeknickt. Und wenn eine R9 390 aus dem Midrange [Oberklasse] Segment, die GTX 980Ti High End Segment, die ja zum Teil schneller ist als das Flaggschiff von Nvidia [die TitanX], in DX12 in Bedrängnis bringt, dann hat Nvidia leider wirklich etwas völlig falsch gemacht. Auch wenn Nvidia zunächst beruhigt und einen Treiber in Aussicht gestellt hat, der sich diesem Problem annehmen soll, so war zumindest in Hitman keine Leistungssteigerung mit dem nachgereichten Feature zu sehen.

Klar kann man sagen Async Compute wird nicht in jedem DX12 Game eine solche Rolle spielen, beruhigt die User aber bisher auch nicht. Und das sich Nvidia nicht mal zu den bisherigen Benchmarks und dem Desater der Maxwell Chips erklärt hat, hat wohl die Verunsicherung der Besitzer dieser Grafikkarten nur noch mehr beunruhigt. Und sollte AMD im Sommer wie angekündigt die Polaris Grafikkarten auf den Markt bringen in Form eines Pendant zu der angekündigten GTX 1080 mit GDDR5 Speicher, diese dann noch eine deutlich bessere Effizienz haben als die bisherigen AMD Grafikkarten und einen GDDR5X Speicher[ist wohl am wahrscheinlichsten] oder gar einen HBM2 Speicher [eher unwahrscheinlich aber nicht unmöglich] besitzt, dann könnte Nvidia richtig in Schwierigkeiten kommen.
 
Es gibt bisher 3(4) DX12 Spiele:
Ashes, Hitman und Tomb Raider:

Ashes of the Singularity DirectX-12-Leistungsexplosion (Seite 2) - ComputerBase
DirectX 12 fur Rise of the Tomb Raider (Seite 2) - ComputerBase
Hitman Benchmarks mit DirectX 12 (Seite 2) - ComputerBase
(+ Gears of War)

In den meisten Fällen verliert Nvidia wenige % Performance. Das alle Maxwell Chips ohne Ausnahme gnadenlos einknicken, eh, ich sage mal nichts weiter dazu. :schief:

Ashes ist ein Sternenkind was die DX12 vs. DX11 Performance bei AMD angeht.
Tomb Raider ist bisher praktisch kaputt auf Radeons.
Bei Hitman profitieren die Radeons ziemlich wenig von DX12.
AMD ist schon unter DX11 ein gutes Stück stärker, als die Konkurrenz.
(Gears of War hatte GCN Gen3 Probleme, Performance Messungen gab es bisher keine weitreichenden)

Ich kann es nicht ganz nachvollziehen, wieso sich einige an Async Compute festbeißen. Die Vorteile sind selbst bei AMD nicht unglaublich, nett, aber nicht überragend.
Und das ist ein Vorteil den AMD für ihre Architektur genießt, die Konkurrenz muss gar nicht im selben Ausmaß profitieren, selbst wenn sie es unterstützen.
Das ganze implementiert man auch nicht kostenlos und auf der anderen Seite kann man auch "einfach" die Kosten für einen Switch verbessern.
Ich sehe das auch in der Zukunft unkritisch, ob Nvidia/Intel Async Compute per Hardware unterstützen oder nicht, solange die Performance allgemein passt, ist es egal.

Hier ist aber eig. die wesentliche Sache. Jedenfalls bei Ashes und Hitman ist die AMD Performance generell sehr gut.
Nvidia hat grundlegend Konkurrenzdruck und das nicht wegen Async Compute (alleine).

Das Pascal gewisse Stellen anpacken sollte, ist natürlich auch klar. Das gleiche gilt für Polaris, der am Besten CR und ROVs unterstützt, tolle Features um viele Algorithmen günstiger zu bekommen und wenn Spiele es verwenden, könnte man ganz von grafischen Effekten ausgeschlossen sein, denn anders als bei Async Compute gibt es hier keine Garantie dafür, dass es auch ohne funktioniert.
 
Ich kann es nicht ganz nachvollziehen, wieso sich einige an Async Compute festbeißen. Die Vorteile sind selbst bei AMD nicht unglaublich, nett, aber nicht überragend.
Und das ist ein Vorteil den AMD für ihre Architektur genießt, die Konkurrenz muss gar nicht im selben Ausmaß profitieren, selbst wenn sie es unterstützen.
Das ganze implementiert man auch nicht kostenlos und auf der anderen Seite kann man auch "einfach" die Kosten für einen Switch verbessern.
Ich sehe das auch in der Zukunft unkritisch, ob Nvidia/Intel Async Compute per Hardware unterstützen oder nicht, solange die Performance allgemein passt, ist es egal.

so ganz stimmt das ja nicht, viele Spieler haben doch gesagt dass die Average Frames spürbar anziehen sprich selbst wenn die Min/Max sich im gleiche Bereich bewegen spielt sich das gesamte Spiel etwas flüssiger, man müsste einfach mal die average Frames auch mal ermitteln, also FPS/Gesamtzeit der Messung
 
Vielleicht wird dann die GTX 980ti endlich bezahlbar da das neue Zeugs eh überteuert ist
 
Zurück