Geforce 2018: Neue GPU-Generation kein Thema auf der Computex

1 ist die viel zu teuer und 2 es gibt sowieso keine Games für eine 1080 ti und erst recht nicht für 2 stk . Bevor du die Karte auslastest ist die Karte zu alt und zu langsam , und ich finde es schade ich würde mich Schwarz ärgern wenn ich so eine Karte hätte .

Häh? Wenn man die Karte auslasten kann ist sie zu langsam, weil sie zu alt ist, oder wie soll man das verstehen? Kriegt die dann Falten? Außerdem zum Thema keine Spiele: also ich hätte bei RoTTR gerne noch SSAA zugeschaltet, ging aber nicht, weil die Leistung gefehlt hat.
 
Dann ist eine 1080 was Leistung angeht auch nur Maxwell-Niveau. Schade. Pascal hat nichtmal ein eigenses Niveau geschaffen.

Ich schrieb "Leistung UND Stromverbrauch", ich werde das künftig besser herausheben, damit man es nichtmehr so einfach übersieht.

Es gab tatsächlich einige übertaktete GTX980Ti, die bis zu 40% mehr Leistung hatten, als das unübertaktete Original und damit die GTX 1080 FE um ca 10% schlagen konnten. Allerdings saugten diese, mit 350W auch knapp doppelt soviel aus dem Netzteil, wie die GTX 1080FE, mit 180W. Wenn man die beiden Architekturen vergleicht, dann sollte es schon der große Maxwellchip gegen den großen Pascalchip sein und dann sieht Maxwell alt aus, genau wie Vega.

Aber gut, so ändern sich die Zeiten. Bei der GTX 480 hieß es, bei der AMD Fraktion noch "Ökogaming FTW!, HD 5870 rulez!!!" und das obwohl die GTX 480 20-40% schneller war und 1,5 GB RAM hatte (man konnte damals wirklich glauben, die Gamingzukunft wäre für einige IGPs in 15W CPUs), heute ist den AMDlern der Stromverbrauch egal, der kommt aus der Steckdose und die anderen negativen Konsequenzen sind zu vernachlässigen. Man dreht es sich eben so wie man es braucht.
 
Aber gut, so ändern sich die Zeiten. Bei der GTX 480 hieß es, bei der AMD Fraktion noch "Ökogaming FTW!, HD 5870 rulez!!!" und das obwohl die GTX 480 20-40% schneller war und 1,5 GB RAM hatte (man konnte damals wirklich glauben, die Gamingzukunft wäre für einige IGPs in 15W CPUs), heute ist den AMDlern der Stromverbrauch egal, der kommt aus der Steckdose und die anderen negativen Konsequenzen sind zu vernachlässigen. Man dreht es sich eben so wie man es braucht.

Ich gehöre zu keiner AMD-Fraktion und kann dir trotzdem sagen, dass du Unsinn redest. Die Leistungsaufnahme ist ein Kaufkriterium, aber nicht das einzige.

Über Thermi kann man sich deswegen super lustig machen, weil einige hier im Forum immer so tun, als sei NVidia der gottgegebene Stromsparkönig - und schon immer gewesen.
 
Aber gut, so ändern sich die Zeiten. Bei der GTX 480 hieß es, bei der AMD Fraktion noch "Ökogaming FTW!, HD 5870 rulez!!!" und das obwohl die GTX 480 20-40% schneller war und 1,5 GB RAM hatte
Kann ich mich nicht so dran erinnern, der Stromverbrauch wurde eigentlich erst mit Maxwell so richtig gehypt. Zudem war die GTX 480 laut CB-Rating 10-12% schneller als eine HD 5870, dafür aber auch gut 30% teurer.
 
Ist doch ziemlich einfach Nvidia hat noch keine GDDR6 Chips und ohne die keine Karten . Ohne eine lauffähige Karte lohnt es sich nicht aauf der Computex die neue Gen. zu zeigen.
 
Ich gehöre zu keiner AMD-Fraktion und kann dir trotzdem sagen, dass du Unsinn redest. Die Leistungsaufnahme ist ein Kaufkriterium, aber nicht das einzige.
Aber eben ein sehr Wichtiges Kriterium.

Über Thermi kann man sich deswegen super lustig machen, weil einige hier im Forum immer so tun, als sei NVidia der gottgegebene Stromsparkönig - und schon immer gewesen.
Herrje, das muss dir ja in der Seele weh tun :rolleyes:

Seit Fermi hat NVIDIA viel R&D in Perf/Watt gesteckt und ist heute weit vor der Konkurrenz - was da vor 8 oder 9 Jahren mal war, ist doch völlig irrelevant.

Kann ich mich nicht so dran erinnern, der Stromverbrauch wurde eigentlich erst mit Maxwell so richtig gehypt. Zudem war die GTX 480 laut CB-Rating 10-12% schneller als eine HD 5870, dafür aber auch gut 30% teurer.
Fermi war eben schneller, aber teurer und höherer Leistungsaufnahme. AMD ist mit Vega heute langsamer, teurer und hat die höhere Leistungsaufnahme. Der Vergleich hinkt hier massiv. Wäre Vega viel schneller als die 1080Ti, hätte niemand ein Problem mit der Leistungsaufnahme und dem Preis.
 
Aber eben ein sehr Wichtiges Kriterium.

Das entscheidet ja wohl jeder selbst. Hätte es zum Kaufdatum eine bezahlbare Vega 64 gegeben, vermutlich wäre mir Freesync wichtiger gewesen. So gab es halt leider keine Alternative zur GTX1080.

Herrje, das muss dir ja in der Seele weh tun :rolleyes:

Nö, ich hatte damals weder eine GTX480, noch die Konkurrenz von AMD. Thermi wird aber vielzu oft verdrängt und dann von den "schon immer" ineffizienten AMD/ATI-Karten gesprochen.
 
Das entscheidet ja wohl jeder selbst. Hätte es zum Kaufdatum eine bezahlbare Vega 64 gegeben, vermutlich wäre mir Freesync wichtiger gewesen. So gab es halt leider keine Alternative zur GTX1080.
Ein Großteil der Käufer entscheidet sich ähnlich -> Die Leistungsaufnahme ist heute ein sehr wichtiges Kriterium.

Nö, ich hatte damals weder eine GTX480, noch die Konkurrenz von AMD. Thermi wird aber vielzu oft verdrängt und dann von den "schon immer" ineffizienten AMD/ATI-Karten gesprochen.
Fermi ist nun knapp 10 Jahre her. Wen interessiert es bitte für die heutige Wahl/Kaufentscheidung, wie die Situation vor 10 Jahren aussieht? Niemanden.
 
Man darf auch nicht vergessen, dass hauptsächlich der GF100 und GF110 besonders schlimm waren. In der Mittelklasse sah das schon ein bisschen anders aus. Die Effizienz bei Nvidia wird nicht zuletzt durch das sukzessive Abbauen von DP-Leistung erreicht worden sein. Ich glaub da schlägt eine GTX580 noch so manche aktuelle Nicht-Profi-Karte. Habe da mal irgendwann einen Benchmark gesehen, war ganz witzig.
 
Ich gehöre zu keiner AMD-Fraktion und kann dir trotzdem sagen, dass du Unsinn redest. Die Leistungsaufnahme ist ein Kaufkriterium, aber nicht das einzige.

Habe ich das jemals behauptet?

Nein!

Also unterstelle mir nichts, das ich nicht gesagt habe.

Du gibt ja selbst zu, dass es ein Kriterium ist und da sieht AMD leider extrem mies aus. Der Punkt ist, dass es dafür eine gewisse Entschädigung geben muß, damit die Scharte ausgewetzt wird, sei es im Preis, der Austattung (mehr RAM) oder mehr Funktionen (PhysX, Free-/GSync usw). Tatsache is, dass AMD den Kunden dafür nicht entschädigt (bzw. bei der RX 580/570 nicht hinreichend) und deshalb bleibt AMD, im Moment, die deutlich schlechtere Wahl. Technisch gesehen ist Nvidia eh zwei Generationen vor AMD, sogar zwei, wenn man Volta mitzählt.

Über Thermi kann man sich deswegen super lustig machen, weil einige hier im Forum immer so tun, als sei NVidia der gottgegebene Stromsparkönig - und schon immer gewesen.

Das hat auch wieder keiner behauptet.

Wirklich lustig ist dabei, dass man den ganzen AMD Jüngern vorhalten kann, dass die Graphikprodukte ihres geliebten Konzerns, nach ihrer eigenen Argumentation, seit der HD 7970, totaler Mist sind und in den Elektroschrott gehören.

Kann ich mich nicht so dran erinnern, der Stromverbrauch wurde eigentlich erst mit Maxwell so richtig gehypt.

Du solltest zum Arzt gehen und dich untersuchen lassen ;)

Der Stromverbrauch kochte das erste mal bei der GeForce 5 5800 Ultra so richtig hoch, die (durchaus zu recht) als Stromfressendes, lärmendes Monster verschrien war. Danach kam er bei der HD 1900XTX hoch, die auch ein stromfressendes lärmendes Monster war (ca. 50% Mehrverbrauch), genau wie die HD 2900XT (die obendrein 20% langsamer als eine 8800GTX war), es ging weiter mit der GTX 280.

Mit der GTX 480 wurde es allerdings so richtig krass, da wurde von den AMD Jünger gabasht was das Zeug hielt. Man konnte fast glauben, die Gamingszene wäre von einem Haufen Ökohippies unterwandert worden, so ging es da zu.

Bei der HD 7970 war es wieder ein Thema, genauso bei Maxwell, wobei AMD in beiden Fällen die Käufer mit mehr RAM (50-100% sind eine Ansage) und günstigen Preisen entschädigt hat. Nur die Fury X war großer Mist (130W Mehrverbrauch und ein Drittel weniger RAM, als die GTX 980Ti)

Im wesentlichen lief es damals so ab: die GTX 980 braucht 100W weniger als eine R9 390X ->dafür ist die R9 390X 100€ billiger und hat den doppelten RAM.

Zudem war die GTX 480 laut CB-Rating 10-12% schneller als eine HD 5870, dafür aber auch gut 30% teurer.

Es kam stark auf das Spiel an. DX 9 Titel sind der Karte meist richtig gut gelegen, DX 10 auch, bei DX 11 holte die HD5870 auf. Allerdings konnte die GTX 480 ihre Stärke beim AA und AF voll ausspielen,da lag sie teilweise richtig weit vorne. Die volle Spanne, des Vorsprungs, beträgt etwa 5-60%, was nun zählt kann jeder für sich entscheiden. Wer es mit Nvidia meint, der wird darauf verweisen, dass hauptsächlich das zählt, was schon erschienen ist, bzw. in den nächsten 2 Jahren kam und dass sowieso immer mit vollem AA und AF gezockt wird, der Vorsprung beträgt dann 40-60%. AMD Jünger werden darauf verweisen, dass der Vorsprung gering ist, wenn man die Karte bis zum Ende auslutschen will (dann verwendet man eh kein AA und AF mehr, da man sowieso Details reduzieren muß) und es obendrein noch eine (eher seltene) 2GB Variante der HD 5870 gibt, mit der die GTX 480 dann verglich werden soll, der Vorsprung beträgt dann eben nur diese 10%.

Mit 20-40% ist man mMn ganz gut dabei, es bildet die Situation von damals gut ab.

Hier ein Test der Gamestar, wobei hier die DX 9 Spiele sträflich vernachlässigt wurden:
https://www.gamestar.de/artikel/nvi...ch,2313694,seite3.html#benchmarks-4x-aa-8x-af
 
Ein Großteil der Käufer entscheidet sich ähnlich -> Die Leistungsaufnahme ist heute ein sehr wichtiges Kriterium.
Glaub ich nicht, selbst die ab Werk übertakteten Customs laufen außerhalb des Sweet Spots und fressen ganz gut, die Leute mit einer 2GHz 1080 müssen mir nichts von Strom sparen erzählen.

Die meisten Leute kaufen Nvidia weil Nvidia drauf steht, sieht man am besten an der aktuellen 1060. Noch nie waren zwei GPUs im gleichen Preis- und Leistungssegment von den Kontrahenten so ähnlich, wobei die RX 580 mit mehr RAM und im Schnitt ein paar Prozentchen mehr Leistung sogar (imo) die bessere Alternative ist, aber davon mal ab sind die Karten nahezu identisch was Leistung, Preis und Verbrauch an geht. Trotzdem haben wir hier keine 1:1 Verteilung in den Verkäufen sondern laut Steam 46:1. Wie man sieht, kann AMD sowieso machen was sie wollen, sie sind anscheinend für die meisten Leute eh nur der Preisdrücker. Darum hoffe ich auf schön gesalzene Preise für Turing, schließlich hat sich Nvidia das Geld auch redlich verdient :)
 
Glaub ich nicht, selbst die ab Werk übertakteten Customs laufen außerhalb des Sweet Spots und fressen ganz gut, die Leute mit einer 2GHz 1080 müssen mir nichts von Strom sparen erzählen.
Ne Custom 1080 bei 2 GHz hat auch ne ganz andere Leistung als die Vega64, die kann da komplett einpacken.

Die meisten Leute kaufen Nvidia weil Nvidia drauf steht
Nö. Jahrelang haben NVIDIA/AMD ein Marktverhältnis von ca. 60/40 geteilt. Mit dem großen Abstand in Sachen Perf/Watt ab Maxwell ist es sofort Richtung 80/20 gegangen und bis heute hat sich AMD - trotz Miner - nicht davon erholt. Bei Steam ist es sogar noch brutaler, da liegt der Marktanteil NVIDIA/AMD irgendwo im Berich 95 zu 5 oder so.

sieht man am besten an der aktuellen 1060. Noch nie waren zwei GPUs im gleichen Preis- und Leistungssegment von den Kontrahenten so ähnlich, wobei die RX 580 mit mehr RAM und im Schnitt ein paar Prozentchen mehr Leistung sogar (imo) die bessere Alternative ist, aber davon mal ab sind die Karten nahezu identisch was Leistung, Preis und Verbrauch an geht.
Erzähle bitte keinen Stuss:
Radeon RX 580 & RX 570 im Test: Polaris-Refresh mit Taktplus [Update: Leistungsaufnahme]
Die RX580 nimmt fast das Doppelte (!) an Leistung vergleichen mit der GTX1060 auf und du erzählt hier was von "nahezu identisch". Kein Wunder, dass du da verwundert bist, warum niemand die RX580 kauft. Den Leuten ist Leistungsaufnahme wichtig und du hast offensichtlich keinen blassen Schimmer, wie die wirkliche Realität in Sachen Leistungsaufnahme aussieht.
 
Nö, ich hatte damals weder eine GTX480, noch die Konkurrenz von AMD. Thermi wird aber vielzu oft verdrängt und dann von den "schon immer" ineffizienten AMD/ATI-Karten gesprochen.

Da gibt es auch nicht viel zu verdrängen. Wenn man die Kirche im Dorf läßt, dann hat Nvidia 40% mehr Strom, für damals 20-40% mehr Leistung gebraucht, nüchtern betrachtet ein akzeptabler wert, üblich bei High End.

Die AMD Jünger erinnern sich nicht daran, weil dann jedem klar wird, dass AMD heute viel schlimmer ist. Vega 64LC Vs GTX 1080Ti: 50% mehr Stromverbrauch bei 10-20% WENIGER Leistung.

AMD ist etwa seit der HD 7970 ineffzienter, also seit gut 6 Jahren und war es vor der HD 3870 bis runter zur X800. Effizienz ist ist nicht so die Domäne von AMD, teilweise ist das auch Absicht, kleine, billige GPUs, die dann hoch takten.

Glaub ich nicht, selbst die ab Werk übertakteten Customs laufen außerhalb des Sweet Spots und fressen ganz gut, die Leute mit einer 2GHz 1080 müssen mir nichts von Strom sparen erzählen.

Die Karten sind dann aber immer noch wesentlich effizienter, als ihre Vega Gegenstücke und darum geht es. Wer auf Ökogaming steht, der sollte sich nichts über einer GTX 1050Ti kaufen, mit 75W ist man da bestens unterwegs.

Die meisten Leute kaufen Nvidia weil Nvidia drauf steht, sieht man am besten an der aktuellen 1060. Noch nie waren zwei GPUs im gleichen Preis- und Leistungssegment von den Kontrahenten so ähnlich, wobei die RX 580 mit mehr RAM und im Schnitt ein paar Prozentchen mehr Leistung sogar (imo) die bessere Alternative ist, aber davon mal ab sind die Karten nahezu identisch was Leistung, Preis und Verbrauch an geht. Trotzdem haben wir hier keine 1:1 Verteilung in den Verkäufen sondern laut Steam 46:1. Wie man sieht, kann AMD sowieso machen was sie wollen, sie sind anscheinend für die meisten Leute eh nur der Preisdrücker. Darum hoffe ich auf schön gesalzene Preise für Turing, schließlich hat sich Nvidia das Geld auch redlich verdient :)

Quatsch, die RX 580 hat eine TDP von 185W und die GTX 1060 von lediglich 120W, das sind 35% weniger.

Dein Vergleich würde nur eins beweisen:
Ökopower Rulez the World! AMD kann mit seinen Stromschluckern einpacken!

Was du leider nicht berücksichtigt hast, ist der Miningboom. Die RX 580 lange Zeit wesentlich teurer, als die GTX 1060 und quasi nicht erhältlich, logisch, dass die nicht bei Steam aufgeführt werden, wenn sie in irgendwelchen Miningfarmen verbaut sind. Auch heute sind die RX 580 Karten im Schnitt noch 20€ teurer, als die GTX 1060 Gegenstücke. Wenn du etwas bessere Zahlen willst, dann nimm die RX 480, die gab es wenigstens über ein halbes Jahr zu einem super Preis (bis zu 220€ für die 8GB Version waren drin).
 
Zuletzt bearbeitet:
Da gibt es auch nicht viel zu verdrängen. Wenn man die Kirche im Dorf läßt, dann hat Nvidia 40% mehr Strom, für damals 20-40% mehr Leistung gebraucht, nüchtern betrachtet ein akzeptabler wert, das üblich bei High End.

Die AMD Jünger erinnern sich nicht daran, weil dann jedem klar wird, dass AMD heute viel schlimmer ist. Vega 64LC Vs GTX 1080Ti: 50% mehr Stromverbrauch bei 10-20 WENIGER Leistung.
Verstehe auch wirklich nicht, wie man diese zwei völlig unterschiedlichen Szenarien in einen Hut wirft. Außer natürlich, man muss sich seine Lieblingsfirma schön reden. Passt dann auch wunderbar mit so dämlichen Buzzwords, wie "Thermi" :rolleyes:
 
Verstehe auch wirklich nicht, wie man diese zwei völlig unterschiedlichen Szenarien in einen Hut wirft. Außer natürlich, man muss sich seine Lieblingsfirma schön reden. Passt dann auch wunderbar mit so dämlichen Buzzwords, wie "Thermi" :rolleyes:

Ach, ich finde Thermi nicht so schlimm. War halt eine heiße Sache damals und der Name hat sich ja angeboten. Ich hatte meine 580 damals trotzdem lieb, aber war auch froh, dass die nachfolgende 970 deutlich effizienter war. Vermutlich ist aber auch genau wegen dieser Zeit die Trennung zwischen Profi- und Gamingkarten verstärkt worden. GF100 und GF110 hatten viel zu viel für Gamer unnötigen Ballast an Bord.
 
Ne Custom 1080 bei 2 GHz hat auch ne ganz andere Leistung als die Vega64, die kann da komplett einpacken.

Ja klar, träum weiter.


Erzähle bitte keinen Stuss:
Radeon RX 580 & RX 570 im Test: Polaris-Refresh mit Taktplus [Update: Leistungsaufnahme]
Die RX580 nimmt fast das Doppelte (!) an Leistung vergleichen mit der GTX1060 auf und du erzählt hier was von "nahezu identisch". Kein Wunder, dass du da verwundert bist, warum niemand die RX580 kauft. Den Leuten ist Leistungsaufnahme wichtig und du hast offensichtlich keinen blassen Schimmer, wie die wirkliche Realität in Sachen Leistungsaufnahme aussieht.

Keine Sau interessiert die Leistungsaufnahme abseits von Hardwareforen. Jedem den ich den Rechner aufrüste oder berate interessiert sich nicht die Bohne für dieses Thema, Hauptsache die Games laufen.Alles anderer ist wurscht.

Eine 580er bietet überdies auch mehr Vram, ist OC freundlicher und von Haus aus schon schneller als eine 1060er.
 
Ja klar, träum weiter.
GTX1080 @ 2 GHz bedeutet ein OC von 15%. Das schafft keine Vega aufzuholen.

Keine Sau interessiert die Leistungsaufnahme abseits von Hardwareforen. Jedem den ich den Rechner aufrüste oder berate interessiert sich nicht die Bohne für dieses Thema, Hauptsache die Games laufen.Alles anderer ist wurscht.
Dann erkläre mir doch bitte, warum sich die Marktanteile um 20 Prozentpunkte zugunsten von NVIDIA verändert haben zu Maxwellzeiten. Obwohl es durchaus gleichwertige Hardware von AMD gab - aber eben mit viel zu hoher Leistungsaufnahme.

Der Name NVIDIA kann es ja nicht sein, den hatten auch schon die Karten vor Maxwell :ugly:

Eine 580er bietet überdies auch mehr Vram, ist OC freundlicher und von Haus aus schon schneller als eine 1060er.
Eine 580er OC freundlicher? Bei Doppelter Leistungsaufnahme? Kollege, erzähle bitte keinen Stuss.
 
Zurück