Geforce 2018: Neue GPU-Generation kein Thema auf der Computex

Erzähle bitte keinen Stuss:
Radeon RX 580 & RX 570 im Test: Polaris-Refresh mit Taktplus [Update: Leistungsaufnahme]
Die RX580 nimmt fast das Doppelte (!) an Leistung vergleichen mit der GTX1060 auf und du erzählt hier was von "nahezu identisch". Kein Wunder, dass du da verwundert bist, warum niemand die RX580 kauft. Den Leuten ist Leistungsaufnahme wichtig und du hast offensichtlich keinen blassen Schimmer, wie die wirkliche Realität in Sachen Leistungsaufnahme aussieht.

Also ich sehe bei THG eher 50W Unterschied und das mit mehr RAM Chips, die auch noch was von der Differenz abhaben wollen. So ein riesen Unterschied ist das ganz sicher nicht, zumal wir ja alle wissen, das AMD GPUs sehr konservativ mit dem VCore umgehen und sich das mit etwas UV nochmal deutlich bessert.Für die Differenz lohnt sich das sicher noch nicht, ein Fass aufzumachen. Zumindest nicht bei mir.
 
GTX1080 @ 2 GHz bedeutet ein OC von 15%. Das schafft keine Vega aufzuholen.


Dann erkläre mir doch bitte, warum sich die Marktanteile um 20 Prozentpunkte zugunsten von NVIDIA verändert haben zu Maxwellzeiten. Obwohl es durchaus gleichwertige Hardware von AMD gab - aber eben mit viel zu hoher Leistungsaufnahme.

Der Name NVIDIA kann es ja nicht sein, den hatten auch schon die Karten vor Maxwell :ugly:


Eine 580er OC freundlicher? Bei Doppelter Leistungsaufnahme? Kollege, erzähle bitte keinen Stuss.

Ähm ja....
M64 High OC Ultra.jpg M64 High OC 1080 Extrem.jpg

Da geht mit WaKü auch noch deutlich mehr.

Eine 580er ist in jeder Hinsicht OC freundlicher, beim PT, beim Bios, bei den Ram Timings etc.
Das alles geht bei einer 1060er nicht oder nur unter massiven Aufwand(Shunts etc.)
 
Also ich sehe bei THG eher 50W Unterschied
Ich sehe da 180W im Gaming, keine 1060.

Normale TDP der 1060 ist 120W, als sind 180W + 50% mehr. Du hattest behauptet, es gäbe fast keinen Unterschied. Das ist nachweislich - auch nach deinen Quellen - falsch.

Für die Differenz lohnt sich das sicher noch nicht, ein Fass aufzumachen. Zumindest nicht bei mir.
Dir wäre es also egal, ob dein Auto 6 oder 9l auf 100km verbraucht? Glaube ich nicht.

Eine 580er ist in jeder Hinsicht OC freundlicher, beim PT, beim Bios, bei den Ram Timings etc.
Wenn die 580 so ein Übertaktungswunder wäre, warum verlinkst du dann irgendwelche Vega-Screenshots? :lol:

Das alles geht bei einer 1060er nicht oder nur unter massiven Aufwand(Shunts etc.)
Schauen wir mal so bei den Werksübertaktungen:
RX580: 1425 Mhz(+ 6 %)
1060: 1873 (+ 9%)

Sieht für mich eher so aus, als liese sich die 1060 besser übertakten.
 
Also ich sehe bei THG eher 50W Unterschied und das mit mehr RAM Chips, die auch noch was von der Differenz abhaben wollen. So ein riesen Unterschied ist das ganz sicher nicht, zumal wir ja alle wissen, das AMD GPUs sehr konservativ mit dem VCore umgehen und sich das mit etwas UV nochmal deutlich bessert.Für die Differenz lohnt sich das sicher noch nicht, ein Fass aufzumachen. Zumindest nicht bei mir.

Versuch dich nicht so aus der Sache rauszumogeln.

Du hast argumentiert dass die GTX 1060 sich nur soviel besser verkauft, weil Nvidia draufsteht, da der Stromverbrauch angeblich gleich hoch, wie bei einer RX 580 wäre.

Das war beweisbar falsch, die RX 580 ist ein echter Schluckspecht und säuft 55% mehr als eine GTX 1060, laut den Tests sogar über 80%. Damit hast du deine eigene These widerlegt. Nebenbei hast du den Miningboom vergessen.

Nun soll es sich also nicht lohnen ein Faß aufzumachen?

Ich bitte dich, gib doch einfach zu, dass du falsch lagst, jeder irrt mal (selbst ich :)), das ist wesentlich weniger peinlich, als wenn du jetzt behauptest dein Krempel von vorher hätte dich nie interessiert.

PS: Wenn du schonmal manuell an die RX 580 Hand anlegen willst, dann muß man das auch bei der GTX 1060 machen. Mal sehen wieviel man da noch per Undervolting sparen kann oder man übertaktet sie einfach soweit, bis sie genausoviel säuft, wie eine RX 580. Mal sehen wie es dann ausgeht.
 
Ich sehe da 180W im Gaming, keine 1060.

Normale TDP der 1060 ist 120W, als sind 180W + 50% mehr. Du hattest behauptet, es gäbe fast keinen Unterschied. Das ist nachweislich - auch nach deinen Quellen - falsch.


Dir wäre es also egal, ob dein Auto 6 oder 9l auf 100km verbraucht? Glaube ich nicht.


Wenn die 580 so ein Übertaktungswunder wäre, warum verlinkst du dann irgendwelche Vega-Screenshots? :lol:


Schauen wir mal so bei den Werksübertaktungen:
RX580: 1425 Mhz(+ 6 %)
1060: 1873 (+ 9%)

Sieht für mich eher so aus, als liese sich die 1060 besser übertakten.

Du hast behauptet dass eine Vega kein Land sieht gegen eine 1080er mit 2Ghz.
Die Werte die ich mit der V64 gepostet habe schafft eine 1080 überhaupt nicht, selbst mit WaKü nicht.
(von extrem OC mal abgesehen)

Du drehst dir alles zurecht.
 
So oder so, wegen der Leistung in synthetischen Benchmarks solltet ihr euch echt nicht aufregen oder euch streiten, die ist nämlich so was von egal, denn mit der realen Leistung in Anwendungen oder Spielen haben diese Tests selten etwas zu tun.
 
So oder so, wegen der Leistung in synthetischen Benchmarks solltet ihr euch echt nicht aufregen oder euch streiten, die ist nämlich so was von egal, denn mit der realen Leistung in Anwendungen oder Spielen haben diese Tests selten etwas zu tun.

Ja schon, da gibt es auch noch andere Einflüsse bei "realen" Workloads wie Spielen, aber was da zumindest bei rauskommen sollte: Vega und ne 1080 sind von der Leistung auf jeden Fall vergleichbar und keine ist viel langsamer als die andere.
 
Gurdis VEGA64 (oder generell eine Vega) ist nun mal im Firestrike ultra schneller als eine GTX 1080. Der Grafik score ist das einzig relevante bei einem Vergleich zwischen 2 GPUs.
Der Verbrauch bei Gurdis Screen ist aber auch :wow:. Ändert aber nichts an seiner Aussage, mit der er nun mal Recht hat. Fast 6300P Grafik score müssen von einer GTX 1080 erst einmal erreicht werden. Ebenso ist Superposition 1080p extrem ein gutes Pflaster für Vega, während ab 4K optimized die Leistung gegenüber Nvidia Karten doch abfällt und eine GTX 1080 normal schneller ist.
Ebenso ist in Time Spy eine GTX 1080 im Vorteil. Da helfen dann auch keine 400W um eine GTX 1080 in der Regel zu überholen.
 
Gurdis VEGA64 (oder generell eine Vega) ist nun mal im Firestrike ultra schneller als eine GTX 1080.
Es wurden bereits zwei Mal ein schnelleres Ergebnis verlinkt. Gurdi kann damit nur nicht leben und sucht langsamere Resultate raus - könnte man mit seiner Vega genauso tun.

Dass er da nur beleidigend wird zeigt ja nur, dass er selbst bemerkt hat, dass er auf dem Holzweg ist. Daher lohnt sich da auch keine Diskussion.

Warum auch immer der eine Einzelfall - mehr ist sein Ergebnis auch nicht - zählt und der Andere nicht. Ist eben der übliche Äpfel/Birnen Vergleich.
 
Es wurden bereits zwei Mal ein schnelleres Ergebnis verlinkt. Gurdi kann damit nur nicht leben und sucht langsamere Resultate raus - könnte man mit seiner Vega genauso tun.

Warum auch immer der eine Einzelfall - mehr ist sein Ergebnis auch nicht - zählt und der Andere nicht. Ist eben der übliche Äpfel/Birnen Vergleich.

Da liegst du halt falsch. Der Grafik-Score ist der Grafikscore. Wie der Name schon sagt vergleicht man mit dem Grafikkarten und da ist Gurdis Vega nunmal vorne. Der Physikscore ist für CPUs. Der Physik-Score interessiert für einen GPU-Vergleich nicht. Den CPU-Score in den GPU-Vergleich miteinzubeziehen ist Blödsinn.
 
Das wäre Bombe :daumen:

Wenn dem wirklich so wäre, ist die Geheimhaltung bei NVIDIA inzwischen wirklich krass, besser als bei Apple. Drei Woche vorher wissen wir noch gar nix. Und bei Pascal war es nicht sonderlich anders.

Falls das stimmen sollte könnten Aktionäre NVIDIA wegen Marktmanipulation verklagen, denn „noch lang hin“ sind in diesem Kontext im Verständnis der Allgemeinheit nicht 2 Monate.
 
Es wurden bereits zwei Mal ein schnelleres Ergebnis verlinkt. Gurdi kann damit nur nicht leben und sucht langsamere Resultate raus - könnte man mit seiner Vega genauso tun.

Dass er da nur beleidigend wird zeigt ja nur, dass er selbst bemerkt hat, dass er auf dem Holzweg ist. Daher lohnt sich da auch keine Diskussion.

Warum auch immer der eine Einzelfall - mehr ist sein Ergebnis auch nicht - zählt und der Andere nicht. Ist eben der übliche Äpfel/Birnen Vergleich.

Da hast Du einfach nicht Recht.
Oder ist jetzt Duvars GTX 1080 schneller als meine, obwohl sein Grafic score niedriger ist? Aber sein Ryzen mehr CPU Punkte für das Gesamtergebnis zusteuern kann als mein i7 3930K?
Result

Genausowenig kann ich behaupten, daß meine GTX 1080 ti schneller als die von @-K1ngp1n- ist. Er hat zwar mehr Grafic score, aber mein i9 verfälscht hier natürlich den direkten Vergleich der Karten wenn man nur gesamten
3DMark Score ansieht.
Result

Edit
"Angeblich Launch am 30. Juli: NVIDIA launching its next-gen GeForce GTX 1180 on July 30"
Wie Was Wo?
Ich blende bis zum Release einfach mal alles was mit den Karten zu tun hat aus. Ändern kann man es eh nicht und mit seichten Spekulationen macht man sich bloß lächerlich.
 
Zuletzt bearbeitet:
Ein Großteil der Käufer entscheidet sich ähnlich -> Die Leistungsaufnahme ist heute ein sehr wichtiges Kriterium.

Kannst du bitte endlich aufhören, deine private EInschätzung als Tatsache darzustellen? Den Einfluss der Leistungsaufnahme auf die Verkaufszahlen können weder du noch ich einschätzen.

Habe ich das jemals behauptet?

Nein!

Also unterstelle mir nichts, das ich nicht gesagt habe.

Du gibt ja selbst zu, dass es ein Kriterium ist und da sieht AMD leider extrem mies aus. Der Punkt ist, dass es dafür eine gewisse Entschädigung geben muß, damit die Scharte ausgewetzt wird, sei es im Preis, der Austattung (mehr RAM) oder mehr Funktionen (PhysX, Free-/GSync usw). Tatsache is, dass AMD den Kunden dafür nicht entschädigt (bzw. bei der RX 580/570 nicht hinreichend) und deshalb bleibt AMD, im Moment, die deutlich schlechtere Wahl. Technisch gesehen ist Nvidia eh zwei Generationen vor AMD, sogar zwei, wenn man Volta mitzählt.

Doch, genau das hast du jetzt schon wieder getan und damit zeigst du selbst, dass ich nichts unterstellt habe. Du zählst die Vorteile sogar auf (am Beispiel der RX 580: mehr VRAM, Freesync), nur um dann im nächsten Satz schon wieder AMD-Karten aufgrund des Verbrauchs generell als die deutlich schlechtere Wahl zu bezeichnen.
Wer tatsächlich Vor- und Nachteile abwägt, der kommt nicht zu so einer unreflektierten Schlussfolgerung.

Wenn Leute wie IamAI und du ihre Meinung wenigstens als solche formulieren würden, aber nein, die wird dann immer als die ultimative Tatsache präsentiert. Kleiner Tipp: Ich halte die RX 580 gegenüber der GTX 1060 aufgrund der von dir aufgezählten Vorteile für die rundere Karte und habe sie einem Kollegen bei dessen Neukauf in diesem Preisbereich empfohlen. Präsentiere ich deswegen die GTX 1060 als deutlich schlechtere Karte? Nein, natürlich nicht. Beide haben Stärken und Schwächen und sind insgesamt nahezu ebenbürtig.

Das hat auch wieder keiner behauptet.

Wirklich lustig ist dabei, dass man den ganzen AMD Jüngern vorhalten kann, dass die Graphikprodukte ihres geliebten Konzerns, nach ihrer eigenen Argumentation, seit der HD 7970, totaler Mist sind und in den Elektroschrott gehören.
Die AMD Jünger erinnern sich nicht daran, weil dann jedem klar wird, dass AMD heute viel schlimmer ist. Vega 64LC Vs GTX 1080Ti: 50% mehr Stromverbrauch bei 10-20% WENIGER Leistung.

Doch, einmal mehr hilft es zu lesen. Da steht nicht, dass du es behauptet hättest. Andere haben es in diesem Forum oder unter Facebook-Beiträgen der PCGH defintiv schon getan.

Vielleicht auch noch mal für dich, damit du es verstehst: Du hast es hier nicht mit AMD-Jüngern zu tun, die dir widersprechen. Ich für meinen Teil hatte zum Beispiel in meinem Hardwareleben bisher noch keine einzige AMD-Karte. Diese Leute denken nur einfach mit und lassen so pauschalisierten Blödsinn, wie du ihn hier teilweise formuliert hast, nicht unkommentiert stehen.

Der Unterschied Werkskarte vs. Übertaktung per Hand ist dir bekannt? Nein?

Hast du überhaupt eine GTX 1080 oder redest du wieder nur groß daher? Meine (von MSI, nicht mal eine Founders-Edition) macht ohne Spannungserhöhung, vor der NVidia schon einmal ausdrücklich gewarnt hat, keine 2,1 GHz mit und knapp drüber kommt sie schon gar nicht. Aber Hauptsache NVidia hat in ihrer Produktion so lange sortiert, bis eine mal diesen Wert erreicht hat. Und Leute wie du springen drauf an.

Das beantwortet vielleicht auch eure Frage, was hauptsächlich für die Verschiebung der Martanteile verantwortlich ist: Cleveres Marketing und gutgläubige Käufer, würde ich zumindest mal in den Raum werfen.
 
Respekt, dass du deine Vega 64 so hoch geprügelt hast.

Wakü Vega schafft anliegend (laut gpu-z) ca 1700mhz und du kannst ca 40mhz eingestellt runter nehmen (um auf gurdi zurück zu kommen), 1600 MHz sind schon ganz gut, aber auch kein Wunder. Ich habe unter Last meine 1700 MHz und bin damit zufrieden
 
Kannst du bitte endlich aufhören, deine private EInschätzung als Tatsache darzustellen? Den Einfluss der Leistungsaufnahme auf die Verkaufszahlen können weder du noch ich einschätzen.
Natürlich, ein Indiz hatte ich bereits genannt: Der massive Anstieg von Marktanteilen durch NVIDIA ab Release von Maxwell.

Die einzig wirklich relevante Änderungen zur Vorgängergeneration war die deutlich bessere Perf/Watt von NVIDIA. Der Name "NVIDIA", wie von euch gern behauptet, kann es nicht sein, der hat sich von Kepler zu Maxwell nicht massiv gebessert, wodurch denn?

Hast du überhaupt eine GTX 1080 oder redest du wieder nur groß daher? Meine (von MSI, nicht mal eine Founders-Edition) macht ohne Spannungserhöhung, vor der NVidia schon einmal ausdrücklich gewarnt hat, keine 2,1 GHz mit und knapp drüber kommt sie schon gar nicht. Aber Hauptsache NVidia hat in ihrer Produktion so lange sortiert, bis eine mal diesen Wert erreicht hat. Und Leute wie du springen drauf an.
Es gilt hier, was ich schon schrieb: Warum gilt der eine Einzelfall (Grudi), der andere (GTX1080) aber nicht? Beides sind Einzelfälle, von speziell gut gehenden Chip. Es gibt auch massig Vega-Chips, die nie den Takt von Grudis erreichen werden.

Das verstehe ich hier einfach nicht. Warum kann man mal den Einzellfall nehmen und mal ist das nicht in Ordnung? Entweder, oder meiner Meinung nach. Und die Werks-OC Karten haben z.B. bei der GTX1080 deutlich höhere OC-Werte, als für Vega.

Das beantwortet vielleicht auch eure Frage, was hauptsächlich für die Verschiebung der Martanteile verantwortlich ist: Cleveres Marketing und gutgläubige Käufer, würde ich zumindest mal in den Raum werfen.
Wie genau haben sich denn Marketing und Käufer zwischen Kepler und Maxwell verändert, um dies zu begründen? Nun bin ich mal auf deine Fakten gespannt, oder ob das nur leere Phrasen sind, weil du dir das offensichtlich nicht eingestehen willst :up:
 
Zurück