"Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

schlag zu, klingt vertrauenswürdig :) Ich gönns dir ! ... okay okay ich bin nicht so, der Account von dem Verlag wurde eindeutig gehackt, das Angebot wird recht schnell auf Ebay weg sein.
Dann sind da aber recht viele gehackte Accounts :ugly:
Naja, waere schoen gewesen.
Vielleicht bestell ich trotzdem mal, mit Paypal dürft ja nix passieren
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Maxwell war beeindruckend. Pascal war eine gute Weiterentwicklung. Turing? Lässt mich kalt besonders die Preise sind absurd. Kann Nvidia gerne behalten.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Dann sind da aber recht viele gehackte Accounts :ugly:
Naja, waere schoen gewesen.
Vielleicht bestell ich trotzdem mal, mit Paypal dürft ja nix passieren

auf ebay sind wirklich viele gehackte Accounts, zurzeit grade mit der aktuellen GPU Lage nimmt das ganze sogar zu.

Maxwell war beeindruckend. Pascal war eine gute Weiterentwicklung. Turing? Lässt mich kalt besonders die Preise sind absurd. Kann Nvidia gerne behalten.

perfekter Satz zur aktuellen lage. Turing ist das erste mal seid einiger Zeit überhaupt eine Technische Weiterentwicklung aber sie lässt dich kalt. Und warum? Der Preis ... für 200€ weniger hättest bereits bestellt. genau das ist das was ich die ganze Zeit hier meine. 99,9% Preisdiskussionen und sonst nix
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

auf ebay sind wirklich viele gehackte Accounts, zurzeit grade mit der aktuellen GPU Lage nimmt das ganze sogar zu.

Da bekomme ich ja Angst um meinen eigenen :ugly:
Ich glaub ich werde den sowieso mal kündigen... Habe da seit Jahren nix gekauft bzw. ersteigert.

I'm übrigen scheitert es bei mir auch nicht am Geld... Ich habe hier ein aufruestbudget von mehr als 4000 Euro rumliegen dass ich nur dafür nehmen will, das Problem ist einfach der geringe leistungssprung und der neue anstehende 7nm Prozess der die Karte die heute 1300euro kostet praktisch wertlos mach in 1 Jahr....
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Das Problem mit AMD ist doch das sie damals davon ausgehen mussten das nVidia heute bei mindestens 50% echtem Leistungsschub angekommen sein müsste. Ein GP102+ wäre bei 752mm²@12nm wohl eher 70% schneller als eine GTX 1080Ti. Und normalerweise hätte sich somit das gesamte Portfolio preislich anpassen müssen. Das heißt die Leistungsklasse "GTX 1080Ti" würde keine 500€ mehr kosten. Das war das womit AMD rechnen musste, und da hätten sie sicherlich nichts gegen zu setzen gehabt. Zumindest nichts wirtschaftliches. Das es mit RTX ganz anders kam, und AMD nun eigentlich mit klassischen Shaderkarten konkurrenzfähig wäre, konnten sie nicht ahnen. Von daher wird Konkurrenz wohl leider erstmal ausfallen.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Da bekomme ich ja Angst um meinen eigenen :ugly:
Ich glaub ich werde den sowieso mal kündigen... Habe da seit Jahren nix gekauft bzw. ersteigert.

I'm übrigen scheitert es bei mir auch nicht am Geld... Ich habe hier ein aufruestbudget von mehr als 4000 Euro rumliegen dass ich nur dafür nehmen will, das Problem ist einfach der geringe leistungssprung und der neue anstehende 7nm Prozess der die Karte die heute 1300euro kostet praktisch wertlos mach in 1 Jahr....

das Problem hast du aber bei jeder Karte oder generell immer bei Hardware. Du kannst sie teilweise nichtmal wenige Tage nach Kauf zum Neupreis verkaufen weil sie schon weniger wert ist.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Maxwell war beeindruckend. Pascal war eine gute Weiterentwicklung. Turing? Lässt mich kalt besonders die Preise sind absurd. Kann Nvidia gerne behalten.
Der Performancesprung von Turing ist jetzt aber nicht kleiner als Maxwell zu Kepler, oder? Von daher.... Und Turing hat neue Features an Board.
Weiß nicht, warum man abgesehen vom Preis die neue Architektur so schlechtreden muss...
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

das Problem hast du aber bei jeder Karte oder generell immer bei Hardware. Du kannst sie teilweise nichtmal wenige Tage nach Kauf zum Neupreis verkaufen weil sie schon weniger wert ist.

Stimmt schon, ich verstehe aber trotzdem was er damit meint. Ich hatte noch nie zuvor bei einer GPU-Generation so sehr das Gefühl, dass es sich nur um einen "Zwischenschritt" handelt. Aus diesem Grund fällt es mir auch schwer aktuell Geld für eine RTX auszugeben. Besonders deshalb, weil ich nicht zu denjenigen gehöre, die sich jedes Jahr neue Hardware kaufen (wollen). Wenn dann nächstes Jahr der wirklich große Sprung mit 7nm kommt, würde das mich persönlich schon ärgern.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Wenn er kommt kommt er gegen Ende des Jahres, also bist du lieber noch ein Jahr auf deiner alten Hardware unterwegs ? Normal kauft man ja wenn man die Leistung brauch und nicht einfach weil was neues da ist.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Normal kauft man ja wenn man die Leistung brauch und nicht einfach weil was neues da ist.

Nö. Grafikleistung kaufe ich in der Regel wenn sich das P/L Verhältnis deutlich verbessert. Ganz einfach weil man eigentlich immer mehr Leistung gebrauchen kann.

Bei Sozialleistungsempfängern sieht das vielleicht anders aus....
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Der Performancesprung von Turing ist jetzt aber nicht kleiner als Maxwell zu Kepler, oder? Von daher.... Und Turing hat neue Features an Board.
Weiß nicht, warum man abgesehen vom Preis die neue Architektur so schlechtreden muss...

Kepler - Maxwell - 55% (GTX780Ti zu GTX980Ti)
Maxwell - Pascal - 74% (GTX980Ti zu GTX1080Ti)
Pascal - Turing - 30% (GTX1080Ti zu RTX2080Ti OC) <- Die GTX1080Ti hat hierbei ein enges Temperaturkorsett an (FE-Kühler) und ist nicht Werksübertaktet.

Selbst für einen Sprung in der gleichen Arichtektur ist das ziemlich wenig.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Mich fasziniert immer noch, wie viele hier enttäuscht sein können.
Oder anders formuliert: was habt ihr eigentlich erwartet?
IN DEM MOMENT wo klar wurde, dass die neuen Geforces im selben Prozess gefertigt werden wie die vorgänger (gut, er hat einen anderen Namen und leichte Verbesserungen), war auch ungefähr klar, wo die Performance landen würde - zumindest mal ohne Verbesserungen an der Architektur. Natürlich gab es letztere. Aber wer erwartet hat, dass diese nun durchgehend ein deutliches Leistungsplus bringen, ist ja auch etwas realitätsfremd. Nvidia optimiert die Architektur seit vielen Jahren, dass man dort plötzlich 50% pro Hardwareeinheit (seien es ROPs oder Shader) rausholt ist ja dann doch utopisch.
Ergo konnte man doch ungefähr überlegen, wo die Reise hingeht. Die meisten haben eh hier immer von +30% gesprochen, da ist man am Ende auch gelandet.
Mit riesigen Chips und vergleichsweise geringfügig höhren Verbräuchen, sowie einem richtungsweisenden Zusatzfeature.

Raytracing ist in aller Munde - und wird beschimpft. Weil es für die 4K lovers eben doch nicht performant genug war. Weil es noch kaum Software dafür gibt. Aber wann war das je anders bei wegweisenden neuen Features. Es war doch immer so, dass die GPUs zuerst da waren und die Software erst folgen musste. Ja sogar so, dass die Features eigentlich auch erst so richtig gut nutzbar wurden, als 1-2 weitere Generationen ins Land kamen. Aber es brauchte immer schon die Vorreiterkarten, sonst ist das Feature nunmal nicht aufm Markt. Henne-Ei. Die Entwickler werden nix implementieren für Hardware die es nicht gibt.
Beispiele wo sich schon gezeigt hat, dass das Performance oder Softwareproblem schon immer da war?
Anti-Aliasing zu Voodoo 5 Zeiten.
TnL bei Geforce 256
DX8 Shader und Geforce 3. Anfangs kaum eingesetzt und dann schnell mal zu viel Leistung gefressen für Geforce 3
DX8,1 Shader und Tesselation bei der Radeon 8500.
DX9, erweiterter Farbraum etc bei der R300/Radeon 9700 Pro und Co (vorallem 5800 Ultra ;) )
HDR ODER AA bei der folgenden Generation
DX10 bei der Geforce 8. Kam außerdem wegen Vista-Exklusivität nie in Schwung.
DX11 bei der Radeon 5850
Mantle, DX12, Vulkan... gibts auch schon seit Jahren. Kommt nur sehr zäh in Schwung.
oder AMD 64 seit 2003
Wer auch immer die Karten damals gekauft hat WEGEN dieser Features, der war ein Early Adopter. Die Karten waren zumeist teuer oder zu langsam für die Features. Es galt: Auflösung runter.

ODER: Polygone runter. Doom 3 hatte einen ähnlichen Ansatz wie heute Nvidia mit Raytracing: realistischere Beleuchtung. Damals war (entgegen der viel kritisierten Spiele wie BF5 und TR) das ganze Spiel darauf ausgelegt worden: bloß nicht zu viele Polygone, nicht mehr als 3 Lichtquellen bitte usw usf. Das Ergebnis: Das Spiel sah für damalige Zeiten super aus und brauchte kein Monster-System. Also kann man auch bei Raytracing annehmen, wenn Spiele dies von Anfang an in Betracht ziehen, dass diese besser damit laufen. Besser als ein Spiel, das wie Battlefield zuerst Jahrelang (eig. schon 2 Jahrzehnte) auf Rasterizing ausgelegt wurde, und nun innerhalb von 2-3 Wochen Raytracing spendiert bekommen hat.
Bedenkt das bei eurer Kritik an diesem "unnützen" Feature und der Puls wird runtergehen.

Heute ist das aus irgendwelchen Gründen ein Problem, weil wir gewöhnt sind unsere nicht mehr taufrische Grafik auch noch auf großen Bildschirmen hochskaliert anzusehen, statt, dass wir neue Effekte erwarten.

Zurück zur Geforce/Nvidia: man hat die schnellsten Karten nochmal schneller gemacht und mehr Features hinzugefügt. (Leider nicht in dem Ausmaß wie manche erhofft haben, aber das sind dann halt Träumer, der Prozess lässt halt nicht mehr zu und das ist seit einiger Zeit klar. 7nm Wird das dann richten) Blöderweise sind die Karten dadurch teurer geworden. Mangelnde Konkurrenz. Jeder von uns würde das genauso machen. Ist es dann unsere Schuld, oder die Schuld der nicht vorhandenen Konkurrenz, die uns (wenn sie da wäre) zu geringeren Preisen zwingen würde.

Das einzige was Nvidia natürlich anders hätte machen können ist, statt einer rundum verbesserten Architektur eine doppelt ausgeführte alte Architektur aufzulegen. Also 1.5 oder 2x so viel einheiten wie bei der 1080 Ti oder 1080. Aber dann wären wir um manche Features umgefallen, die uns in einigen Jahren Freude bereiten werden. Ihr werdet schon sehen.

Es ist nunmal leider nicht möglich damit "zu warten" bis sie von Zauberhand selbst da sind. Es braucht halt zuerst das Ei, aus dem dann die Henne entwächst.

Kurzum: leider nicht so schnell wie von manchen erhofft. Leider teuer. Leider ein Feature, das zu Beginn nicht zeigen kann was es kann. Auf der Haben-Seite: schnellste Karte nochmal schneller gemacht. Neue Features, neuer RAM (als das AMD gemacht hat mit HBM war es komischerweise egal, dass es weniger war als die Konkurrenz). die 2080 im Vergleich zur 1080 deutlich höhere Kosten, aber dafür ist die 2080Ti auch teurer als der direkte Vorgänger, aber halb so teuer wie die Titan V. Gibt also überall vor und Nachteile und nicht so schwarz/weiß wie es viele malen.



Demnach also die 1080Ti und 2080 (so ca). ähnlicher Preis, ähnliches Tempo. Weniger RAM, dafür schnellerer (AMD HBM Argument), mehr Features und modernere Architektur.
Insgesamt spricht das Blatt Papier für die 2080. In der Praxis wird man kaum einen Unterschied ausmachen außer man verwendet die neuen AA Modi oder es kommen Raytracing- Spiele mit weniger Bedarf.


1) Ja, das ist aber nichts neues und ich verstehe nicht, warum die Leute jetzt erst aufwachen. Das war nämlich schon bei der 680 so. Damals hat ein 294mm2 Chip (der 680), also ein Chip der im Vergleich zu den damals noch größeren Chip eher auf Performance hindeutet, den riesen-Chip von AMD geschlagen und deshalb hat man diesen Chip nicht in Form einer 670 oder 660 einfach 680 benannt. Oder anders Formuliert: bis dahin war der absolut größte Chip von Nvidia als Gegenstück von AMDs größten Chip gedacht. Weil AMDs größter Chip (365mm2 als 7970 und 280X, im Vergleich zu den 2080 Karten eh sehr klein) aber nicht so gut wie erwartet performt hat, hat Nvidia einfach den 2. größten Chip dagegengestellt - aber ihm den Namen des größten Chips (also x80) gegeben. Was tut man also mit dem noch größeren Chip? eine neue Serie einführen. Es begann also 2012, als Nvidia 30% weniger Chipfläche gebraucht hat als AMD (damals übrigens hauptsächlich wegen der DP Einheiten in AMD Chips) - und somit kleinere Chips in größere Preisklassen/Gewinnmargen geschoben hat.
2) das sieht man auch super bei den Prozessen. Intels 10nm ist anscheinend mit TSMCs 7nm Vergleichbar. Intels 7nm mit TSMCs 3nm (Prognose v. Fachmagazinen die sich auf SRAM Größe und Co beziehen).

Ähnlicher Preis? Das ist doch absolut realitätsfern! Die günstigste 2080 habe ich für 829€ gefunden, die günstigste 1080ti liegt bei ~685€. Wir reden hier von gut 150€ Preisdifferenz bei 3GB weniger VRAM und quasi-identischer Leistungsaufnahme. Das Ärgernis für 90% der "Meckerer" ist doch, dass sie um 3GB VRAM "beschissen" werden, dafür aber für einen Aufpreis von 150€ eine Technik bekommen, die a) noch in keinem einzigen Spiel implementiert ist und b) möglicherweise so viel Leistung kostet, dass die Karte die Technik kaum flüssig umsetzen kann - insbesondere nicht in Auflösungen jenseits von 1080p, für die sie ja ganz offensichtlich beworben wird.

Raytracing ist großartig und es war schon vor 10 Jahren klar, dass das die Zukunft und die Grundlage für fotorealistische Computergrafik ist. Und wie wir selbst in den eindrucksvollen Nvidia-Demos sehen können, kann keine aktuelle Hardware ein komplettes Spiel in Echtzeit "raytracen" - es gibt immer nur vereinzelte Effekte und die Kosten so viel Leistung, dass selbst die schnellsten und leistungsfähigsten Karten auf eine Framerate sinken, die gerade noch so für eine Filmszene flüssig genug ist.


Grüße!
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Kepler - Maxwell - 55% (GTX780Ti zu GTX980Ti)
Maxwell - Pascal - 74% (GTX980Ti zu GTX1080Ti)
Pascal - Turing - 30% (GTX1080Ti zu RTX2080Ti OC) <- Die GTX1080Ti hat hierbei ein enges Temperaturkorsett an (FE-Kühler) und ist nicht Werksübertaktet.

Selbst für einen Sprung in der gleichen Arichtektur ist das ziemlich wenig.

Es stimmt zwar, dass die 2080 Ti laut NVIDIA OC'ed ist, doch effektiv taktet sind nicht viel höher als die 1080 Ti Founders Edition, wie man an den Taktangaben von PCGH super sieht. Mit händischem OC bei 2080 Ti FE und 1080 Ti Custom bleiben die 30% so stehen, bzw. bewegen sich eventuell sogar noch mehr Richtung 2080 Ti.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Stimmt schon, ich verstehe aber trotzdem was er damit meint. Ich hatte noch nie zuvor bei einer GPU-Generation so sehr das Gefühl, dass es sich nur um einen "Zwischenschritt" handelt. Aus diesem Grund fällt es mir auch schwer aktuell Geld für eine RTX auszugeben. Besonders deshalb, weil ich nicht zu denjenigen gehöre, die sich jedes Jahr neue Hardware kaufen (wollen). Wenn dann nächstes Jahr der wirklich große Sprung mit 7nm kommt, würde das mich persönlich schon ärgern.

Wer sagt denn das mit 7nm der große Sprung kommt? Ich denke wir alle sollten unsere Vorstellung oder an das was wir gewohnt waren über die letzten Jahre über Bord werfen denn man sieht doch gerade bei den GPU´s wie sehr es abgenommen hat das man jedes Jahr 100% Mehrleistung bekommt gegenüber früher. Im CPU-Markt läuft doch das gleiche traurige Spiel das von der Performance gesehen es da auf 10% Mehrleistung kommt gegenüber der Vorgänger-GEN und das sah früher auch mal anders aus.

Wenn 7nm kommt können wir auf etwas bessere Effizienz gespannt sein aber das war es auch schon da die Zeiten vorbei sind das wir GPU´s bekommen werden wie früher die doppelt so schnell sind. Nvidia macht es gerade ja vor mit lächerlichen 35% Mehr gegenüber Pascal!
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Nö. Grafikleistung kaufe ich in der Regel wenn sich das P/L Verhältnis deutlich verbessert. Ganz einfach weil man eigentlich immer mehr Leistung gebrauchen kann.

Bei Sozialleistungsempfängern sieht das vielleicht anders aus....

ich habe dich weder gemeint noch zitiert und dennoch fühlst du explizit dich angesprochen. Komisch irgendwie. Aber hier redet sich ja eh jeder schön was er sich schön reden will und mancher versucht mit irgendwelchen verrückten Ideen alles schlecht darzustellen als es ist. Fakt ist doch am Ende nur eins, wenn der Preis der 2080 TI unter 1000€ liegen würde, würdet ihr die Karte ALLE feiern. Euer problem ist schlichtweg nur der Preis und sonst nix. Da hilft auch eure Heuchelei und der zwanghafte versuch andere Infos zu geben nichts.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Vielleicht bestell ich trotzdem mal, mit Paypal dürft ja nix passieren

Das machste nicht wirklich oder ? Dir ist ja sicher klar das du wenn der Account gehackt ist und das Paypal Konto ein fremdes im Ausland ist keine cent wieder siehst durch deinen Käuferschutz oder ? Denn der Händler selbst hat ja keinen Kaufvertrag abgeschlossen wenn ein Fremdzugriff stattgefunden hat. Ich gehe stark davon aus das wir demnächst wiede davon lesen werden das einige Leute übers ohr gehauen wurden, es scheinen ja genug auf solche Angebote reinzufallen.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Ein HPC-Chip im Gaming-Segment ist eine Notlösung. Vega 20 ist aber die einzige GPU, die AMD laut aktuellem Kenntnisstand fertig "herumliegen" hat. Also ab damit auf die Rampe! Mithilfe der neuen Fertigung kann man die Unzulänglichkeiten der alten Architektur bestmöglich kaschieren und somit aufschließen. Dennoch ist es eine Notlösung, denn ein auf Gaming-Funktionen getrimmter Chip mit weniger FP64-ALUs (oder gar keinen) sowie günstigerem Speicher wäre schneller und effizienter. Das soll Navi irgendwann erledigen. Die Frage bei allem ist: Überlässt AMD wirklich Nvidia das Feld bis Mitte/Ende 2019? Ich kann und will mir das nicht vorstellen, weil es furchtbar langweilig wäre.

MfG,
Raff

Ich sehe das genauso.
Der Chip ist quasi fertig, wurde bereits präsentiert.Man war schlau genug keine dummen Ankündigungen im Vorfeld raus zu posaunen. Jetzt sieht man klar was Sache ist bei nvidia und kann sich in ruhe überlegen ob man den Chip in dem Preisspektrum postieren kann.

Vega 20 ist bereits vor ein paar tagen in GPU Z eingepflegt worden, der Chip steht also wahrscheinlich kurz vor Relase!

Ich würde klar sagen, ja. 16GB Speicher wären ne Hausnummer. Der neue HBM soll 1,25Ghz! haben. Den 7nm Prozess kann man entweder in den Takt stecken oder in die Leistungsaufnahme, oder aber aufteilen und gewichten.
Ich würde sagen AMD hat jetzt eine komfortable Position. Vega 10 wird von den neuen Karten nicht tangiert.Wenn 7nm gut läuft kann man einen Vega 20 Platzieren würde ich sagen. Viel hängt von den Kapazitäten und der Ausbeute bei TSMC ab aktuell und wie gut man die Kinderkrankheiten von Vega 10 beheben konnte. Allein der neue HBM würde eine Vega 10 bereits auf 1080ti FE Niveau heben, ich sehe wenig Schwierigkeiten für Vega 20 ne 2080 zu catchen, zumal Gerüchte von bis zu 20Tflops ausgehen. Da muss nichtmal viel von auf die Straße zu kommen um ne 2080 mit 8GB GDDR 6 zu überfahren.

Auf gut deutsch, wenn Vega 20 was taugt bin ich mir sicher das er als Gamingvariante kommt. Fraglich nur ob man die Nachfrage bedienen könnte.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Für mich wäre Vega 20 aleine schon deshalb keine Alternative weil ich nen G-Sync Monitor habe und ich keine Lust auf den Wertverlust habe :D Zumal sich AMD gute Leistung auch gut bezahlen lassen wird.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Die wahre Leistungsexplosion wird halt erst später per Treiber freigeschaltet.
Momentan ist die Leistung gedrosselt, damit die Pascal-Karten im Vergleich noch gut aussehen.
 
Zurück