"Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Irgendwie schade das fast jeder Test und fast jede Aussage in diesem Forum hier schon alleine vom grundsatz her falsch sind weil man komplett falsche Vergleiche zieht und sich die Welt so hinbiegt wie sie einem gefällt. In meinen Augen ist das oberste Sahne Bildzeitungs Niveau und keineswegs ernst zu nehmen. Mir persönlich kann es allerdings egal sein, da ich meine Wahl getroffen habe. Fern ab jeder beurteilung oder jedes Benchmarks und ich hab für mich auch die richtige Entscheidung getroffen.

Soviel theatralik und so wenig Inhalt.
Keine Ahnung was du mit dem Text kritisierst und jetzt eigentlich vor hast.

Falls du die rtx kaufst: herzlichen glückwunsch, viel spass damit, deine begeisterung muss man aber nicht teilen und darf durchaus Kritik äußern... Gerne auch ständig in jedem thread zum Thema.

Falls du sie nicht kaufst: herzlichen glückwunsch, viel spass mit dem Geld.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Dann ist PC Hardware fuer mich langsam aber uninteressant.

Früher konnte ich jedes Jahr von massiven Leistungssteigerung lesen und letztendlich auch profitiere.
Verdopplung jedes Jahr war das mindeste.

Ja, es wird immer schwerer dass zu erreichen... ABER:
Wenn ich jetzt eine leistungscerdopplung erst alle 4 Jahre erhalte (980ti zu 2080ti) dann ist mir die PC Entwicklung einfach zu behebig, langsam und langweilig geworden.

Wenn es auch im naechsten Jahr keine 3x 980ti Leistung fuer unter 1000€ gibt, dann laeuft da echt was verkehrt.

3x mehr Leistung nach fast 5 Jahren und mit Einführung eines neuen 7nm Prozesses zu fordern und dafür sogar noch das doppelte wie damals zahlen zu wollen, ist mehr als entgegenkommend von mir.

Wenn das nicht gibt, Im Jahr 2020/21 brauch ich auch keine 3 fache 980ti Leistung mehr, da wird eine ps5 oder Xbox 4 die mit Abstand lohnende Investition, vor allem bei euren mittlerweile akzeptierten geringen jährlichen lesitungsspruwngen werden Konsolen damit immer attraktiver, wenn der PC sich immer weniger absetzt und stetig wesentlich mehr kostet.

Viel Spaß mit den Konsole:

As Chip Design Costs Skyrocket, 3nm Process Node Is in Jeopardy - ExtremeTech

Semiconductor Engineering .:. How Much Will That Chip Cost?
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Dann ist PC Hardware fuer mich langsam aber uninteressant.
Wenn ich jetzt eine leistungscerdopplung erst alle 4 Jahre erhalte (980ti zu 2080ti) dann ist mir die PC Entwicklung einfach zu behebig, langsam und langweilig geworden.

Aha. Dieser Logik nach wäre die einzige Alternative aber nur komplett mit dem zocken aufzuhören, schliesslich hängen Konsolen der PC-Technik noch deutlich mehr hinterher als der Fortschritt der Hardwaretechnik zeitlich gemessen an sich selbst. :ugly:
Also entweder du zockst gar nicht mehr oder schraubst deine Ansprüche extrem nach unten und wirst ein reiner Konsolenjünger. Your choice.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Aha. Dieser Logik nach wäre die einzige Alternative aber nur komplett mit dem zocken aufzuhören, schliesslich hängen Konsolen der PC-Technik noch deutlich mehr hinterher als der Fortschritt der Hardwaretechnik zeitlich gemessen an sich selbst. :ugly:
Also entweder du zockst gar nicht mehr oder schraubst deine Ansprüche extrem nach unten und wirst ein reiner Konsolenjünger. Your choice.

Dann spiele ich lieber Taschenbilliard, als dass ich Nvidia 1300€ in den Rachen werfe.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Soviel theatralik und so wenig Inhalt.
Keine Ahnung was du mit dem Text kritisierst und jetzt eigentlich vor hast.

Falls du die rtx kaufst: herzlichen glückwunsch, viel spass damit, deine begeisterung muss man aber nicht teilen und darf durchaus Kritik äußern... Gerne auch ständig in jedem thread zum Thema.

Falls du sie nicht kaufst: herzlichen glückwunsch, viel spass mit dem Geld.

du weist ja was ich von deinen Aussagen hier im Forum halte oder ? hast ja schon ein paar mal darauf geantwortet. Dich kann ich auf garkeinen Fall mehr ernst nehmen. Das geht einfach nicht. Aber ich kann dich etwas ärgern, ich hab mir eine neue RTX bestellt, ich pfeife auf das Geld. Whatever you mean :)

Also entweder du zockst gar nicht mehr oder schraubst deine Ansprüche extrem nach unten und wirst ein reiner Konsolenjünger. Your choice.

ich persönlich glaube das er nur einen PC hat um im PCGH Forum etwas zum lachen zum schreiben.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Ich bin ja kein Experte, aber wenn dieser ganze Zauber den du da beschreibst Eintritt und amende trotzdem nur 2080 Leistung dabei rauskommt, dann ist das fuer mich persönlich auch kaese.

Ein HPC-Chip im Gaming-Segment ist eine Notlösung. Vega 20 ist aber die einzige GPU, die AMD laut aktuellem Kenntnisstand fertig "herumliegen" hat. Also ab damit auf die Rampe! Mithilfe der neuen Fertigung kann man die Unzulänglichkeiten der alten Architektur bestmöglich kaschieren und somit aufschließen. Dennoch ist es eine Notlösung, denn ein auf Gaming-Funktionen getrimmter Chip mit weniger FP64-ALUs (oder gar keinen) sowie günstigerem Speicher wäre schneller und effizienter. Das soll Navi irgendwann erledigen. Die Frage bei allem ist: Überlässt AMD wirklich Nvidia das Feld bis Mitte/Ende 2019? Ich kann und will mir das nicht vorstellen, weil es furchtbar langweilig wäre.

MfG,
Raff
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

oh wieder ein account der gehackt wurde :D
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Ein HPC-Chip im Gaming-Segment ist eine Notlösung. Vega 20 ist aber die einzige GPU, die AMD laut aktuellem Kenntnisstand fertig "herumliegen" hat. Also ab damit auf die Rampe! Mithilfe der neuen Fertigung kann man die Unzulänglichkeiten der alten Architektur bestmöglich kaschieren und somit aufschließen. Dennoch ist es eine Notlösung, denn ein auf Gaming-Funktionen getrimmter Chip mit weniger FP64-ALUs (oder gar keinen) sowie günstigerem Speicher wäre schneller und effizienter. Das soll Navi irgendwann erledigen. Die Frage bei allem ist: Überlässt AMD wirklich Nvidia das Feld bis Mitte/Ende 2019? Ich kann und will mir das nicht vorstellen, weil es furchtbar langweilig wäre.

MfG,
Raff

Bezüglich deinen letzten Satzes... lese ich da eine Andeutung raus? :D

Grüße!
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Ein HPC-Chip im Gaming-Segment ist eine Notlösung. Vega 20 ist aber die einzige GPU, die AMD laut aktuellem Kenntnisstand fertig "herumliegen" hat. Also ab damit auf die Rampe! Mithilfe der neuen Fertigung kann man die Unzulänglichkeiten der alten Architektur bestmöglich kaschieren und somit aufschließen. Dennoch ist es eine Notlösung, denn ein auf Gaming-Funktionen getrimmter Chip mit weniger FP64-ALUs (oder gar keinen) sowie günstigerem Speicher wäre schneller und effizienter. Das soll Navi irgendwann erledigen. Die Frage bei allem ist: Überlässt AMD wirklich Nvidia das Feld bis Mitte/Ende 2019? Ich kann und will mir das nicht vorstellen, weil es furchtbar langweilig wäre.

MfG,
Raff

Im Endeffekt steht für AMD eine Frage.

Sie haben eine finite Anzahl von Wafern bei TSMC in 7nm, nutze ich die für Zen2 oder Navi.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Bezüglich deinen letzten Satzes... lese ich da eine Andeutung raus? :D

Grüße!

Leaks gäbe es bei Videocardz. Ich spinne hingegen gerade nur etwas herum. :-) Turing bringt frischen Wind in den Markt und uns viel Arbeit, aber es wäre schön, wenn das nicht so einseitig wäre.

MfG,
Raff
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Raff das Problem werden aber wieder die HBM Chips sein die AMD dann in größerer Stückzahl als bei Vega 10 bekommen müsste und der Preis von HBM2 . Wenn eine Vega 20 in ausreichenden Stückzahlen mit 16 GB Vram zum weihnachtsgeschäft auf den Markt käme wäre das super . Und die Preise müssten stimmen weil um NV unter Druck zu setzen müssten die Preise bei max. 500 € liegen
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

DIe ABO Leute kriegen sie ja früher, wann wird Sie den ausgeliefert, dann kann ich sie von meinen Vater nämlich aus dem Briefkasten leihen :ugly:?!

Die Auslieferung sollte kommenden Freitag starten, die meisten Abonnenten kriegen sie dann am Samstag – wenn Murphy beim wichtigsten Tests des Jahres nicht zuschlägt und die Post eine Woche Warteschleifen drehen lässt. ;-)


Ich muss gestehen, dass ich mir damals statt der Voodoo 5 eine Gerforce Grafikarte gekauft habe, warum ? Weil Nvdia TnL einführte und das hat 3dfx das Genick gebrochen, unteranderem.

Für NV hast sich das bis jetzt immer gelohnt allen einen Schritt voraus zu sein. Ja, dass Teil ist unverschämt Teuer, aber irgend ein Depp wird es schon kaufen. Ob es das 1600 Euro Iphone oder der Sportwagen ist scheinbar gibt es einen Markt dafür.

Ich werde den Markt beobachten, aber Raytracing ist eine Antwort auf Drawcall überlastung, limiterungen. Das Rastarisieren läuft doch längst am Stock und die Leistung viele Karten verpufft.

Man muss nur sehen was mit den Konsole alles möglich ist, und sein wird wenn Raytracing bei Konsolen einzug hällt. Dann brauchen die Entwickler nicht mehr Tricksen, wenn es um Refektionen, Licht, Schatten etc geht.

Auf der einen Seite finde ich den Preis auch gut, da damit die Ressource unseres Planeten nicht verramscht werden und nach paar Monaten im Müll landen.

Drawcalls sind Renderaufträge für Objekte. Der Einsatz einer anderen Rendermethode verringert sie nicht direkt und da heute Screenspace-Effekte dominieren, spart Raytracing auch kaum überflüssige Renderelemente ein. Bei zahlreichen bislang durch Shader erzeugten Effekten könnte Raytraycing dagegen einiges verändern, diese sind aber kein Quelle hoher Drawcall-Last.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Sollte AMD in der Lage sein ( was ich sehr stark bezweifle) eine Karte vor Ende des Jahres auf den Markt zu bringen mit gleicher oder fast gleicher Leistung wie das aktuelle Nvidia Topmodell und dazu eventuell sogar noch mehr Grafikspeicher anbieten.. wird sich das AMD sehr gut bezahlen lassen. Die Vega Karten haben zuletzt auch viel zu viel gekostet und AMD kocht wie Nvidia auch nur mit Wasser.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Sollte AMD in der Lage sein ( was ich sehr stark bezweifle) eine Karte vor Ende des Jahres auf den Markt zu bringen mit gleicher oder fast gleicher Leistung wie das aktuelle Nvidia Topmodell und dazu eventuell sogar noch mehr Grafikspeicher anbieten.. wird sich das AMD sehr gut bezahlen lassen. Die Vega Karten haben zuletzt auch viel zu viel gekostet und AMD kocht wie Nvidia auch nur mit Wasser.

Deren Grafiksparte (Ati) kocht aber mit frisch-kaltem kanadischem Wasser. :D ;)

MfG,
Raff
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Turing mit all seinen Killer-Features, die dann vielleicht in einigen Monaten mal in einigen Spielen nutzbar sind ist ein riesen Witz, aber zum Glück war mir noch nie eine Graka-Generation mehr egal als diese. Die meisten wirklich guten Spiele für die ich aufrüsten würde gibt's doch eh nur noch für die Playstation.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure


Was passiert wenn man da mitbieten?
Der Verkäufer ist ja offensichtlich vertrauenswürdig mit mehreren 1000 positiven Bewertungen, gewerblich und 100 Prozent positiv?
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Deren Grafiksparte (Ati) kocht aber mit frisch-kaltem kanadischem Wasser. :D ;)

MfG,
Raff

Aha das ist der Beweis. Vega 20 kommt wassergekühlt mit fresh Updates. Nvidias Raytracing und DLSS kann einpacken. Der König ist tot lang lebe der König. Wusste das AMD uns nicht im Stich lässt. War schon seit je her AMD Fan. Dr. Lisa Su ist die Beschte.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Was passiert wenn man da mitbieten?
Der Verkäufer ist ja offensichtlich vertrauenswürdig mit mehreren 1000 positiven Bewertungen, gewerblich und 100 Prozent positiv?

schlag zu, klingt vertrauenswürdig :) Ich gönns dir ! ... okay okay ich bin nicht so, der Account von dem Verlag wurde eindeutig gehackt, das Angebot wird recht schnell auf Ebay weg sein.
Eigentlich sollten alle die jetzt da auf Sofort kaufen klicken ne Strafe bekommen weil sie mal wieder von ihrer "Geiz ist Geil" Mentalität überholt wurden.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Mich fasziniert immer noch, wie viele hier enttäuscht sein können.
Oder anders formuliert: was habt ihr eigentlich erwartet?
IN DEM MOMENT wo klar wurde, dass die neuen Geforces im selben Prozess gefertigt werden wie die vorgänger (gut, er hat einen anderen Namen und leichte Verbesserungen), war auch ungefähr klar, wo die Performance landen würde - zumindest mal ohne Verbesserungen an der Architektur. Natürlich gab es letztere. Aber wer erwartet hat, dass diese nun durchgehend ein deutliches Leistungsplus bringen, ist ja auch etwas realitätsfremd (mit Ausnahmen, s. Locuzas Ausführungen zu manchen Architekturänderungen). Nvidia optimiert die Architektur seit vielen Jahren, dass man dort plötzlich 50% pro Hardwareeinheit (seien es ROPs oder Shader) rausholt ist ja dann doch utopisch.
Ergo konnte man doch ungefähr überlegen, wo die Reise hingeht. Die meisten haben eh hier immer von +30% gesprochen, da ist man am Ende auch gelandet.
Mit riesigen Chips und vergleichsweise geringfügig höhren Verbräuchen, sowie einem richtungsweisenden Zusatzfeature.

Raytracing ist in aller Munde - und wird beschimpft. Weil es für die 4K lovers eben doch nicht performant genug war. Weil es noch kaum Software dafür gibt. Aber wann war das je anders bei wegweisenden neuen Features. Es war doch immer so, dass die GPUs zuerst da waren und die Software erst folgen musste. Ja sogar so, dass die Features eigentlich auch erst so richtig gut nutzbar wurden, als 1-2 weitere Generationen ins Land kamen. Aber es brauchte immer schon die Vorreiterkarten, sonst ist das Feature nunmal nicht aufm Markt. Henne-Ei. Die Entwickler werden nix implementieren für Hardware die es nicht gibt.
Beispiele wo sich schon gezeigt hat, dass das Performance oder Softwareproblem schon immer da war?
Anti-Aliasing zu Voodoo 5 Zeiten.
TnL bei Geforce 256
DX8 Shader und Geforce 3. Anfangs kaum eingesetzt und dann schnell mal zu viel Leistung gefressen für Geforce 3
DX8,1 Shader und Tesselation bei der Radeon 8500.
DX9, erweiterter Farbraum etc bei der R300/Radeon 9700 Pro und Co (vorallem 5800 Ultra ;) )
HDR ODER AA bei der folgenden Generation
DX10 bei der Geforce 8. Kam außerdem wegen Vista-Exklusivität nie in Schwung.
DX11 bei der Radeon 5850
Mantle, DX12, Vulkan... gibts auch schon seit Jahren. Kommt nur sehr zäh in Schwung.
oder AMD 64 seit 2003
Wer auch immer die Karten damals gekauft hat WEGEN dieser Features, der war ein Early Adopter. Die Karten waren zumeist teuer oder zu langsam für die Features. Es galt: Auflösung runter.

ODER: Polygone runter. Doom 3 hatte einen ähnlichen Ansatz wie heute Nvidia mit Raytracing: realistischere Beleuchtung. Damals war (entgegen der viel kritisierten Spiele wie BF5 und TR) das ganze Spiel darauf ausgelegt worden: bloß nicht zu viele Polygone, nicht mehr als 3 Lichtquellen bitte usw usf. Das Ergebnis: Das Spiel sah für damalige Zeiten super aus und brauchte kein Monster-System. Also kann man auch bei Raytracing annehmen, wenn Spiele dies von Anfang an in Betracht ziehen, dass diese besser damit laufen. Besser als ein Spiel, das wie Battlefield zuerst Jahrelang (eig. schon 2 Jahrzehnte) auf Rasterizing ausgelegt wurde, und nun innerhalb von 2-3 Wochen Raytracing spendiert bekommen hat.
Bedenkt das bei eurer Kritik an diesem "unnützen" Feature und der Puls wird runtergehen.

Heute ist das aus irgendwelchen Gründen ein Problem, weil wir gewöhnt sind unsere nicht mehr taufrische Grafik auch noch auf großen Bildschirmen hochskaliert anzusehen, statt, dass wir neue Effekte erwarten.

Zurück zur Geforce/Nvidia: man hat die schnellsten Karten nochmal schneller gemacht und mehr Features hinzugefügt. (Leider nicht in dem Ausmaß wie manche erhofft haben, aber das sind dann halt Träumer, der Prozess lässt halt nicht mehr zu und das ist seit einiger Zeit klar. 7nm Wird das dann richten) Blöderweise sind die Karten dadurch teurer geworden. Mangelnde Konkurrenz. Jeder von uns würde das genauso machen. Ist es dann unsere Schuld, oder die Schuld der nicht vorhandenen Konkurrenz, die uns (wenn sie da wäre) zu geringeren Preisen zwingen würde.

Das einzige was Nvidia natürlich anders hätte machen können ist, statt einer rundum verbesserten Architektur eine doppelt ausgeführte alte Architektur aufzulegen. Also 1.5 oder 2x so viel einheiten wie bei der 1080 Ti oder 1080. Aber dann wären wir um manche Features umgefallen, die uns in einigen Jahren Freude bereiten werden. Ihr werdet schon sehen.

Es ist nunmal leider nicht möglich damit "zu warten" bis sie von Zauberhand selbst da sind. Es braucht halt zuerst das Ei, aus dem dann die Henne entwächst.

Kurzum: leider nicht so schnell wie von manchen erhofft. Leider teuer. Leider ein Feature, das zu Beginn nicht zeigen kann was es kann. Auf der Haben-Seite: schnellste Karte nochmal schneller gemacht. Neue Features, neuer RAM (als das AMD gemacht hat mit HBM war es komischerweise egal, dass es weniger war als die Konkurrenz). die 2080 im Vergleich zur 1080 deutlich höhere Kosten, aber dafür ist die 2080Ti auch teurer als der direkte Vorgänger, aber halb so teuer wie die Titan V. Gibt also überall vor und Nachteile und nicht so schwarz/weiß wie es viele malen.


hi, da bin ich anderer Meinung ... mann muss einfach Karten aus einer Preisklasse miteinander vergleichen - scheißegal wie die Dinger heißen.
Demnach also die 1080Ti und 2080 (so ca). ähnlicher Preis, ähnliches Tempo. Weniger RAM, dafür schnellerer (AMD HBM Argument), mehr Features und modernere Architektur.
Insgesamt spricht das Blatt Papier für die 2080. In der Praxis wird man kaum einen Unterschied ausmachen außer man verwendet die neuen AA Modi oder es kommen Raytracing- Spiele mit weniger Bedarf.

Faszinieren, dass es selbst Leser eines Hardware-Magazins nicht merken, dass man die Namen im Vergleich zur alten Generation einfach um eine Stelle verschoben hat.(1)
Aber alternative Denkweisen scheinen krass in Mode zu kommen.

Wie andere schon sagten: Namen sind nur Schall und Rauch(2), der Preis allein entscheidet, mit wem sich die neuen Karten messen müssen.
1) Ja, das ist aber nichts neues und ich verstehe nicht, warum die Leute jetzt erst aufwachen. Das war nämlich schon bei der 680 so. Damals hat ein 294mm2 Chip (der 680), also ein Chip der im Vergleich zu den damals noch größeren Chip eher auf Performance hindeutet, den riesen-Chip von AMD geschlagen und deshalb hat man diesen Chip nicht in Form einer 670 oder 660 einfach 680 benannt. Oder anders Formuliert: bis dahin war der absolut größte Chip von Nvidia als Gegenstück von AMDs größten Chip gedacht. Weil AMDs größter Chip (365mm2 als 7970 und 280X, im Vergleich zu den 2080 Karten eh sehr klein) aber nicht so gut wie erwartet performt hat, hat Nvidia einfach den 2. größten Chip dagegengestellt - aber ihm den Namen des größten Chips (also x80) gegeben. Was tut man also mit dem noch größeren Chip? eine neue Serie einführen. Es begann also 2012, als Nvidia 30% weniger Chipfläche gebraucht hat als AMD (damals übrigens hauptsächlich wegen der DP Einheiten in AMD Chips) - und somit kleinere Chips in größere Preisklassen/Gewinnmargen geschoben hat.
2) das sieht man auch super bei den Prozessen. Intels 10nm ist anscheinend mit TSMCs 7nm Vergleichbar. Intels 7nm mit TSMCs 3nm (Prognose v. Fachmagazinen die sich auf SRAM Größe und Co beziehen).
 
Zuletzt bearbeitet:
Zurück