"Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Battlefield ist in meinen Augen eines der ungeeignetsten Spiele überhaupt für so ein Feature.
Ein Multiplayershooter als Techdemo für Reflektionen in Fensterscheiben und Pfützen......:rollen:

Wobei BF auch theoretisch stark profitiert, da durch die Zerstörung auf den Karten und die offenen Multiplayeraten es sehr aufwendig ist konstant eine stimmige und realistische Beleuchtung zu schaffen. Sieht man ja in BF1 sehr schön auf den Karten des russischen DLC, wenn bei den Holzhütten das halbe Dach fehlt, die Treppe und der Flur darunter aber immer noch stockdunkel sind.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Warum kann man die RT- und Tensor-Cores eigentlich nicht für das normale Rasterisation nutzen?
Man kann sie für jede Berechnung nutzen, die schmale Datenformate braucht. Anscheinend hat man dafür aber in der Rasterisation bislang keine vernünftige Anwendung gefunden.
Bzw. eigentlich werden sie ja für DLSS wohl eingesetzt werden, für TXAA; PhysX und so weiter sollte man sie eigentlich auch gut nutzen können.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Wobei BF auch theoretisch stark profitiert, da durch die Zerstörung auf den Karten und die offenen Multiplaykeraten es sehr aufwendig ist konstant eine stimmige und realistische Beleuchtug zu schaffen. Sieht man ja in BF1 sehr schön auf den Karten des russischen DLC, wenn bei den Holzhütten das halbe Dach fehlt, die Treppe und der Flur darunter aber immer noch stockdunkel ist.

Das ist doch mal ein Argument.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Wobei BF auch theoretisch stark profitiert, da durch die Zerstörung auf den Karten und die offenen Multiplayeraten es sehr aufwendig ist konstant eine stimmige und realistische Beleuchtung zu schaffen. Sieht man ja in BF1 sehr schön auf den Karten des russischen DLC, wenn bei den Holzhütten das halbe Dach fehlt, die Treppe und der Flur darunter aber immer noch stockdunkel sind.
Allerdings nur bisher theoretisch, denn dieser RTX-Aspekt wird nach dem letzten Stand ja kein Teil von BF V sein, sofern ich mich jetzt nicht irre.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

wie auch immer, wenn es die ersten Titel gibt die RTX Features unterstützen wird das sicherlich für einen kleinen Boom sorgen. Davon kann man fast ausgehen. Bei Nvidia ist das sowieso alles etwas einfacher als bei AMD, da wird "leichter" gekauft. AMD hatte bei Mantle ja das Problem das einfach keiner wegen Mantle auf AMD umrüsten wollte, es gibt einfach mehr Nvidia Nutzer. Daran kann man auch nichts ändern erstmal.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Wobei BF auch theoretisch stark profitiert, da durch die Zerstörung auf den Karten und die offenen Multiplayeraten es sehr aufwendig ist konstant eine stimmige und realistische Beleuchtung zu schaffen. Sieht man ja in BF1 sehr schön auf den Karten des russischen DLC, wenn bei den Holzhütten das halbe Dach fehlt, die Treppe und der Flur darunter aber immer noch stockdunkel sind.

Nur das ist eben der Teilaspekt, der gar nicht Raytraced wird in Battlefield V. Battlefield V soll durch seine Spiegelungen glänzen im wahrsten Sinne des Wortes ... Das was du ansprichst wird man in Metro Exodus zu sehen bekommen. Und Metro Exodus ist auch das Spiel was mit grafisch in Bezug auf Raytracing auch am meisten anspricht:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Bis Shadow of the Tomb Raider den Raytracing Patch bekommt (frühestens im Oktober wenn Microsoft 1809 released was zwingend für Raytracing erfoderlich ist) spielt es kaum ein Mensch mehr.
Und was Battlefield angeht habe ich die Gründe bereits genannt ... Schneller Shooter und niedrige FPS sind nicht so richtig vereinbar.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Also ich denke das man sagen kann aus Gamersicht das zuletzt AMD mit Vega enttäuscht hat und jetzt auch Nvidia mit Turing da bei dieser neuen GEN man sich nicht einreden kann das Nvidia durch Leistung punktet um diese Wucherpreise zu rechtfertigen was mit Pascal noch so war aber DLSS und Raytracing? Sorry absoluter Nvidia Müll den keiner braucht.
Hairworks, TressFX von AMD und Mantle, True Audio und auch HBM wie sie nicht alle heißen diese innovativen neuen Techniken die einem doch jedes Spiel verhunzen denn was zählt sind FPS. Tessalation, Anti Aliasing 4x 8x und so weiter.... komisch wenn ich da in einem Spiel das ändere sehe ich keinen Unterschied aber wenn ich heute in 4K zocke dann sehe ich ein klares und schärferes Bild gegenüber HD. Alles darunter sin nur Gimmicks von den Herstellern damit sie abzocken können und das konnte Nvidia schon immer besser als AMD.
Wer Turing kauft ist selbst Schuld.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

ich sehe ihn nicht mal darüber jammern wie böse andere sind, hingegen dich gegen Nvidia feuern sehe ich sehr oft. Verrückt oder ?

Ich helf dir mal.

Irgendwie schade das fast jeder Test und fast jede Aussage in diesem Forum hier schon alleine vom grundsatz her falsch sind weil man komplett falsche Vergleiche zieht und sich die Welt so hinbiegt wie sie einem gefällt. In meinen Augen ist das oberste Sahne Bildzeitungs Niveau und keineswegs ernst zu nehmen. Mir persönlich kann es allerdings egal sein, da ich meine Wahl getroffen habe. Fern ab jeder beurteilung oder jedes Benchmarks und ich hab für mich auch die richtige Entscheidung getroffen.

du weist ja was ich von deinen Aussagen hier im Forum halte oder ? hast ja schon ein paar mal darauf geantwortet. Dich kann ich auf garkeinen Fall mehr ernst nehmen. Das geht einfach nicht. Aber ich kann dich etwas ärgern, ich hab mir eine neue RTX bestellt, ich pfeife auf das Geld. Whatever you mean :)
ich persönlich glaube das er nur einen PC hat um im PCGH Forum etwas zum lachen zum schreiben.

ich habe dich weder gemeint noch zitiert und dennoch fühlst du explizit dich angesprochen. Komisch irgendwie. Aber hier redet sich ja eh jeder schön was er sich schön reden will und mancher versucht mit irgendwelchen verrückten Ideen alles schlecht darzustellen als es ist. Fakt ist doch am Ende nur eins, wenn der Preis der 2080 TI unter 1000€ liegen würde, würdet ihr die Karte ALLE feiern. Euer problem ist schlichtweg nur der Preis und sonst nix. Da hilft auch eure Heuchelei und der zwanghafte versuch andere Infos zu geben nichts.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Nur das ist eben der Teilaspekt, der gar nicht Raytraced wird in Battlefield V. Battlefield V soll durch seine Spiegelungen glänzen im wahrsten Sinne des Wortes ... Das was du ansprichst wird man in Metro Exodus zu sehen bekommen. Und Metro Exodus ist auch das Spiel was mit grafisch in Bezug auf Raytracing auch anspricht:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Ironischerweise wurde gerade Exodus am Anfang beschimpft, dass dort doch gar kein Fortschritt zu erkennen wäre. :D
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Ironischerweise wurde gerade Exodus am Anfang beschimpft, dass dort doch gar kein Fortschritt zu erkennen wäre. :D

Ja und das auch von mir muss ich ja zugeben ... Bis ich diese Analyse von DF gesehen habe. Es ist von den drei Spielen das unscheinbarste was die Effekte angeht, aber wenn man mal auf die Details achtet ... :D
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Nur das ist eben der Teilaspekt, der gar nicht Raytraced wird in Battlefield V. Battlefield V soll durch seine Spiegelungen glänzen im wahrsten Sinne des Wortes ... Das was du ansprichst wird man in Metro Exodus zu sehen bekommen. Und Metro Exodus ist auch das Spiel was mit grafisch in Bezug auf Raytracing auch am meisten anspricht:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Bis Shadow of the Tomb Raider den Raytracing Patch bekommt (frühestens im Oktober wenn Microsoft 1809 released was zwingend für Raytracing erfoderlich ist) spielt es kaum ein Mensch mehr.
Und was Battlefield angeht habe ich die Gründe bereits genannt ... Schneller Shooter und niedrige FPS sind nicht so richtig vereinbar.

Rein technisch kannst Du RTX gar nicht auf Spiegelungen begrenzen, BFV hat diese nur (übertrieben) in den Fokus gesetzt. Wenn man RTX nutzt, nutzt man es immer und dann hilft es bei jeder Art der Beleuchtung. Richtig ist allerdings auch, dass man im Tausch dafür brauchbare FPS nur noch in FHD bekommt und dafür 1200 Euro blechen darf. Was für die meisten praktisch keinen guten Gegenwert darstellen dürfte, trotzdem sind Spiele wie BF gerade zu prädestiniert RTX zu nutzen, eben weil sich die Levelstruktur durch Zerstörung stark verändert und damit auch die Lichtverhältnisse.

Ich finde man muss stark zwischen der Technologie an sich, der aktuellen Implementation und dem Preis des kaufbaren Produkts differenzieren.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Ich könnte da übernächsten Mittwoch einen Blick ins Zeitschriftenregal empfehlen, aber wir gehören ja zu den pösen, pösen NDA-Unterschreibern. ;-)

Das wäre der 3. Oktober - An dem Tag ist die Auswahl verfügbarer Zeitschriftenregale doch deutlich eingeschränkt.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Ähnlicher Preis? Das ist doch absolut realitätsfern! Die günstigste 2080 habe ich für 829€ gefunden, die günstigste 1080ti liegt bei ~685€. Wir reden hier von gut 150€ Preisdifferenz bei 3GB weniger VRAM und quasi-identischer Leistungsaufnahme. Das Ärgernis für 90% der "Meckerer" ist doch, dass sie um 3GB VRAM "beschissen" werden, dafür aber für einen Aufpreis von 150€ eine Technik bekommen, die a) noch in keinem einzigen Spiel implementiert ist und b) möglicherweise so viel Leistung kostet, dass die Karte die Technik kaum flüssig umsetzen kann - insbesondere nicht in Auflösungen jenseits von 1080p, für die sie ja ganz offensichtlich beworben wird.

Raytracing ist großartig und es war schon vor 10 Jahren klar, dass das die Zukunft und die Grundlage für fotorealistische Computergrafik ist. Und wie wir selbst in den eindrucksvollen Nvidia-Demos sehen können, kann keine aktuelle Hardware ein komplettes Spiel in Echtzeit "raytracen" - es gibt immer nur vereinzelte Effekte und die Kosten so viel Leistung, dass selbst die schnellsten und leistungsfähigsten Karten auf eine Framerate sinken, die gerade noch so für eine Filmszene flüssig genug ist.


Grüße!
Dass der Startpreis hoch ist, ist natürlich klar. Dass sich dieser einpendeln wird in ein paar Wochen aber auch. Immerhin vergleichst du grad das günstigste 3 Jahre alte kärtchen mit einer brandneuen. Sei halt halbwegs fair.
3GB Ram ist unschön, das kann man auch nicht wegreden. Neuere Features und Technik ist halt aber auch ein Gegenwert. Ich bin absolut gegen diese Preisgestaltung, aber den Preis macht der Markt selbst. Nvidia verlangt halt, was sie verlangen können und trotzdem gekauft wird. Nvidia ist hier also nur ein Drittel Schuld. Das andere Drittel sind wir Käufer. Das letzte Drittel ist die mangelnde Konkurrenz
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Ich sehe das genauso.
Der Chip ist quasi fertig, wurde bereits präsentiert.Man war schlau genug keine dummen Ankündigungen im Vorfeld raus zu posaunen. Jetzt sieht man klar was Sache ist bei nvidia und kann sich in ruhe überlegen ob man den Chip in dem Preisspektrum postieren kann.

Vega 20 ist bereits vor ein paar tagen in GPU Z eingepflegt worden, der Chip steht also wahrscheinlich kurz vor Relase!

Ich würde klar sagen, ja. 16GB Speicher wären ne Hausnummer. Der neue HBM soll 1,25Ghz! haben. Den 7nm Prozess kann man entweder in den Takt stecken oder in die Leistungsaufnahme, oder aber aufteilen und gewichten.
Ich würde sagen AMD hat jetzt eine komfortable Position. Vega 10 wird von den neuen Karten nicht tangiert.Wenn 7nm gut läuft kann man einen Vega 20 Platzieren würde ich sagen. Viel hängt von den Kapazitäten und der Ausbeute bei TSMC ab aktuell und wie gut man die Kinderkrankheiten von Vega 10 beheben konnte. Allein der neue HBM würde eine Vega 10 bereits auf 1080ti FE Niveau heben, ich sehe wenig Schwierigkeiten für Vega 20 ne 2080 zu catchen, zumal Gerüchte von bis zu 20Tflops ausgehen. Da muss nichtmal viel von auf die Straße zu kommen um ne 2080 mit 8GB GDDR 6 zu überfahren.

Auf gut deutsch, wenn Vega 20 was taugt bin ich mir sicher das er als Gamingvariante kommt. Fraglich nur ob man die Nachfrage bedienen könnte.
Naja ob AMD in einer Komfortablem Situation ist weiß ich nicht. Man ist seit Jahren keine Konkurrenz und musste mit Vega auch gleich den Preiskampf angehen, weil sie weniger performt als erhofft (Poor Volta).
Vega 20 kommt wohl nicht für den Gaming Markt.
Aber natürlich ist es für AMD leichter zu kontern, wo Nvidia einen Teil ihrer Chipfläche für Raytracing opfern, was AMD ja nicht müsste. Laut Locuza sinds ca 15-20% Chipfläche. Blöd nur, dass AMD einen größeren Rückstand hat als diese 15-20% (300mm² 1080 GDDR5 ist auf dem Niveau einer 500mm² Vega 64 samt HBM Interface). Insofern hoffen wir mal, dass Navi einschlägt.
Komfortabel ist natürlich, dass Nvidia nicht zum Preiskampf gezwungen ist.

Zum Thema Raytracing: Natürlich ist Raytracing im Moment noch absolut gering implementiert. Da sinds mal Schatten, dort Reflexionen. Aber im Prinzip kann man ja ALLES raytracen. Und vorallem die "tiefe" d es Raytracings (also wieviele bounces/refractions etc man haben möchte) ist noch sehr begrenzt (zu sehen an plötzlich aufpoppenden Objekten in den Reflexionen oder sehr dunklen Räumen ohne Streulicht).

PS: dieser Beitrag ist leider ein Doppelpost geworden, weil mein Handy grad wieder abstürzt, wenn ich Beiträge zusammenkopiere. Musste den also nun 2x schreiben. Her mit den Punkten für meinen bösen Doppelpost.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Rein technisch kannst Du RTX gar nicht auf Spiegelungen begrenzen, BFV hat diese nur (übertrieben) in den Fokus gesetzt. Wenn man RTX nutzt, nutzt man es immer und dann hilft es bei jeder Art der Beleuchtung. Richtig ist allerdings auch, dass man im Tausch dafür brauchbare FPS nur noch in FHD bekommt und dafür 1200 Euro blechen darf. Was für die meisten praktisch keinen guten Gegenwert darstellen dürfte, trotzdem sind Spiele wie BF gerade zu prädestiniert RTX zu nutzen, eben weil sich die Levelstruktur durch Zerstörung stark verändert und damit auch die Lichtverhältnisse.

Ich finde man muss stark zwischen der Technologie an sich, der aktuellen Implementation und dem Preis des kaufbaren Produkts differenzieren.

Wenn du Raytracing so nutzt wie du es dir vorstellst, also das das ganze Bild und nicht nur Teilaspekte berechnet werden, brauchst du eine Karte die 100x so potent ist wie die RTX2080Ti. Ein komplettes Bild in Raytracing zu berechnet dauert heute noch ein paar Minuten pro Bild. Selbst mit NVIDIAs Berechnungstricks kämmst du auf keine spielbaren FPS.

In den aktuellen Spielen für die Raytracing angekündigt ist wird jeweils nur ein Teilaspekt berechnet und so wurde es auch kommuniziert. In keinem kann man alle Techniken einsetzen. Der Rest wird wie bisher mit Rasterisation gestemmt. Raytracing ergänzt in der Anfangszeit erstmal "nur" die alten Techniken.

Shadow of the Tomb Raider: Schatten und Ambient Occlussion

Battlefield V: Spiegelungen (Specular Reflections):
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Metro Exodus: Global Illumination <- Und das ist der Effekt, den du dir für Battlefield V wünschst. Aber der wäre optisch in einem schnellen Spiel noch eher untergegangen und damit wenig Werbewirksam.

Das wäre der 3. Oktober - An dem Tag ist die Auswahl verfügbarer Zeitschriftenregale doch deutlich eingeschränkt.
Bahnhofskiosk, Tankstellen. Wo ein Wille ist, ist auch ein Weg. :D
 
Zuletzt bearbeitet:
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

Naja ob AMD in einer Komfortablem Situation ist weiß ich nicht. Man ist seit Jahren keine Konkurrenz und musste mit Vega auch gleich den Preiskampf angehen, weil sie weniger performt als erhofft (Poor Volta).
Vega 20 kommt wohl nicht für den Gaming Markt.
Aber natürlich ist es für AMD leichter zu kontern, wo Nvidia einen Teil ihrer Chipfläche für Raytracing opfern, was AMD ja nicht müsste. Laut Locuza sinds ca 15-20% Chipfläche. Blöd nur, dass AMD einen größeren Rückstand hat als diese 15-20% (300mm² 1080 GDDR5 ist auf dem Niveau einer 500mm² Vega 64 samt HBM Interface). Insofern hoffen wir mal, dass Navi einschlägt.
Komfortabel ist natürlich, dass Nvidia nicht zum Preiskampf gezwungen ist.

Zum Thema Raytracing: Natürlich ist Raytracing im Moment noch absolut gering implementiert. Da sinds mal Schatten, dort Reflexionen. Aber im Prinzip kann man ja ALLES raytracen. Und vorallem die "tiefe" d es Raytracings (also wieviele bounces/refractions etc man haben möchte) ist noch sehr begrenzt (zu sehen an plötzlich aufpoppenden Objekten in den Reflexionen oder sehr dunklen Räumen ohne Streulicht).

PS: dieser Beitrag ist leider ein Doppelpost geworden, weil mein Handy grad wieder abstürzt, wenn ich Beiträge zusammenkopiere. Musste den also nun 2x schreiben. Her mit den Punkten für meinen bösen Doppelpost.

"Komfortabel" war speziell auf Vega 10 bezogen, weil die neuen Karten dort das Preisgefüge nicht tangieren. Das war evtl. etwas missverständlich ausgedrückt. Man ist halb nicht durch Turing gezwungen die Vega Karten günstiger zu machen.
Man sollte auch im Hinterkopf behalten, das AMD alles was man an Vega produziert hat, auch quasi non stop dank mining an den Mann gebracht hat. Dadurch ist Vega ungeachtet aller anderen Umstände trotzdem ein finanzieller Erfolg.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

An dem Posting ist soviel völlig korrekt und teilweise fast schon brillant.
Sehr schmeichelhaft. Bis jetzt hätte ich wunderbar geschlafen ;)
, doch auch so viel im Argen:
Es fängt alles damit an, dass Nvidia diejenigen waren, die Maxwell fertig gebracht haben. Gleicher Prozess, doppelte Performance pro Watt und damit bei den 250-Watt-Karten doppelte Performance.
Doppelte Performance? Bist du dir da sicher? Das hab ich anders in Erinnerung. Die Effizienz ging sicher hoch, gerade deshalb fand ich Maxwell beeinddruckend. So viel Leistung für so wenig Verbrauch (etwa die 970). AMD hat selbst im neueren 14nm Prozess diese Werte nicht erreicht - also in einem 5 Jahre moderneren Prozess.

Allein schon deshalb war nicht allein durch die 12nm-Ankündig alles klar, so wie du es darstellst. Etwas unter +50% Perf/Watt wurde im Vorfeld für gut möglich gehalten und dank der offiziellen TDP-Angabe auch von Nvidia untermauert.
20% bringt der Prozess, BIS ZU wohlgemerkt. der Rest müsste also über die Architektur kommen. Wo hier 50% herkommen sollen, vorallem wenn ein Teil der Transistoren für neue Features draufgeht? Ich hab im BEST Case 50% erwartet. Und die sinds in einigen Fällen auch fast geworden (4K bei manchen Spielen). Average Case 30%
Doch dann ist es rausgekommen, Nvidia macht einen auf Intel und nutzt neuerdings Fake-TDPs, nachdem sie in den Jahren davor klar auf Realo-TDP-Schiene waren.
Die TDPs sind etwa in dem Rahmen gestiegen wie PCGH auch den tatsächlichen Verbrauch getestet hat AFAIR.
Wieso die Karten teurer geworden sind, weiß niemand mit Gewissheit.
Naja eigentlich schon. Man lässt Pascal - die günstig zu fertigen sind und immer noch Abnahme finden - im Rennen und setzt einen Drauf. Neue Features für Early Adopter. Wer will kann also die alte Generation kaufen oder die noch schnellere neue.
Wer 3000€ hat muss sich nun keine Volta kaufen, sondern kann sich um dasselbe Geld 2 2080 Tis kaufen. Nicht alles wurde teurer, manches wurde günstiger.
Vielleicht kommt ja auch noch ein 900mm² Monster mit HBM :D (glaub ich erstmal nicht, dann eher in 7nm)
Es gibt viele Aspekte, die in der Wagschale liegen: Ram-Preise, gereifte Fertigung, große Chips, kein verdoppelter Ram, Melkvidia, kein HBM, Miningschutz, Entwicklungskosten, AMD Vega, Finanzierung eines neuen Großprojektes, HQ-PCB-Design, Apple (just trolling), Investorenforderungen, ...
Nvidia verlangt halt was die Kunden bezahlen. Der 75% Marktanteil (oder so) gibt ihnen halt leider recht.

...unterm Strich ist klar: Man weiß es eben wirklich nicht. Auch klar ist aber, dass sich seit der 680 eine Linie durch die Produktpolitik Nvidias zog, das Preisgefüge nach oben zu verschieben. Ob reingedichtet oder geplant ist eine gute Frage, ich bin allerdings schwer davon überzeugt, dass alles geplant ist. (alles übrigens ganz im Stile deines nicht schwarz-weiß-malen Grundsatzes)
Stimme voll zu. Wenn man besonders spitzfindig sein will hat den Stein sogar AMD ins Rollen gebracht: die 5850 hab ich am Releasetag um 180€ bekommen. Eine Woche später kam die Ankündigung von Nvidia, dass man vor dem neuen Jahr keine neuen Produkte (also den Counter zur R5870) vorstellen werde. Der Listenpreis der 5850 wurde von knapp 200 auf 270 hochgezogen, der der 5870 auch um über 100. AMD weiß also genauso wie Preistreiberei funktioniert. Wenngleich man hier auch verteidigend argumentieren könnte, dass sie die Nachfrage vorne und hinten nicht befriedigen konnten (der 40 nm Prozess kam nicht in Schwung) und die Karten ausverkauft waren nach einer Woche.

Ziemlich sicher die bessere Legacy-und Zukunfts-Karte wäre meinen Spekulatius nach übrigens ein HBM-Turing. Aber bei HBM wollte Nvidia ja aus irgendwelchen Gründen ja nur halbherzig einsteigen. Vielleicht, um dann die 7nm-Generation als absoluten Bringer zu präsentieren, wer weiß.
HBM wäre natürlich noch besser gewesen: geringerer Verbrauch da kleineres SI. Aber auch GDDR6 ist schon recht "cool". HBM wäre halt noch teurer. Vielleicht bringt man aber eine Titan mit HBM. Ich weiß aber nicht, ob das in 12nm noch sinn macht, wie groß soll der Chip noch werden?
"Komfortabel" war speziell auf Vega 10 bezogen, weil die neuen Karten dort das Preisgefüge nicht tangieren. Das war evtl. etwas missverständlich ausgedrückt. Man ist halb nicht durch Turing gezwungen die Vega Karten günstiger zu machen.
Man sollte auch im Hinterkopf behalten, das AMD alles was man an Vega produziert hat, auch quasi non stop dank mining an den Mann gebracht hat. Dadurch ist Vega ungeachtet aller anderen Umstände trotzdem ein finanzieller Erfolg.
Stimme insgesamt zu.Aber was ist jetzt damit? Mining Boom ist vorbei? Ob Vega ein Erfolg ist weiß ich nicht. Es wurde mit sicherheit weniger Produziert als man könnte. Vermutlich weil man die Karten nur mit geringem Gewinn verkaufen konnte (Chipkosten hoch, HBM kosten hoch). Die Spatzen pfiffen von den Dächern, dass man Produktionsschwierigkeiten hat (unterschiedliche HBM Bauhöhe) und auch bewusst wenig produziert, weil man bei 500$ keinen Gewinn macht.
 
AW: "Die Performance von Turing im Vergleich zu Pascal..." - das sagen die PCGH-Redakteure

wow der Vergleich hinkt ja massiv. Respekt. Ich bin zwar tatsächlich solche coolen Kommentare von dir gewohnt aber das ist ja schon mega krass sowas zu schreiben. Wir vergleichen hier also Mantle ( AMD feature das nie einen interessiert hat) mit einem Feature das Nvidia nun zuerst hat ? Alleine schon der Marktanteil regelt das. Junge haben wir langsam eine Qualität hier in den Kommentaren.

Soso, Mantle hat niemanden interessiert? Dann hatte ich mir den riesen Hype (damals meistgelesener "Artikel des Monats", 1000 Kommentare usw.) wohl nur eingebildet. Und dein hochgelobtes Battlefield hat es auch nur implementiert, weil es niemanden interessiert hat. Das ergibt natürlich Sinn. Und jetzt implementiert Battlefield die RTX-Features. Das würde dann ja bedeuten das RTX.. Naja, das zu Ende zu denken überlasse ich dir.

Nein ehrlich, wenn Battlefield ein Feature von Nvidia unterstützt, ist das natürlich eine ganz andere Sache. Man muss sich nur mal anschauen was aus dem von BF3 unterstützten exklusiven Maxwell-Feature MFAA geworden ist. Das ist heute aus keinem aktuellen Spiel mehr wegzudenken. Ok, zugegeben, man muss es gar nicht wegdenken, weil seit zig Jahren kein Spiel mehr erschienen ist was es unterstützt, aber damals war es mal für kurze Zeit der Hit. Ok, zugegeben, der Hit war es nur für Nvidia um Käufer für Maxwell zu ködern, aber diesmal wird alles besser, weil.. äh.. ja weil man einfach noch mehr dafür bezahlt.
 
Zurück