AMD Sienna Cichlid: "Big Navi" mit 80 CUs und 5.120 Shadern?

Offensichtlich nicht.
D3d12 ist das conzept of async compute, wobei es Nvidia länger schon auf Physics anwendet. Das hat absolut nichts mit fixed function zu tun.

Was Maxwell angeht:
PCGH News schrieb:
Maxwell-2.0-Grafikkarten ein interessantes Phänomen beobachten: In Wechselwirkung sinkt und steigt die Auslastung von GPU und CPU. Das deckt sich mit den Aussagen eines Oxide-Entwicklers, laut dem eine "komplexe Interaktion" mit dem Scheduler stattfindet. Der versucht, Compute-Aufgaben auf den Hauptprozessor auszulagern, während die GPU selbst wie gehabt die normalen Grafikberechnungen übernimmt. Damit wird Async Compute quasi emuliert, womit sich Nvidia die Unterstützung auf die Fahne schreiben kann.
https://www.pcgameshardware.de/DirectX-12-Software-255525/News/Maxwell-Asynchronous-Compute-1170078/

Pascal kann es dann und Turing auch.

Bleib einfach mal ruhig und schieß dich nicht selbst ab, dass bringt doch nichts. Man kann doch darüber diskutieren.
 
Mich stört der ständige Vorwurf, man wäre arm oder geizig wenn man Kritik an den Preisen einer 2080ti übt.

Danke. Da gehöre ich auch zu.

Die 2080 Ti kann ich mir leisten, aber ich will es nicht da sie für mich nicht das Geld wert ist. Wer sich hier davon so extrem angegriffen fühlt, dass ich eine teure Grafikkarte nicht kaufen will, dass sein eigenes Leben davon abhängt (gefühlt) der muss mal etwas Abstand gewinnen.
 
Nvidia entwickelt Klasse Karten, das ist nicht zu bestreiten, aber solange die auf Apple Niveau ihre Preise kalkulieren sind die für mich einfach raus.

Ich sag einfach mal Radeon VII.. kam für 700 raus, war langsamer als eine 2080 zum gleichen Preis damals ca.
Laute Karte, kein Raytracing, total verbuggte Treiber. Ok du hast 16 GB Speicher.

Aber selbst wenn du dir eine 5700XT ansiehst. Kostet ungefähr soviel wie eine 2070 non super und ist ein klein wenig schneller. Aber dafür kein DLSS und kein Raytraycing.

Dein Post vermittelt das Gefühl, dass du bei AMD für viel weniger Geld die gleiche Leistung UND Features bekommst, das stimmt aber einfach nicht. Immer ein klein wenig günstiger bei gleicher Leistung, das stimmt. Aber in den letzten Jahren leider immer zum Preis von Lautheit, höherer Leistungsaufnahme oder weniger Features.

(Das war vor 15 Jahren mal anders ;-) Da waren sie leiser und schneller und günstiger.. hach ja die gute alte Zeit :-P)
 
Hier kursierte neulich doch schon diese alte Liste von Mercury Research aus HD6000 und GTX500 Zeiten. Die gibt einen ganz guten Überblick zu den Materialkosten einer Grafikkarte.
GF110 auf der GTX580, ein in 40nm gefertigter ~520mm² Chip, für läppische 120$ :devil:

Anhang anzeigen 1097256

edit: sind halt nur die Materialkosten.
Entwicklung, Marketing, Platinen-Bestückung etc. fehlt da offensichtlich noch.

Ein 40nm Wafer kostete selbst als der Prozess neu war deutlich weniger als ein 7nm. Der Wafer alleine kostete rund 1/3, die Entwicklung des Chip ca. 1/7 gegenüber heute.

https://qph.fs.quoracdn.net/main-qimg-d1f2ff5a55887e445a0e2d3edb7feb60

https://www.extremetech.com/wp-content/uploads/2018/06/nano3.png
 
Hier kursierte neulich doch schon diese alte Liste von Mercury Research aus HD6000 und GTX500 Zeiten. Die gibt einen ganz guten Überblick zu den Materialkosten einer Grafikkarte.
GF110 auf der GTX580, ein in 40nm gefertigter ~520mm² Chip, für läppische 120$ :devil:

Anhang anzeigen 1097256

edit: sind halt nur die Materialkosten.
Entwicklung, Marketing, Platinen-Bestückung etc. fehlt da offensichtlich noch.

Dann spielen wir das mal durch.
40nm für 120$

Lt Tabelle:
https://www.extremetech.com/wp-content/uploads/2018/06/nano3.png
ergeben sich dann inzwischen Kosten von 120$ x 4,6 (wenn man von 10nm bei Ampere ausginge) = 552$
Dann noch 200$ für den Rest (PCB, RAM, Bestückung, Logistik etc.)
Sind wir bei 752$ dann rechnen wir da 30% Marge drauf (von denen NVIDIA nur den Anteil der GPU sieht, also 165$), sind wir bei knapp 977$
Von einer 1000$ GPU sieht nvidia also 165$ (außer bei der founders edition).

Und nun? Sind die Preise in Anbetracht dessen, wie Du ja richtiger Weise festgestellt hast, dass da noch allerlei andere Kosten nicht miteinberechnet sind und noch von der Marge abgehen nun wirklich so unverschämt, wie hier immer wieder behauptet wird?
 
Zuletzt bearbeitet:
Was Maxwell angeht:
Nochmal zu Maxwell v2 und Async Compute:

Die einzige Anforderung zur Erfüllung von Async Compute ist das parallele Abarbeiten von graphics und compute queues. Im Fall von Maxwell v2 konkret 1 graphics und 31 compute queues. Die Anzahl hat sich auch mit Pascal nicht geändert.

Der große Unterschied zwischen Maxwell und Pascal ist aber das Sheduling.

M2Balancing_575px.png PBalance_575px.png

Da sieht man auch das Problem. Wenn bei Maxwell Async Compute angewendet wird, kann es durch das statische Switching zu idle Zeiten kommen, die durch das parallele Abarbeiten nicht aufgewogen werden.
Daher hatte man in der Regel schlechtere Ergebnisse mit aktiviertem Async Compute.

Meines Wissens nach hat nVidia deswegen Async Compute treiberseitig bei Maxwell deaktiviert.

Das spekulierte Emulieren durch die CPU war damals schon Quatsch.
 
Und nun? Sind die Preise in Anbetracht dessen, wie Du ja richtiger Weise festgestellt hast, dass da noch allerlei andere Kosten nicht miteinberechnet sind nun wirklich so unverschämt, wie hier immer wieder behauptet wird?

Ja.
Ganz einfach.
Entwicklungskosten hin oder her, Nvidia hat mit der 2080 die Leistung der VorgängerGen (1080ti) mit weniger Ram und stattdessen Raytracing (für das es zu Release keine und aktuell nur wenige Spiele gibt) zum gleichen MSRP auf den Markt geworfen. Oder anders ausgedrückt, die steigenden Entwicklungskosten wurden zum Erhalt der Gewinnmarge einfach an den Kunden weitergegeben. Und das mit einer deutlich höheren Preissteigerung als dies in vorherigen Gens der Fall war.

~3% Mehrleistung zum gleichen Preis mit weniger Ram beim GenSprung - was soll das sein, wenn nicht ein unverschämter Preis?
Jaaa, dann würd Nvidia aber pro verkaufter Karte weniger Gewinn machen. Stimmt, aber vllt wär der Absatz höher. Und da sind wir wieder, was ist unverschämt? Ich bin der Meinung die Preisgestaltung von Turing verdient dieses Atribut, zumal Entwicklungskosten gerne vorgeschoben werden, aber eher die Alternativlosigkeit am Markt dafür eine größere Rolle gespielt hat.
 
Was ihr immer mit dem Preis habt. Entweder ich kaufe es mir oder nicht. Bin ich nicht überzeugt für das Geld was Sie wollen die erwartete Leistung zu erhalten bleibt das Teil halt im Regal. Aber es wird sich an den Preisen nichts ändern nur weil hier im Forum Leute vorrechnen was die Karten kosten sollten.

Kein Strom, kein Lohn, keine Transportkosten usw einrechnen aber jammern wie teuer alles ist. Hoffe eure Chefs denken auch nicht so wie ihr sonst hättet ihr alle keine Jobs mehr, denn günstiges Personal bekommst du heut sehr schnell.
 
Ja.
~3% Mehrleistung zum gleichen Preis mit weniger Ram beim GenSprung - was soll das sein, wenn nicht ein unverschämter Preis?
Weil Du bei dem Generationswechsel unterschlägst, dass neue Techniken integriert wurden, die die alten Karten in ihrer schieren Rechenleistung KOMPLETT im Regen stehen lassen.

Geschwindigkeitssteigerung mit Raytracing: Faktor 4x-20x (je nach Auflösung und RT Anteil)

Geschwindigkeitssteigerungen bei Low- Level- API- Titeln bzw. Titeln mit hohem gleichzeitigem Int/FP Anteil: 10%-40%

Bei Nutzung der vorhandenen Zusatzchips (Nutzung von DLSS) noch einmal eine Steigerung zwischen 40% und 80% bei rasterbasierten Spielen und bis zu 350% bei Raytracing Titeln.

Jetzt mag manch einer sagen, dass er diese Funktionen nicht nutzt, oder es zu wenige Titel gibt, die diese Funktion nutzen. Dann ist es für denjenigen aber wohl eindeutig die falsche Karte.
Das hat jedoch aber grundsätzlich und rein technisch betrachtet überhaupt nichts mit der tatsächlichen Leistungfähigkeit und damit auch Wertigkeit dieser Karte zu tun.
Das Potenzial ist da, die Zukunftstauglichkeit auch (DX12 Ultimate/Vulkan RT) kompatibel.

Jaaa, dann würd Nvidia aber pro verkaufter Karte weniger Gewinn machen. Stimmt, aber vllt wär der Absatz höher. Und da sind wir wieder, was ist unverschämt?
Findest Du es anhand oben stehender Beispielrechnung unverschämt, dass NVIDIA pro 1000$ Karte 165$ an der GPU verdient, von welchen dann noch die Kosten für Forschung, Mitarbeiter usw. usf. abgehen?

Ich bin der Meinung die Preisgestaltung von Turing verdient dieses Atribut, zumal Entwicklungskosten gerne vorgeschoben werden, aber eher die Alternativlosigkeit am Markt dafür eine größere Rolle gespielt hat.
Siehe oben- Wir haben doch schon einen realistischen rechnerischen Anhaltspunkt. Und im Zuge dessen käme eher heraus, dass Turing für NVIDIA zumindest bei den Oberklassekarten alles andere als ein Goldesel ist, durch welchen sich nvidia auf unverschämte Art und Weise bereichern könnte...
Solange hier aber niemand den tatsächlichen Gewinn aus GPUs abzüglich aller Kosten kennt, ist die Diskussion sowieso witzlos.
Egal- Frei nach alter Forensitte einfach mal draufhauen....
 
Zuletzt bearbeitet:
Weil Du bei dem Generationswechsel unterschlägst, dass neue Techniken integriert wurden, die die alten Karten KOMPLETT im Regen stehen lassen.
Geschwindigkeitssteigerung mit Raytracing: Faktor 8x-20x (je nach Auflösung und RT Anteil)
Geschwindigkeitssteigerungen bei Low- Level- API- Titeln bzw. Titeln mit hohem gleichzeitigem Int/FP Anteil: 10%-40%
Durch Nutzung der vorhandenen Zusatzchips (Nutzung von DLSS) noch einmal eine Steigerung zwischen 40% und 80% bei rasterbasierten Spielen und bis zu 350% bei Raytracing Titeln.
Jetzt mag manch einer sagen, dass er diese Funktionen nicht nutzt, oder es zu wenige Titel gibt, die diese Funktion nutzen. Dann ist es für denjenigen aber wohl eindeutig die falsche Karte.

Jain.
All das was du beschrieben hast hatte marginalen Nutzen. Ich habs soo oft geschrieben, RT & DLSS an sich sind toll, aber mit einer Handvoll Titeln wirds halt schwer in einer >1000€ GPU einen Mehrwert zu erkennen.
Ja die Rohleistung ist brutal, aber wenn man den Sprung von 980ti zu 1080 und dann zur 1080ti gesehen hat, der war auch brutal und hat, was MSRP angeht, keinen $ mehr gekostet.


Das hat jedoch aber grundsätzlich betrachtet überhaupt nichts mit der tatsächlichen Leistungfähigkeit und damit auch Wertigkeit dieser Karte zu tun.
Das Potenzial ist da, die Zukunftstauglichkeit auch (DX12 Ultimate/Vulkan RT) kompatibel.

Zukunftstauglich?
Turing unterhalb einer 2080 / 2080S tut sich mit aktuellen RT schon schwer, wenn Ampere den Fokus auf mehr RT Leistung legt und dann entsprechende Spiele auf den Markt kommen, dann siehts für kleinere GPUs aus der Serie düster aus.


Findest Du es anhand oben stehender Beispielrechnung unverschämt, dass NVIDIA pro 1000$ Karte 160$ an der GPU verdient, von welchen dann noch die Kosten für Forschung, Mitarbeiter usw. usf. abgehen?

Naja für eine 1080ti wären das nach Deiner Rechnung 120*2,8 = 336$
Sagen wir mal 200€ Ram, PCB etc sind wir bei 536$
30% Marge drauf sind 697$
Bei einem MSRP von 699$
Macht für die GPU einen Gewinn von 100$ :ka:

Oder aber, deine Rechnung geht nicht auf weil mans nicht einfach 120 X Kosten Größe des Prozesses nehmen kann.
Attempting to work out RTX 2080ti die cost [LONG] : nvidia

Ich hab keine Ahnung wieviel die Herstellung der 2080ti kostet - ich glaube niemand hier kann das beziffern, wir können uns dem möglicherweise annähern, aber das wars dann auch.
Ebenfalls hab ich nie bezweifelt, dass Turing teurer in der Herstellung ist. Es geht um das Portfolio, das Marketing, die Features und den aufgerufenen Preis und innerhalb dieses Paketes passt die Leistung einfach nicht.
Die VII wurde in den Foren für den Preis zerrissen, du kannst ja mal rechnen was die gekostet haben muss, mit HBM und dem kleineren Prozess - warum? Weil sie oftmals langsamer war als gleichteure Karten.
 
Zurück