Nvidia RTX Titan: Grafikkarte wird von Social-Media-Kanälen gezeigt

AW: Nvidia RTX Titan: Grafikkarte wird von Social-Media-Kanälen gezeigt

Ich kann dir aus Erfahrung (nicht PC-Komponenten, aber Elektronikbranche) sagen, dass die Entwicklungskosten, im Vergleich zum Marketing, und den Herstellkosten, ein relativ geringer Betrag ist, je nachdem mit wie vielen Einheiten man rechnet, die verkauft werden sollen.
Der Betrag, der hier auf den Preis des Endprodukts umgelegt wird, ist fast schon lächerlich.

Die Entwickler der RTX haben ja schließlich nicht 10 Jahre lang ununterbrochen an den Tensorkernen, ect. gesessen, sondern haben die technische Weiterentwicklung (z.B. Shrink, welcher nicht auf Nvidias Mist gewachsen ist!) verfolgt und ihr Design angepasst, bzw. ab einem bestimmten Punkt erst verwirklichen können.

Und nochmal, der GDDR6 Speicher war bereits vor 6 Monaten kaum teurer als GDDR5 (vom GDDR5X gar nicht zu sprechen).
Nur etwa 4$ mehr pro GB!

mfg
Die Entwicklungskosten liegen meistens im 3-5% Bereich. Der beste Indikator sind aber die Dividenden bei Aktien. Fast ein Drittel des Umsatzes ist bei Nvidia Gewinn, den Rest kann man sich denken. Das ist verdammt hoch bei so einem Techunternehmen.

@you:
Warum schreibst du in Multiposts? Wird sich das ändern? Falls nicht, muss ich dich als die erste Person überhaupt in meine Ignore-Liste aufnehmen, weil ich sonst gar nicht sehe, was die anderen schreiben.
 
AW: Nvidia RTX Titan: Grafikkarte wird auf Social-Media-Kanälen gezeigt

Welche auf der Karte sehr wahrscheinlich nie vernünftig zu nutzen sein werden, da viel zu leistungsschwach...selbst in 1080p...
Aha willst du hier mal erläutern warum Mesh,/Adaptiv Shading u DLSS zu leistungsschwach sein sollten u was hat das mit 1080p zu tun?

Wieder n paar Wortfetzen rund um RTX aufgeschnappt u alles irgendwie vermischt was nicht zusammengehört

Und selbst bezüglich RTX u dem Tensor Core Bereich ist es bestenfalls orakelt, da die Optimierungen noch andauern
 
AW: Nvidia RTX Titan: Grafikkarte wird von Social-Media-Kanälen gezeigt

Ganz Easy - Willst du Raytracing (dich im Spiegelungen sehen ingame), dann musst du dein Konto plündern (mähen) um eine RTX Karte zu kaufen. ;)

Ja stimmt lol... und dann kann man seine dämliche Visage sehen nachdem man 1200-1600 öken für so nen Müll ausgegeben hat.
 
AW: Nvidia RTX Titan: Grafikkarte wird von Social-Media-Kanälen gezeigt

14245 Punkte sind verdammt wenig für eine RTX 2080TI...

Selbst der Graphic Score mit 14839 ist wenig...

NVIDIA GeForce GTX 1080 video card benchmark result - Intel Core i7-6900K Processor,ASUSTeK COMPUTER INC. RAMPAGE V EDITION 10

Die Leistung hatte ich schon 2016 für 1150€ und die Asus 2080TI ist für 1449€ gelistet... öhm jo... und das obwohl die eindeutig bessere CPU im Rechner ist... uff das gab es echt noch nie vorher bei Nvidia... P/L suckt übelst bei RTX
 
AW: Nvidia RTX Titan: Grafikkarte wird von Social-Media-Kanälen gezeigt

Das ist simple ein CPu limit

Ein CPU Limit??? :what:

Ich hab also mit meiner schlechteren niedrigtaktenden CPU einen besseren Score als er mit seiner besseren CPU weil er den höheren Takt hat und damit im CPU Limit hängt!?!? :lol:

Und der Graphic Score ist auch höher... :D ok ist SLI aber hab 2016 ja auch weniger bezahlt um die Nachteile von SLI zu haben... dennoch schwache RTX 2080TI Performance bei dem Preis...
 
AW: Nvidia RTX Titan: Grafikkarte wird von Social-Media-Kanälen gezeigt

Ist aber Fakt
um wirklich eine rtx 2080ti auszulasten benötigt man schnelle kerne so ab 4,8ghz
haswel-e hat genau 10% weniger ipc als skylake
die anzahl der kerne ist dabei unwesentlich, abhängig was im system noch so läuft aber aktuell sollte man min 4 Kerne haben mit auslastungsthreads (smt) und einen takt von min 4,8ghz Aktueller arch also einen ci7 8700k oder 9900k
Denn im Grunde gibt es kaum Software die nicht nur auf einen Kern fixiert wird (außer man zwingt es dazu)
Das OS schiebt den thread komplett durch die CPu was im normalfall dann den Takt auf den allseits beliebten allcore turbo limitiert.
Nur mit OC zu beheben da reicht es nicht enhanced turbo anzuschalten
das liegt primär am OS was immer versucht energie einzusparen und eine CPu kann nicht auf 6 kernen nur 20w verbrauchen wo daneben 140w gebraucht wird
Lösung ist der Kompromiss allcore turbo mit leichten höheren takt einzelner kerne
die differenz ist dabei gering max 200mhz und das auch nur dann wenn windows das programm auf diesen thread fixiert und jegliche anderen Programme von diesen thread fernhält

Das muss ein programm von sich aus ausführen und ratet mal was die meisten programmierer nicht tun.
dann bleibt die optimierung am Treiber hängen und am OS
Nvidia nutzt dazu einen serverthread den alle cpu cores vereint und virualisiert directx quasi eine CPu bsp mit etwa 6 Kernen und je 3ghz wird dann virtuell eine cpu mit 18ghz
Der Sinn besteht darin die drawcalls der gpu auf alle vorhanden Kerne und thread aufzuteilen.
das macht nvidia als service an publisher
Gute game engines machen diesen schritt schon in der software der trick nennt sich comand list
darum sind primär immer Singlecoretakt vor Kerne wichtiger

Hintergrund ist das directx die gpu nur mit einen thread ansprechen kann
ab directx 12 ändert sich das, hier können mehrere thread eine GPu ansprechen
Bisher wird das aber nur vereinzelt gemacht weil in dx12 auch legacy comand list unterstützt wird. (portierung von dx11)
erste games die wirklich dx12 renderpfad verwenden sind sottr, Hitman (2016) und vielleicht noch betafield 1
So ein multirendercode ist sehr komplex und es gibt keine tools die das übernehmen
Dieser muss von Hand geschrieben werden darum sind oft dx12 spiele in der performance gegen dx11 renderpfad auch langsamer dazu kommt das zwischen amd und nvidia grundlegende arch Unterschiede gibt.
amd Hardware sheduler
nvidia software sheduler

Amd muss auf einen software sheduler umsteigen nicht wegen dx11 sondern weil in zukunft viel virtualisiert wird.
Wir werden die multigpu systeme in vm sehen als älteres modell einer gpu mit orginalen treiber darauf
Dafür ist dx12 perfekt
Selbst das OS wird in eine vm gelegt.
Das problem sind aber die Sicherheitslücken in letzter zeit, spectre versaut hier so ziemlich die pläne und alles wird sich verschieben um min 5 Jahre
Ich erwarte ei OS mit multidesktop und separaten gpu zuweisung mit älteren OS kernel ab 2024-2029 tendenz später
Das monolytische OS wie derzeit Windows es ist kann nicht bestehen bleiben
Grund legendes OS mit vm start wird die zukunft sein.
Das OS muss dabei nicht mal x86-64 basierend sein
 
AW: Nvidia RTX Titan: Grafikkarte wird von Social-Media-Kanälen gezeigt

ok ist SLI aber hab 2016 ja auch weniger bezahlt um die Nachteile von SLI zu haben... dennoch schwache RTX 2080TI Performance bei dem Preis...

aha wusste gar nicht das zwei an der Kotzgrenze arbeitende 1080 im SLI Verbund , die "selbe" Leistung haben, wie ein monolithischer Chip mit seinen Frames

Was soll das für n Apfel ,Birnen Vergleich sein?

Ich hol dir die Benchmarks von meinen 4 Fermis im 3D Murks ,die sind dann auch "schneller" , wie deine 2 x 1080 , und das sagt was aus?

Ganz ehrlich ich hab lieber nen Singlechip mit verwertbaren Frames , eh ich mir nochmal so SLI /Crossfire Microruckel Geraffel antuhe, wo ich alle 2 Spiele keine passenden SLI Profile mehr finde für:D

Ist aber Fakt
um wirklich eine rtx 2080ti auszulasten benötigt man schnelle kerne so ab 4,8ghz

Und du glaubst i9 9900K mit 8x5GHZ all Core+ SMT sind da zu wenig...
 
Zuletzt bearbeitet:
AW: Nvidia RTX Titan: Grafikkarte wird von Social-Media-Kanälen gezeigt

was ist hier los wollte editieren u er haut mir zum zweiten mal nen Doppelpost hin?
 
AW: Nvidia RTX Titan: Grafikkarte wird von Social-Media-Kanälen gezeigt

aha wusste gar nicht das zwei an der Kotzgrenze arbeitende 1080 im SLI Verbund , die "selbe" Leistung haben, wie ein monolithischer Chip mit seinen Frames

Was soll das für n Apfel ,Birnen Vergleich sein?

Ich hol dir die Benchmarks von meinen 4 Fermis im 3D Murks ,die sind dann auch "schneller" , wie deine 2 x 1080 , und das sagt was aus?

Ganz ehrlich ich hab lieber nen Singlechip mit verwertbaren Frames , eh ich mir nochmal so SLI /Crossfire Microruckel Geraffel antuhe, wo ich alle 2 Spiele keine passenden SLI Profile mehr finde für:D



Und du glaubst i9 9900K mit 8x5GHZ all Core+ SMT sind da zu wenig...

An der Kotzgrenze arbeitende?

Die Kotzgrenze ist bei den beiden 1080 noch lange nicht erreicht... da geht noch viel mehr! Und ja ich weiß das die Leistung über der der RTX 2080TI liegt da selbst in schlecht optimierten Spielen immer noch höhere FPS und bessere Frametimes erzeugt werden. Dad SLI System was wiederum 2 Jahre vorher weniger gekostet hat und ja der größte Skandal an dem Turing Flop ist! Das gabs weder bei Kepler noch bei Maxwell noch bei Pascal.

Und zu dem CPU Limit viel Text.. aber ich glaub hier wird übersehen das es ein alter 8 Kerner mit ca 4,2 GHz ist der gegen einen neuen 8Kerner antritt mit ca 5Ghz Turbo takt antritt.

Das der neue da einen höheren Graphic Score erzielen müsste liegr auf der Hand... egal wie der Rechenweg ist. Dies ist nicht der Fall trotz schnellerer CPU.

Ob da jetzt ein CPU Limit vorliegt ist also egal weil es dann in beiden Systemen wäre und somit in dem System mit dem 9900k eh ein geringeres CPU Limit ist was wiederum egal ist da er ja den geringeren Graphic Score hat. Das CPU Limit ist also mal wayne egal...
 
AW: Nvidia RTX Titan: Grafikkarte wird von Social-Media-Kanälen gezeigt

Eben nicht
Das CPu limit zeigt an ob eine gpu ausgelastet wird
Der Spruch man bekommt jede GPu in die knie mit Auflösungsskallierung Ist wahr.
Mit einen 4k Auflösung und zusätzlichen anti alaising geht selbst eine rtx titan in die knie
dazu kommt je höher die auflösung desto höher muss die bandbreite des vram und systemrams sein
Sowie auch die Datentransferleistung der peripherie (HDD SSD usb sata m2 pcie)
Sowie auch die protokolle im system was nützen 40 pcie lanes wenn nur 4 am chipsatz hängen und mit max 4GB/s übertragen können
Derzeitige Situation

Also immer höher auflösen bringt nichts
Die alternative ist genauere auflösen bsp raytracing hier steigt nur die Rechenlast und der Speichertransfer bleibt gleich.
Allerdings muss das raytracing konsequent Parallel berechnet sein und die folge Rechnung darf nicht zu viel in die nächsten Berechnung addiert werden
Was eine realistische Darstellung stark beschneidet max 5-10 folgende logische zusammenhängende Ereignisse (physik reflexionen oder spiegellungen)
Wer mal versucht ein Bild zu raytracen wird schnell merken das dazu enorm viel CPu Leistung wichtig ist
beinahe sämtliche Werbung im TV wird per raytrazing nachbearbeitet und so ein 30 sec clip braucht mal gerne mehrere Stunden
Darum sind die RT core so revolutionär von mehreren stunden auf einer stunde bringt schon viel.
das Problem ist das man nicht endlos die cpu Hochtakten kann wie es gebraucht wird.
Serielle Rechnungen lassen sich nicht komplett parallelisieren
das aktuelle maximum liegt bei 1,5 fachen eines Kerns ipc und Takt.

Das OS vermeidet mehrere Zugriffe auf hardware I/O zeitgleich

Was so aussieht das dies geht ist in Wahrheit ein serieller Prozess der mittlerweile so schnell ist das es so vorkommt das dies gleichzeitig geht.
Gutes bsp versuche mal an einen 1992 PC falls diese noch gehen zwei zugriffe auf einer Speicherzelle zu machen. Dir wird das OS abstürzen
Modernere OS stürzt lediglich der explorer ab
Directx ist per se seriell das gilt auch für die alternativen vulkan opengl metal (apple)
Und wir haben aktuell ein cpu limit weil mehr compute power gefüttert werden muss egal ob die compute mehr Takt bekommen oder mehr Einheiten letztere limitiert früher.
Das aktuelle maximum sind 5120 shader die kaum ausgelastet werden können siehe Volta gpu vs turing
Nur die Optimierung der turing architektur und somit folgende reduzierung der drawcalls sind die turing chips schneller als volta
Nvidia sowie amd müssen in späteren gpu die drawcalls anfragen an die cpu verringern
anders können wir nicht mehr fps generieren bei jeweiligen auflösungen FHD ohne aa ist mit einer rtx 2080 Schluss ohne massiv OC cpu ab 5ghz ist da nix mit 99% gpu Auslastung
1440p mindert das auf 4,6ghz
2160p reichen die 4ghz aus
skylake ipc
Und eine rtx2080ti bzw rtx titan sind schneller als eine gtx1080ti
Der beste Vergleich ist hier titan v die kaum schneller ist (~15%) als eine gtx1080ti trotz 33% mehr shader
Als SLI Nutzer müsstest du cpu limit kennen und nein das hat nichts mit sli profilen zu tun.
Ohne schnelle cpu erreicht man kaum 99% Auslastung je GPU das geht nur mit höhere Auflösung
Nvidia turing geht in die richtige Richtung weg von ineffizienten mehr drawcalls zu Einsparung dessen und mit raytracing bessere Grafik.
Die alternative ist Material das mehr als 6 ghz cpu Takt im Alltagsbetrieb schafft.
Hohe Taktraten sind nicht das Problem das erreicht man (max sind derzeit 10ghz) sondern die Abwärme und physik, die Komplexität einer arch verhindert oft hohen Takt daher takten gpu auch nicht so schnell wie cpu das liegt auch an der wärme die weg muss vom chip.
Die Mininaturisierung ist am ende (real sind wir bei 40nm genannt 7nm prozess)
Ob EUv da noch was reißt ist offen vielleicht führt das zu realen 30nm was nicht bedeutet das man mehr Takt bekommt tendenziell je kleiner desto weniger Takt. Die wärme muss irgendwo hin.
Also was macht mehr ipc, Befehlssätze aufjedenfall.
Mehr und schnelleren Speicher sehr richtig, sowie auch höherer Takt was am effektivsten ist.
Kurze Latenzen beim Speicher bedeutet mehr ipc daher kann man nicht sagen was den bei einen benchmark limitiert sofern Takt und speichergeschwindigkleit verschwiegen wird.
Was oft beim 3d mark anzutreffen ist einziger indikator ist angeblicher cpu Takt.
Denn die Erkennungssoftware ließt manchmal falsch aus. liegt an windows
bclk über 100mhz schon falscher timecode folge höhere zahlen und dennoch langsamer
Das lässt sich fixen mit Hpet und TPM oder die cpu Architekturen sind nicht mehr an pcie gekoppelt
Was derzeit alle CPu haben
daher Vorsicht bei angaben von 5ghz die mit 48 multi und 104mhz bclk sind
Gilt auch für amd ryzen 4,35ghz wo 42 mutli ist 102mhz
der bclk muss stabil mit 100mhz laufen max Schwankung laut spec 0,1mhz rauf runter 100,1 zu 99,9mhz
alles daneben verfälscht die Zeitmessung im System
Ungekoppelt von pcie wie früher wären OC Ergebnisse glaubwürdiger
Aktuell gibt es außer 3dmark kein benchmark der global standardisiert ist auf mehrere Jahre
Oft sind veraltete benches limitierender weil diese nicht die Funktionen der cpu und gpu unterstützen und die Datenbasis ist oft lückenhaft weil immer bei neueren benches nur neue hardware getestet wird
was mehr an den usern liegt
Du findest kein PC von 2012 in timespy mit fx8350 und hd7970, gtx680
Obwohl diese es könnten in HD (die paywall ist auch ein Grund)
 
AW: Nvidia RTX Titan: Grafikkarte wird von Social-Media-Kanälen gezeigt

Also ich erreiche schon die 100% bei beiden GPUs ohne Probleme mit meiner CPU in TimeSpy Extreme & Ultra... und mein BLCK ist exakt bei 100.
Hab auch mehrere Messungen mit beiden GPUs und der CPU und das auch mit unterschiedlichen Treibern und komme relativ immer auf das gleiche Ergebnis mit diesen Taktraten.

Das weitere Problem ist schraubt man jetzt die Grafik Anforderungen noch höher (1440p oder höher) um die GPUs noch mehr in den Fokus zu stellen gehen die GTX 1080iger im SLI ja noch weiter nach vorne, was dieses Schema
nicht gerade verschönt und die RTX 2080TI in das richtige Licht rücken würde...

Über den zweiten Test kann ich dies nicht sagen, ABER es ist trotzdem egal ob da ein CPU Limit vorliegt oder nicht wenn wir uns nur den reinen Graphics Score anguckt.
Sogar wenn wir da eine Toleranz von +1000 Punkten (Graphic Score) für das 2080TI Setup möglich wäre, (weil da ja nach deiner Interpretation ein CPU Limit vorliegt ist) ist mein Vergleich immer noch korrekt.

Denn selbst dann zieht die 2080TI wenn überhaupt gerade so gleich mit den 1080ern.

Betrachtet man wie gesagt Kepler 2x GTX 780 VS 980TI war die 980TI schneller und auch deutlich günstiger als das SLI Setup davor.
Das ganze war bei 2x GTX 980 VS GTX 1080TI sehr ähnlich.
Preisleistungstechnisch lag SLI auch wieder hintendran, hier steht knapp 1000€ für 2 gegen 700-800€ für eine.

Betrachtet man jetzt Pascal zu Turing.
Stimmt die Relation nicht mehr die GTX 1080 kostete zu Release um die 600-700€. Ein SLI Setup war also 2 Jahre vor Release der 2080TI günstiger und Leistet sogar mehr bei weniger Geld...


Selbst wenn man großzügig Rechnet kommt also nie und nimmer ein Positives Ergebnis für die RTX 2080TI bei P/L heraus...
 
Zurück