Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

@Mimimimimi
Was hast Du nachgewiesen, dass man eine 590 nicht auch optimieren kann. Einfache Rechnung bei 0,1kwh mehr. Die MSI Karte kostet gerade 65 Euro mehr als die Fatboy:

65 Euro mal 100 geteilt durch 3 Cent, entspricht 2133 Spielstunden, wenn man 5 Stunden pro Tag und auf Volllast setzt (wie du behauptest) sind das 433,3 Tage also 1,18 Jahre um auf den gleichen Anschaffungspreis und der Ersparnis wegen deiner berüchtigten Effizienz zu kommen, wobei einem 2 GIB VRAM fehlen. Genau sowas ist ein Strohmann-Argument und nichts weiter als mit Turgschlüssen falsche Vorstellungen zu nähren. Immer schön auf die Konkurrenz einschlagen. Sowas in einem Extrem-Forum! NVidias angepasstes Fertigungsverfahren in 12nm FFN braucht sogar mehr Strom als 7nm Normalo AMD oder kostet wohl mehr, von den Wafern mal ganz abgesehen. Man erkauft sich die Effizienz also teurer. Was beweist Du also? Du behauptest einfach irgendwelche Sachen und meinst das muß man Dir hier abkaufen. Es gibt genug Regler bei NVidia und AMD um sich seine Hardware so anzupassen wie es einem gefällt.

Was soll diese Hetzjagd auf AMD. Man sollte froh sein das die überhaupt noch Gamerkarten bauen. Die Aktie wieder im Keller und schon seit Ihr hier!

/edit: Ich würde wenn Geld knapp ist dann in diesem Segment auf die 2GIB mehr VRAM setzen. Wer weiß was da kommt. Rettet die Welt vor CO². Man man...das interessiert hier bestimmt niemanden, bei den paar Gramm pro Tag. Die kann man woanders viel besser einsparen. Man geht einfach mal zu Fuß.:schief:
 
Zuletzt bearbeitet:
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Für NVidias Wafer Ingots braucht man keinen Strom und auch keinen HF Ofen
Sehr gut, hast deinen selbst gebauten Strohmann zerlegt. Glückwunsch :daumen:

Da zählt der Durchschnittsverbrauch nicht der Wert der maximalen Leistungsaufnahme einer TDP oder TBP.
Deshalh habe ich dir ja auch Messwerte für eine durchschnittliche Gaminglast vorgelegt. Von deiner Lieblingssite TomsHW.

Differenz: 110W. Deal with it :cool:

Du stellst reihenweise Behauptungen auf, die Du als richtig deklarierst. Mit welchem Recht?
Mit welchem Recht willst du das nach nichtmal 24h Anmeldedauer behaupten können? :lol:

Ich umgehe keine Sperrungen, sondern habe meinen ursprünglichen Account wegen Leuten wie Dir schon letztes Jahr gekündigt. Scheint so als wäre ich damit nicht allein.
Sehr gut, dann ist der hier ja auch nur von kurzer Dauer. Bei deiner Ignoranz der Faktenlage :daumen:

Was hast Du nachgewiesen, dass man eine 590 nicht auch optimieren kann. Einfache Rechnung bei 0,1kwh mehr. Die MSI Karte kostet gerade 65 Euro mehr als die Fatboy:
Ach und eine GTX1660 kann ma nnicht optimieren? :lol:

65 Euro mal 100 geteilt durch 3 Cent, entspricht 2133 Spielstunden, wenn man 5 Stunden pro Tag und auf Volllast setzt (wie du behauptest) sind das 433,3 Tage also 1,18 Jahre um auf den gleichen Anschaffungspreis und der Ersparnis wegen deiner berüchtigten Effizienz zu kommen
1. Fehler: Es sind 110W. Also müsst du noch einen Faktor von 1,1 berücksichtigen. Sind es also nicht ein mal mehr 400 Tage.
2. Fehler: Die Differenz RX590/GTX1660 ist ca. 30€. Man kann auch durchaus von 20€ ausgehen, je nach Modell.

So werden aus den 433 Tagen plötzlich nur noch ein paar Monaten.

Kurz: Die "Ersparnis" der AMD-Karte ist ruckzuck aufgebraucht. Wer billig kauft, zahlt hinterher drauf :daumen:

Danke, dass du das so schön nochmal belegt hast.

Man erkauft sich die Effizienz also teurer.
Falsch, man erkauft sich die fehlende Effizienz sehr teuer. :daumen:

Was soll diese Hetzjagd auf AMD.
Also ich sehe nur einige, die hier ne Hetzjagd veranstalten und das bist du mit deinen Konsorten.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Das ist genauso Blödsinn weil es von der RX590 keine einzige Referenzkarte gibt, lieber Schaffe! Sinnloses Gestänker weil hier Ingot ohne Strom gezüchtet werden!

Es gibt aber eine Referenzvorgabe der TBP, bei den Modellen die der von AMD vorgegebenen Taktung entspricht und die ist sehr nahe an 225 Watt, also überschlagen sind es solide 100 Watt mehr, Netzteilverluste jetzt mal ausgeklammert.
Die Frage die es zu klären galt war: Welchen Einfluss hat Produktion und der Betrieb einer GPU auf Energieressourcen. Eine GPU die von Grund auf viel viel sparsamer ist, hat da die bessere Energiebilanz, auch in der Herstellung, da der Aufwand für Kühler, PCB, Package, Spannungswandler, Phasen, Layer etc. pp deutlich niedriger ausfällt.
Weil man AMD hier besser reden will als sie sind, wurde wieder versucht mittels an den Haaren herbeigezogenem Unsinn, so zu tun als ob die Herstellung einer GPU viel mehr Energie benötigt als wenn sie regelmäßig unter Last gesetzt wird, ja noch viel mehr so getan wird, als weise die Karte insgesamt eine schlechtere Energiebilanz auf, nur aufgrund dessen weil das Silizium mehr mm2 aufweist als das von AMD.
Arkintosz denkt wohl eine GPU besteht nur aus dem Silizium und zu allem überfluss greifst du dann andere wieder völlig sinnfrei an und streitest plötzlich um das Herstellungsverfahren von Silizium, welches überhaupt gar nicht der Streitpunkt war, und versuchst die Hauptdiskussion mit Geplänkel zuzudecken, anstatt die aufgeworfene Frage zu klären.

Das geht in der Regentonne von Mimimimimi (was ja aufzeigt wie viel er darüber weiß). Warum Du dich für einen anderen einsetzt ist fraglich, meinst Du er kann nicht allein antworten?

Nein, ich finde wenn jemand ungerechtfertigt unter der Gürtellinie angegriffen wird und noch nicht mal der eigentliche Punkt diskutiert wird, sondern versucht wird mittels Klein-Klein Geplänkel andere zu diskreditieren, dann darf man sich ruhig für jemanden einsetzen.
Wenn du glaubst eine Radeon RX 590 habe aufgrund eines etwas kleineren Dies eine besser Energiebilanz, egal wie viel aufwändiger die Kühlung, das PCB, oder der Betrieb sind, dann tut die Diskussion schon irgendwo weh, es ist einfach schmerzhaft solche Niveaulosen Debatten immer wieder zu lesen.
Es wird wieder flächendeckend Müll ins Forum gestreut, nur weil sich irgendjemand in der Ehre verletzt sieht, weil seine AMD GPU eine bei weitem schlechtere Ökobilanz als das Konkurrenzprodukt aufweist.
Das ist eben einfach so, muss man akzeptieren, dass das Leben kein Wunschkonzert ist. Realitäten annehmen, dann wird es auch hier weniger Streitereien geben.

Alter, es geht einfach darum, dass Ressourcen auf diesem Planet endlich sind und es immer auf Kosten der Umwelt geht, sowohl bei der Produktion als auch der Entsorgung, wenn neues hergestellt wird. Energie aus Wasserkraft z.b. tut aber keinem weh und ist eh da, weil die anderen Leute sowieso Energie brauchen.

Natürlich ist der Aspekt Herstellung/Ressourcen relevant, aber genau wo benötige ich zur Herstellung einer Turing GTX 1660 oder von mir aus 1660Ti mehr Ressourcen als für eine RX 590? Das ist doch ein Treppenwitz, wenn man sich die Karten ansieht.
Eine GPU besteht nicht nur aus dem Die, sondern aus viel mehr und wenn du an dem Punkt die Diskussion auf die These schiebst, es soll nichts neues mehr hergestellt werden, dann brauchen wir ja gar nicht weiter zu diskutieren, welche Energiebilanz ein Produkt hat.
Natürlich kann man hergehen und nur noch alle 4 Jahre eine GPU kaufen, oder generell auf Konsum verzichten und dennoch darauf achten, dass man energieeffiziente Produkte kauft, das wäre dann der Optimalfall.
Die Strom wird in D aber nicht nur aus Wasserkraft gewonnen, außerdem was kostet so ein Wasserkraftwerk, was kostet der Betrieb eines solchen an Ressourcen/Energie? Da kann man noch viel tiefer in die Diskussion einsteigen.
Wenn wir aber bei GPU´s bleiben, ist die Sache doch recht klar. Ich kann auch mit der Umwelt argumentieren und ein Produkt kaufen, welches weniger Ressourcen benötigt, auch wenn ich dies alle 2 Jahre tue.

Also alle zwei Jahre ne Nvidia kaufen, wegen nem neuen ultra drei Spiele Feature, oder zu wenig Vram, ist evtl. schlechter als alle vier Jahre Amd :)

Also hätte man sich jetzt eine Vega mit Interposer, aufwändigem HBM und fast 500mm² Chip, anstatt einer GTX 1080 mit 314mm² Die kaufen sollen, welche fast halb so viel Strom zieht?
Komischerweise habe ich noch nie jemanden im Forum gesehen, der die Energiebilanz dieses Produktes kritisiert.
Nur dann wenn ein Argument im Raum steht, welches klar für Nvidia spricht, aber AMD zurecht eine schlechte Energiebilanz zuschreibt, wird man dann plötzlich aktiv und sagt sinngemäß, ja wenn jemand auf den Stromverbrauch eines Produktes achtet, dann wäre AMD ja trotzdem besser, weil die 5% innerhalb von 2 Jahren an Performance zulegen, oder was ists da die Idee?
Glaubst du man muss nur alle 4 Jahre eine AMD kaufen, weil sie nach dem Launch 5% Leistung zulegen?

Aeh gilt aber auch umgekehrt, also alle zwei Jahre ne Amd kaufen, weil man Amd unterstützen will, ist schlechter als alle vier Jahre ne nVidia

Ich kann auch nur alle 10 Jahre eine neue GPU kaufen, geht halt an der eigentlichen Diskussion einfach vorbei.

Also meine Aorus 2080ti OC verbraucht schon bei 1650MHZ 288Watt. So wie das hier immer dargestellt wird schafft ja jede NVidia Karte locker 2GHZ.

Komische Karte, meine 2080 Ti Palit benötigt für 1650 Mhz gerade mal ~170 Watt und bringt sogar mit ~215 Watt 1900Mhz.
Offenbar willst du diesen Blödsinn, man könne nur Radeon Karten undervolten, auch wieder verbreiten.
Fast 300 Watt für lediglich 1650Mhz ist ja wohl ein Scherz, ich nehme mal ganz stark an, du hast keine Ahnung von GPU´s, weil du sie nämlich gar nicht besitzt, oder ist das ein Modell von der Müllhalde, welches nur mit 1,2 Volt auf 1650 läuft? :D

Er weiß damit über NVidia Karten mehr als die Mehrheit hier. Ich glaube sogar das er dort arbeitet! gastello rückwärts gelesen bedeutet olletsag! Er könnte auch der Gast aus dem 3dCenter sein der dort schon sehr sinnvolle Beiträge geschrieben hat.

Er ist die rechte Hand von Jensen, das weiß doch hier mittlerweile jeder der sein LinkedIn Profil gesehen hat.
Soviel Detailwissen wie der gehabt hat...aber permanent die einfachsten Dinge verwechselt hat, wahrscheinlich copy-paste aus einem anderen Forum. ;)
 
Zuletzt bearbeitet:
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Es gibt aber eine Referenzvorgabe der TBP, bei den Modellen die der von AMD vorgegebenen Taktung entspricht und die ist sehr nahe an 225 Watt, also überschlagen sind es solide 100 Watt mehr, Netzteilverluste jetzt mal ausgeklammert.
Tatsächlich kann man sich das bei AMD aussuchen. Das Tool heißt AMD Radeon Software, Unterpunkt Wattman. :schief: Ich denke die Fähigkeit zur Bedienung dieses Menüs kann man von einem PC Gamer erwarten. Vorallem, da man zur Stromanpassung genau einen Schieberegler (Power Limit) nach links ziehen muss. Das kriegt jeder Vollidiot hin.

Der Spielraum in Wattman für das Referenz BIOS der 590 reicht von:
Power Limit -50 = 125 Watt @ ~ 1000 MHz über
Power Limit +-0 = 215 Watt @ ~ 1545 MHz bis hin zu
Power Limit +50 = bis zu 250 Watt @ 1625 MHz (dieser Takt ist bei dem Power Limit selbst in 4K noch rockstable)

Diese Werte schafft jede einzelne 590 ohne Overvolting (das typische OC Potenzial ohne OV der 590 liegt bei 1640 MHz).
Die Performance der GTX 1060 @ 120 Watt matched man bei Powerlimit -35 = 150 Watt @ ~ 1350 MHz.

Und schupps waren's nur noch 30 Watt Differenz bei 2GiB mehr VRam und besserer DX12/Vulkan Leistung.

Um mal noch was zum Thema zu sagen:
Ja AMD setzt auch 2019 noch ziemlich hohe Powertargets, die nicht mehr ganz dem Öko-Zeitgeist ensprechen. Ich denke das wird sich auch im 7nm Prozess nicht ändern - ich gehe davon aus, dass man auch bei Navi die Taktraten (und damit den Verbrauch) voll hochzieht um noch die letzten 50 MHz rauszuholen. Aber wenigstens bieten sie out of the box (per Treiber) die Option zur Anpassung.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

@PolyOnePolymer

Dann klick einfach ein paar Seiten zurück und lies das PDF das ich dazu angehängt habe.

/edit: ...nur weil man nicht weiß was ein Lichtbogenofen ist, braucht es für die Siliziumherstellung keinen Hochofen. Dann nochmal lesen was dazu im Ausgangspost geschrieben wurde.

Es wurde hier von bestimmter Seite mit CO² auch munter weiter gemacht, obwohl es die Moderation ein paar Beiträge vorher schon unterbunden hat.

Um mal noch was zum Thema zu sagen:
Ja AMD setzt auch 2019 noch ziemlich hohe Powertargets, die nicht mehr ganz dem Öko-Zeitgeist ensprechen. Ich denke das wird sich auch im 7nm Prozess nicht ändern - ich gehe davon aus, dass man auch bei Navi die Taktraten (und damit den Verbrauch) voll hochzieht um noch die letzten 50 MHz rauszuholen. Aber wenigstens bieten sie out of the box (per Treiber) die Option zur Anpassung.
Das Menü ist gelungen, nach zwei Tagen bin ich jetzt durchgestiegen:

Stock R VII:
P0 808 bei 719mV
P1 1304 bei 783mV
P2 1801 bei 1058mV

Das AFVS ist sehr fein abgestimmt.

Lüfter Stock mit 5 Profils:
P0
P1
P2
P3
P4

Ist interessant zu sehen wie man das löst und macht Spaß, auch wenn man die Performance der Mitbewerber nicht ganz schafft. Es kommt immer auf das Gesamtpaket an. Das UI und die Abstimmungsmöglichkeiten sind erste Sahne.
 
Zuletzt bearbeitet:
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Tatsächlich kann man sich das bei AMD aussuchen. Das Tool heißt AMD Radeon Software, Unterpunkt Wattman. :schief: Ich denke die Fähigkeit zur Bedienung dieses Menüs kann man von einem PC Gamer erwarten. Vorallem, da man zur Stromanpassung genau einen Schieberegler (Power Limit) nach links ziehen muss. Das kriegt jeder Vollidiot hin.

Stimmt, wer seine Hardware nicht nachträglich auf niedrigere Spannungen einstellt und die Referenz Einstellungen wie 99,99% der User nutzt, ist ein Vollidiot.

Bei der Diskussion geht es überhaupt nicht um irgendwelche Cherry picks, aber dennoch kommt sofort wieder die Verteidigung nach dem Motto man kann ja undervolten.

Spielt bei der Bewertung der Energieeffizienz eines Produktes wenn man die GPUs vergleicht, keine Rolle. Ach ja die GTX 1660 lässt sich prozentual genauso optimieren...,womit der Einwand sowieso nicht gilt.




Und schupps waren's nur noch 30 Watt Differenz bei 2GiB mehr VRam und besserer DX12/Vulkan Leistung.

Was für ein alberne Vergleich und dass die 590 eine bessere Vulkan und Direct x12 Leistung als Turing hat, würde ich ganz massiv bezweifeln.

@PolyOnePolyme
Dann klick einfach ein paar Seiten zurück und lies das PDF das ich dazu angehängt habe.

Nicht von Interesse weil Nebenschauplatz, behaupte auch nicht das Gegenteil.
Von der Tatsache dass Nvidia Produkte die bessere Energiebilanz haben, die du leugnest, diskutierst du jetzt über irgendwelche Herstellungsdetails...ja ne is klar.
Dann nochmal lesen was dazu im Ausgangspost geschrieben wurde.

Nicht mein Thema, bin nur dazu da die groteske Falschdarstellung der Effizienz zu korrigieren.
Einfach nervig, gezielt Falschdarstellungen zu posten, ich muss mich bei dir immer fragen was du damit bezweckst.
 
Zuletzt bearbeitet:
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Stimmt, wer seine Hardware nicht nachträglich auf niedrigere Spannungen einstellt und die Referenz Einstellungen wie 99,99% der User nutzt, ist ein Vollidiot. Bei der Diskussion geht es überhaupt nicht um irgendwelche Cherry picks, aber dennoch kommt sofort wieder die Verteidigung nach dem Motto man kann ja undervolten. Spielt bei der Bewertung der Energieeffizienz eines Produktes wenn man die GPUs vergleicht, keine Rolle. Ach ja die GTX 1660 lässt sich prozentual genauso optimieren...,womit der Einwand sowieso nicht gilt.
a) Ein Powertarget hat nichts mit Spannungen/Undervolting zu tun. Wenn du das Powertarget einer Geforce senkst, wird sie auch langsamer.
b) Custom Geforces liegen in der Regel auch über Nvidias Referenzverbräuchen, da höheres Powertarget.

Von Undervolting (das geht mit Wattman noch zusätzlich) habe ich explizit nicht gesprochen, da man auch Geforces undervolten kann. Ich habe dir lediglich erklärt, dass AMD für die letzten 10% Performance ziemlich hohe Powertargets setzt. Es wäre angesichts des Energiesparzeitgeists aber cleverer auf diese 10% zu verzichten - siehe damals die Nano mit 175 Watt Power Limit, die nur 10% langsamer als die Fury X war, aber 70 Watt weniger verbraucht hat.

Was für ein alberne Vergleich und dass die 590 eine bessere Vulkan und Direct x12 Leistung als Turing hat, würde ich ganz massiv bezweifeln.
Seit wann ist die 1060 Turing? Die 590 ist kein Turing Konkurrent (dieser heißt Navi). Lies mein Posting nochmal! Aber sei's drum, bleibt halt nur der größere Speicher bei gleicher Performance.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Nicht von Interesse weil Nebenschauplatz, behaupte auch nicht das Gegenteil.
Von der Tatsache dass Nvidia Produkte die bessere Energiebilanz haben, die du leugnest, diskutierst du jetzt über irgendwelche Herstellungsdetails...ja ne is klar.

Nicht mein Thema, bin nur dazu da die groteske Falschdarstellung der Effizienz zu korrigieren.
Einfach nervig, gezielt Falschdarstellungen zu posten, ich muss mich bei dir immer fragen was du damit bezweckt.
Was für eine groteske Falschdarstellung, weil 100Watt und 0,1kwh nicht das Gleiche sind? Ich habe das lediglich mit der Hardware verglichen die ich hier habe und die ist nicht viel besser oder effizienter.

Geht man von 0,05kwh und 1,5Cent aus sind es gleich 2,36 Jahre und ich kann gerne eine 590 für 188 Euro dagegen halten. Nur weil Ihr/Du ein Produkt nur so betrachtet wie ihr es für richtig haltet und ich es eher als Gesamtprodukt sehe, muss ich mich hier nicht ellenlang mit eurer eigenen grotesken Falschdarstellung auseinandersetzen und wie euch das passt. Mich dabei Euren Angriffen erwehren.

Schön wie dann ausgewichen wird, wenn man etwas stichhaltiges vorweist wie ein PDF das was anderes aussagt als behauptet wurde, dann interessiert man sich nicht mehr dafür worauf man vorher seitenlang umhergeritten ist.

Wie effizient ist demn MaxQ (um bei Thema zu bleiben), sind doch auch nichts weiter als undervolt Dies die den Akku leer ziehen und lärmen wie der Teufel. 54,2db laut! NVidia hat doch selbst genug Probleme da gibt es vor der eigenen Tür genug zu fegen.

Nvidia Max-Q limits fan noise to 40 dBA when gaming - so why are we recording louder results? - NotebookCheck.net News

Wer kauft sich so einen Fön?
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Dacia ist günstiger als die "Konkurrenz" Modelle, aber die Radeon VII kostet ca. 200€ (~40%) MEHR als eine (wie du sagst ca. gleich schnelle und bzgl. Features besser ausgestattete) RTX2070. Du merkst selbst dass deine Behauptung mal so gar keinen Sinn ergibt, oder? ;)

Es mag mehrere Gründe geben die einen dazu bewegen lieber eine Radeon VII zu kaufen, der Kaufpreis (von fast 700€) gehört jedenfalls nicht dazu.






Du sagst es selbst , eine fast gleich schnelle voll ausgestattete viel leisere Nvidia RX 2070 , im 12 nm Verfahren mit über 100 Watt weniger Verbrauch , kostet ca. 200 Euro weniger als ne Amd Radeon 7 im 7nm Verfahren .


Der Kauf Grund für die Radeon 7 war der von Amd beworbene 16GB grosse Vram der aktuell in ca. 98% aller Games in normaler Auflösung keinen sichtbaren , spürbaren Vorteil bringt.

Somit macht der Kauf einer Radeon 7 mit der alten uneffizienten GNC keinen Sinn .

Der Vergleich mit Dacia bezog sich auf die von Renault abgelegte veraltete Technik die bei Dacia verbaut wird , und über den Preis ab der Vega 64 abwärts wo nur Geiz ist geil Zählt , und schon 250,- Euro AMD Karten von dieser Käuferschaft auch noch in Raten finanziert werden müssen ;)
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Du sagst es selbst
Ich sage erstmal gar nichts, ich habe lediglich deine Aussagen wiederholt/zusammengefasst.
Der Vergleich mit Dacia bezog sich auf die von Renault abgelegte veraltete Technik die bei Dacia verbaut wird
Bitte bei der Wahrheit bleiben:
Der Hauptgrund warum Amd gekauft wird ist der selbe warum auch die Automarke Dacia ( oder ähnliches) gekauft wird , nämlich der Kaufpreis !
Ziemlich eindeutige Aussage.
...und schon 250,- Euro AMD Karten von dieser Käuferschaft auch noch in Raten finanziert werden müssen ;)
Mit solchen Aussagen machst du unmissverständlich klar, dass dein primäres Anliegen einfach nur die Provokation anderer User (hier AMD-Käufer) ist, womit du dich selbst als ernstzunehmenden Gesprächspartner leider komplett disqualifizierst.
 
Zuletzt bearbeitet:
"Die kommende Konsolengeneration wird bereits Raytracing-Unterstützung bieten, was auf Seiten der Spiele dramatisch helfen dürfte. "
:lol:

Raytracing ist ohne AMD-Hardware-Unterstützung auf Konsolen wenig zukunftsträchtig?
So könnte man jedenfalls die Aussage auch interpretieren... ;)

mfg

7nm kommt, aber ebene erst mit der nächsten Generation in frühestens 1,5 Jahren. RT jedoch IST wirklich die Zukunft für Grafikkarten. allerdings dauert das noch eine Weile, bis wirklich alles mit Raytracing dargestellt werden kann und klassische Shader weitestgehend unnötig werden.
....

Das wird aber keine 1,5 Jahre dauern, und (sehr) wahrscheinlich werden auch keine 5 Jahre ausreichen.
Vielleicht in 10...

RT derzeit ist "Murks".
Praktisch jedes Spiel mit RT, nutzt jeweils einen(!) kleinen Aspekt davon (Beleuchtung, oder Schatten, oder...), mit überschaubarem Anteil am Gesamtbild, jedenfalls wenn man noch spielbare FPS haben will... ;)

mfg
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

AMD ist gerade im Bereich von Grafikkarten für mich seit langem keine Option mehr, da deren Angebot schlicht und einfach zu verschwenderisch mit Energie umgeht und dann immer noch nicht in der Lage ist, entsprechende Leistung zu bieten. Dabei spielt es keine Rolle, ob der durchschnittliche Benutzer am Ende eines Jahres 50, 20. 10 oder auch nur 1€ höhere Energiekosten hat - das Problem dabei ist, das sich diese Kosten aufgrund der Anzahl der verkauften Einheiten potenzieren und diese von der gesamten Gesellschaft getragen werden. Ich für meinen Teil wäre wirklich überrascht, wenn sich diese Erkenntnis noch zu meinen Lebzeiten durchsetzen würde - angesichts der zunehmenden Verdummung habe ich allerdings meine Zweifel, dass sich etwas ändern wird, bevor die Kacke wirklich am Dampfen ist.

Oh je, wieder einer, der den Klimawandel, AMD und seinen Grafikkarten zuschreibt... ;)

Schau mal, wo wirklich "Energie" in unglaublichen Dimensionen verschwendet wird, und wo es 99,99% der Bevölkerung, wie auch der Politik am Allerwertesten vorbeigeht...ich sag z.B. nur: Getränkedosen... ;)

Wasser predigen und Wein saufen...

mfg
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Die Grafik veranschaulicht vor allem, dass es ziemlich egal ist, wie der Prozessname lautet.
Es gibt keine genauen Angaben bezüglich den "12"nm FFN-Prozess, welcher Nvidia exklusiv ist.
Bezogen auf die Transistordichte hat sich zwischen Pascal und Turing wenig bis nichts getan.
GeForce RTX 2080 Ti, 2080 & 2070: Technik im Detail - ComputerBase

Das Bild zeigt darüber hinaus den 7nm mobile Prozess mit 6-Track-Cells von TSMC, nicht den weniger dichten 7nm HPC-Prozess mit 7.5-Tracks.
Im Vergleich zu GloFos und TSMCs 14/16nm Prozess spart der 7.5T HPC-Prozess dennoch viel Fläche ein, wenn analoge Schaltungen keinen zu großen Anteil vom Chipdesign aufweisen.
Vega VII ist im Vergleich zu Vega10 33% kleiner (331mm² vs. 495mm²), hat aber ein doppelt so breites HBM2-Interface und zwei Infinity-Links/XGMI.

Wobei die Packdichte nicht alles ist. Man darf den Yield und die Verfügbarkeit nicht vergessen. TU102 wäre auch in 7nm immer noch eine großer Chip und wahrscheinlich 40% größer als Vega VII. TU104 wäre auch größer als Radeon VII, wenn auch nur geringfügig. Damit ist aber auch klar, dass NV beide kaum vor dem Launch der R7 am Markt hätte haben können. Imho war die Entscheidung für 12nm als Zwischenschritt sinnvoll, denn 7nm in Massenproduktion sehen erst ab Q3/19, fast ein Jahr nach dem Start der 2000er Serie.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

...
Allerdings - das hat man ja schon an dem Vergleich zwischen E-Motor und Verbrennungsmotor gesehen, wo herauskam, dass der E-Motor erst nach über 100.000 km Fahrleistung wieder den zusätzlichen CO2-Ausstoß reingeholt hat, den seine Herstellung bewirkte.
Da geben viele den Wagen schon ab...

Das "ökologisch beste" ist, neben kein Auto haben/fahren, immer noch seinen (alten) Diesel/Benziner solange wie möglich zu fahren... ;)

Leute die auf Teufel komm raus, jetzt ein E-Auto kaufen, nur weil es "in" ist, womöglich noch als Zweitauto, sind eigentlich die größten "Umweltsäue" überhaupt...nur (wollen sie es nicht) wissen, oder die Werbe-Öko-Verkaufs-Strategen haben ganze Arbeit geleistet. ;)

mfg
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Selten so einen Schmarr´n gelesen !
Obwohl, von Dir schon des öfteren …

MfG, Föhn.

Vielleicht kennt er Werte wie Integrität nicht. :D Manche berücksichtigen auch solche Dinge beim Kauf. Auch wenn es die Minderheit ist.

Da ich weiß was sich Intel und auch Nvidia in der Vergangenheit immer wieder geleistet haben, will ich solche Firmen nicht supporten. Entweder es gibt dann was von AMD für meine Ansprüche oder nicht. Punkt.

Da stecke ich mein Geld lieber in Aktien und P2P Lending als so viel mehr Geld für ein paar Prozent mehr Performance auszugeben. Aber wer das als Hobby macht und Spaß dran hat, ist doch gut. :)

Ich kaufe für meinen Tower seit 2007 nur AMD Hardware und ich konnte immer zocken was ich wollte und habe alle Tools benutzen können, die ich gebraucht hab. Ja es geht.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Für mich der überbewerteste Effekt überhaupt . Sieht total unwichtig aus und frisst unendlich Leistung . Entwickelt lieber altbewährtes weiter als euch auf so nen Müll zu versteifen.:nicken:
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Für mich der überbewerteste Effekt überhaupt . Sieht total unwichtig aus und frisst unendlich Leistung . Entwickelt lieber altbewährtes weiter als euch auf so nen Müll zu versteifen.:nicken:

Da geht man dann aber in die falsche Richtung. Du wirst niemals realistische Beleuchtung einfacher erzeugen können als durch RT und PT. Zudem wird die Qualität damit nicht linear skalieren. Wenn du beim Rastern alles verdoppelst (Geometrie, Texturen, Shading Effekte, Beleuchtung etc.) musst du auch nahezu doppelt so viel berücksichtigen.
Würde man alles Raytracen verhält sich das eher logarithmisch. Hatte ich zumindest mal gelesen. Wer sich hier damit auskennt, bitte einhaken :)

Also irgendwann kommt man an einen Punkt an dem es ressourcenschonender sein wird mit RT zu arbeiten als klassisch.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Da geht man dann aber in die falsche Richtung. Du wirst niemals realistische Beleuchtung einfacher erzeugen können als durch RT und PT. Zudem wird die Qualität damit nicht linear skalieren. Wenn du beim Rastern alles verdoppelst (Geometrie, Texturen, Shading Effekte, Beleuchtung etc.) musst du auch nahezu doppelt so viel berücksichtigen.
Würde man alles Raytracen verhält sich das eher logarithmisch. Hatte ich zumindest mal gelesen. Wer sich hier damit auskennt, bitte einhaken :)

Also irgendwann kommt man an einen Punkt an dem es ressourcenschonender sein wird mit RT zu arbeiten als klassisch.

Es gibt in der Tat Forschung seitens Intel zu diesem Thema. Der RT-Spezialist Daniel Pohl hat bei Intel viel über RT geforscht und laut seinen Forschungen skaliert Raytracing logarithmisch mit der Geometriekomplexität, während Rasterisierung linear mit der Geometriekomplexität skaliert. Die Quelle findet sich hier:
Realtime ray tracing for current and future games
Letztendlich spricht er dabei über hierarchische Beschleunigungsstrukturen in Raytracing. Ein Raytracer könnte einfach wild Strahlen in die Szene schießen und schauen, was getroffen wird - in den meisten Fällen ergibt das aber wenig Sinn. Daher wird die Szene in eine Hierarchie unterteilt. Es wird quasi erst grob geschaut, wohin der Strahl trifft (also ob er in ein bestimmtes Voxel fällt) und der genaue Punkt genauer berechnet, sobald das ungefähre Volumen gefunden ist. Somit spart man sich die Trefferabfrage in Orten, wo der Strahl eh unmöglich hinfallen wird. Mit Rasterisierung funktioniert das rein konzeptbedingt schon mal nicht.
Das Problem ist, dass das nur bei statischer Geometrie vernünftig funktioniert. Sobald Animationen oder gar Soft Bodies im Spiel sind, muss on the fly ein groberes Voxel über das bewegte Modell gelegt werden - bei statischen Modellen kann dieses im Voraus berechnet und abgespeichert werden. Das kostet bei bewegten Modellen zusätzlich Rechenzeit - und damit Performance.
Der Hauptpunkt für RT ist zur Zeit jedenfalls sicher nicht die Performance. Es geht eher darum, Effekte darstellen zu können, die man im Voraus halt nur mit würgen und brechen hinbekommen hat - so wie Spiegelungen. Die sahen entweder "falsch" aus (so wie bei Cube-Maps) oder hatten überall da Löcher, wo die Spiegelung nicht im Screen Space liegt (Screen Space Reflections). Und RT-AO bzw. Globale Beleuchtung über RT ist einem rasterisierten "Hinbescheißen" in Sachen Realismus natürlich haushoch überlegen. Vor allem ist aber der Code von RT unglaublich einfach, man muss sich als Entwickler um nichts mehr kümmern, da eh alles physikalisch basiert ist und man muss nicht mehr Tweaken, um blöde Artefakte weg zu bekommen. Das sind die Gründe, die RT irgendwann zum Durchbruch verhelfen werden, wenn man eh genug Rechenleistung hat. Aber die Performance wird in nächster Zeit wohl kein Argument für RT werden.
gRU?; cAPS
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Es gibt in der Tat Forschung seitens Intel zu diesem Thema. Der RT-Spezialist Daniel Pohl hat bei Intel viel über RT geforscht und laut seinen Forschungen skaliert Raytracing logarithmisch mit der Geometriekomplexität, während Rasterisierung linear mit der Geometriekomplexität skaliert. Die Quelle findet sich hier:
Realtime ray tracing for current and future games
Letztendlich spricht er dabei über hierarchische Beschleunigungsstrukturen in Raytracing. Ein Raytracer könnte einfach wild Strahlen in die Szene schießen und schauen, was getroffen wird - in den meisten Fällen ergibt das aber wenig Sinn. Daher wird die Szene in eine Hierarchie unterteilt. Es wird quasi erst grob geschaut, wohin der Strahl trifft (also ob er in ein bestimmtes Voxel fällt) und der genaue Punkt genauer berechnet, sobald das ungefähre Volumen gefunden ist. Somit spart man sich die Trefferabfrage in Orten, wo der Strahl eh unmöglich hinfallen wird. Mit Rasterisierung funktioniert das rein konzeptbedingt schon mal nicht.
Das Problem ist, dass das nur bei statischer Geometrie vernünftig funktioniert. Sobald Animationen oder gar Soft Bodies im Spiel sind, muss on the fly ein groberes Voxel über das bewegte Modell gelegt werden - bei statischen Modellen kann dieses im Voraus berechnet und abgespeichert werden. Das kostet bei bewegten Modellen zusätzlich Rechenzeit - und damit Performance.
Der Hauptpunkt für RT ist zur Zeit jedenfalls sicher nicht die Performance. Es geht eher darum, Effekte darstellen zu können, die man im Voraus halt nur mit würgen und brechen hinbekommen hat - so wie Spiegelungen. Die sahen entweder "falsch" aus (so wie bei Cube-Maps) oder hatten überall da Löcher, wo die Spiegelung nicht im Screen Space liegt (Screen Space Reflections). Und RT-AO bzw. Globale Beleuchtung über RT ist einem rasterisierten "Hinbescheißen" in Sachen Realismus natürlich haushoch überlegen. Vor allem ist aber der Code von RT unglaublich einfach, man muss sich als Entwickler um nichts mehr kümmern, da eh alles physikalisch basiert ist und man muss nicht mehr Tweaken, um blöde Artefakte weg zu bekommen. Das sind die Gründe, die RT irgendwann zum Durchbruch verhelfen werden, wenn man eh genug Rechenleistung hat. Aber die Performance wird in nächster Zeit wohl kein Argument für RT werden.
gRU?; cAPS
Danke für diesen Beitrag.
Nicht nur das er inhaltlich gut und dazu auch noch gut formuliert ist, nein er ist auch noch interessant. Dachte schon der Thread wäre verloren. :-)

Gesendet von meinem D6503 mit Tapatalk
 
Zurück