Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Das es noch Leute gibt die was auf GSync geben? Es ist Outdated, war es schon immer. VRR ist der Weg.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Was ich persönlich viel spannender finde als die ewige Diskussion 12nm vs 7nm bla bla, ist der Punkt, dass die RTX2070 kaum bzw. gar nicht effizienter ist bei selber Leistung wie meine GTX1080. Es hat sich in der Branche einfach Leistung/Watt in den letzten Jahren kaum etwas getan.

Auch wenn ich damit hier ziemlich alleine dastehe, aber ich würde meine Grafikkarte am liebsten gegen ein deutlich energieeffizienteres Modell tauschen, als einfach nur mehr Leistung bei mehr Verbrauch. Bspw. die 2080Ti verbraucht in Relation mehr Strom als der Leistungsgewinn vermuten lassen würde.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Die Radeon7 ist zur Zeit einer der technisch aufwendigsten Grafikkarten am Markt, warum wird auf ihr immer rum gehackt?
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Die Radeon7 ist zur Zeit einer der technisch aufwendigsten Grafikkarten am Markt, warum wird auf ihr immer rum gehackt?

Vielleicht weil technisch aufwendig nicht immer mit leistungsfähig und/oder besser gleichzusetzen ist.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Nvidias Turing wird in 12nm ( entspricht Intels Packdichte bei 14nm+++++..) gefertigt. Beim Sprung auf TSMC 7nm würden sie nur 20% Chipfläche einsparen, aber mehr als 20% investieren müssen. Es lohnt sich einfach nicht. Entweder wird der TSMC 7nm Prozess billiger oder sie springen gleich auf den nächten Node in TSMC 5nm auf:
Anhang anzeigen 1045448

AMD muss zum nächsten Node greifen, weil sie fertigungstechnisch hinter Intel und Nvidia sind. Beim Sprung von GloFo 14nm auf TSMC 7nm sparen 57% der Chipfläche + andere Vorteile.
 
Zuletzt bearbeitet:
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Zwischen 500€ und 700€ liegen 30% Preisdifferenz. Diese Preisdifferenz bei allen Spielen mit spürbarer Leistung zu hinterlegen ist ein Problem für AMD und Nvidia. Einerseits wird die 2070 schlicht nicht um 30% von der 2080 übertrumpft wenn RTX ausgeschalten ist. Andererseits gibt es gerade mal 3 Spiele die RTX unterstützen und von denen keines im Verdacht steht Spiel des Jahres zu sein, das die Massen begeistert jeden Tag spielen die nächsten 12 Monate.

Dann wiederum sind 30% Leistungsunterschied nicht immer sichtbar. Den Unterschied zwischen 40fps und 52fps mag man noch spüren. Zwischen 90fps und 117fps sieht das anders aus. Selbst wenn die Karte also liefert was das Preisschild verspricht, also +30% Leistung bei 30% Preisaufschlag, hat man vielleicht gar nicht das passende Spiel bei dem man einen spürbaren Zuwachs an Frames oder Bildqualität hat.


Eine 1070 und eine 2080 wären zwei typische Karten die ca. 30% auseinander liegen in der Leistung. Da wäre dann Division 2 so ein Spiel bei dem man gut merkt was auf der einen Karte geht und auf der anderen nicht und man fängt an den Einstellungen das drehen an. Wer lieber Destiny2 als Lootershooter bevorzugt, der merkt davon gar nix.

Drastisch gesagt haben die Entwickler ein "Rendertarget" und das ist die aktuelle Konsolengeneration PS4pro und Xbox1X. Dann gibt es für PC Spieler noch ein Setting höher, das ist dann meist aber schon vorausschauend das vermutete Rendertraget der nächsten Konsolengeneration, also der PS5, damit man dort zum Start mit der "enhanced Version" noch einmal Geld verdienen kann. Alles was am PC jenseits davon angesiedelt ist, befindet sich im Bereich "billiges Upgrade" wie Kantenglättung, Texturfilter, Sichtweite und Auflösung. Das ist jetzt kein Kostenfaktor für die Entwickler, da müssen nicht für teuer Geld Texturen erstellt, oder die Geometrie des Welt angepasst werden. Den Unterschied zwischen Crysis auf PC und Crysis auf Xbox360 sieht man sofort. Den Unterschied zwischen Division 2 auf PC und auf Xbox1X, da muss man schon mit dem Adlerauge hinsehen, das wird für die meisten Spieler funktional gleich sein. Und das ist dann das Problem von Grafikkarten im 500€ und mehr Segment, die Software die diese Karten im Moment rechtfertigt ist dünn geworden.

Gepaart mit dem Umstand, dass populäre Spiele vor allem mit Gameplay punkten und auf jeder billig Karte gut genug laufen trägt dazu bei, dass teure GPUs kontroverser geworden sind. Da ist eine Krise was deren Preis legitimiert. Dort wo Leute ihren PC als Hobby sehen haben wir denke ich keine Probleme, denn in Hobbies wird Geld investiert, da nimmt man sich Zeit, da hat man daheim seinen Ort der für das Hobby ausgerichtet ist. Daher ist man ja dann beleidigt, wenn ein Spiel auf einer Plattform kommt die man eher mit dem Klo assoziiert. Und dort, wo Spiele einfach unterhalten sollen, so wie ein Stream auf Netflix schnell und billig unterhalten soll klafft ein Loch warum man so viel Geld ausgeben sollte, denn sichtbar ist der Unterschied nicht zwischen 500€ und 700€.

Wenn Navi kommt wird der RTX2060 Refresh von Nvidia (jede Wette RTX 2660) das wichtigste Produkt für Nvidia seit 10 Jahren. Denn die Karte muss mit allem klarkommen womit Entwickler die PS5 bewerfen in den nächsten 2 Jahren, sie muss genug Speicher haben und sie muss mit AMD konkurrieren.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Interresant ist am Ende nur , wieviel FPS ich mit wieviel Watt bei einer aktuellen Grafikkarte rausbekomme !

Und was das schon alleine angeht ist AMD einfach nur rostiges Alteisen.

NVIDIA RTX2070 12 nm 175 Watt

Amd Radeon 7 7 nm 300 Watt !!!! ( nur ca. 4% schneller als rtx 2070 laut PCGH Leistungsindex )

Dazu kommt noch das Amd Karten aktuell weder Raytracing noch G-sync bieten , die aktuellen NVIDIA Karten aber alle Funktionen inklusive Amd ,s Freesync beherrschen .

Der Hauptgrund warum Amd gekauft wird ist der selbe warum auch die Automarke Dacia ( oder ähnliches) gekauft wird , nämlich der Kaufpreis !


Das Ollestag viel Unsinn schreibt und offensichtlich oft Fehlinformiert ist , ist mittlerweile bekannt :schief:
Also meine Aorus 2080ti OC verbraucht schon bei 1650MHZ 288Watt. So wie das hier immer dargestellt wird schafft ja jede NVidia Karte locker 2GHZ. Nur dann verballert meine Karte 360Watt bei einem Trippleslotdesign. Es ist also so wie immer und wie es schon immer war, mehr Leistung kostet mehr Strom und mehr Aufwand. Was das mit olletsag zu tun haben soll erschließt sich mir nicht.

Wen ich nicht falsch liege hat er das hier und das geschrieben. Er weiß damit über NVidia Karten mehr als die Mehrheit hier. Ich glaube sogar das er dort arbeitet! gastello rückwärts gelesen bedeutet olletsag! Er könnte auch der Gast aus dem 3dCenter sein der dort schon sehr sinnvolle Beiträge geschrieben hat. Natürlich wird dann alles auf Fehler in einer Eigeninterpretation von Informationen geschoben. Selbst ist man davor ja absolut gefeit und meldet sich zum Austausch solcher Infos in einem Forum wie PCGH an. Ganz sicher!
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Nvidias Turing wird in 12nm ( entspricht Intels Packdichte bei 14nm+++++..) gefertigt. Beim Sprung auf TSMC 7nm würden sie nur 20% Chipfläche einsparen, aber mehr als 20% investieren müssen. Es lohnt sich einfach nicht. Entweder wird der TSMC 7nm Prozess billiger oder sie springen gleich auf den nächten Node in TSMC 5nm auf:
Anhang anzeigen 1045448

AMD muss zum nächsten Node greifen, weil sie fertigungstechnisch hinter Intel und Nvidia sind. Beim Sprung von GloFo 14nm auf TSMC 7nm sparen 57% der Chipfläche + andere Vorteile.
AMD wird die nächste Grafikkarte mit Chips von Samsung bauen.
Samsung fängt schon 2021 mit Chips in 3nm an wohingegen TSMC erst ab 2023 damit anfängt.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Anstatt auf Umsatzzahlen und Spiele mit Raytracing zu "hoffen" sollte man vielleicht etwas mehr Iniative ergreifen und potente Nachfolger für meine GTX 1080 Karte bereit stellen. Sollte Nvidia weiter hoffen, dann lebe ich weiter in der Realität und gönne mir einfach eine Spielekonsole die in Sachen Preis Leistung nicht nur hoffentlich besser sondern tatsächlich besser ist als Nvidia Träumerkarten.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Also meine Aorus 2080ti OC verbraucht schon bei 1650MHZ 288Watt. So wie das hier immer dargestellt wird schafft ja jede NVidia Karte locker 2GHZ. Nur dann verballert meine Karte 360Watt bei einem Trippleslotdesign. Es ist also so wie immer und wie es schon immer war, mehr Leistung kostet mehr Strom und mehr Aufwand. Was das mit olletsag zu tun haben soll erschließt sich mir nicht.

Wen ich nicht falsch liege hat er das hier und das geschrieben. Er weiß damit über NVidia Karten mehr als die Mehrheit hier. Ich glaube sogar das er dort arbeitet! gastello rückwärts gelesen bedeutet olletsag! Er könnte auch der Gast aus dem 3dCenter sein der dort schon sehr sinnvolle Beiträge geschrieben hat. Natürlich wird dann alles auf Fehler in einer Eigeninterpretation von Informationen geschoben. Selbst ist man davor ja absolut gefeit und meldet sich zum Austausch solcher Infos in einem Forum wie PCGH an. Ganz sicher!

/edit: Die ganzen PR Koryphäen holen sich dort ihre Infos ab, die sie hier breittragen ohne den tatsächlichen Autor zu nennen. Da sind Member wie Scully1234 aktiv die hier ständig gesperrt sind und wenn mich nicht alles täuscht wurde Mimimimi dort nach wenigen Beiträgen gebannt, weil er nur Stunk gemacht hat.


Dann umgehen solche Forenmitglieder mit Doppelaccounts also ausgesprochene Sperren oder Sanktionen, die auf dem Hausrecht der PCGH beruhen?

Meine 2080Ti verbraucht wesentlich mehr...Wenn ich das Powertarget auf max stelle, CPU auf 5,2 Ghz läuft und die 2080Ti auf 2050/7350 schaltet der PC aufgrund von Überlast des Mobo ab. Wenn ich das Powertarget unangetastet lasse, dann passiert das nicht ;). Alle weinen bei AMD immer rum, allerdings ist Nvidia keinen Deut besser ;).
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

statt es einfach zuzugeben son Zeug zu schreiben. Der Knaller :daumen:
Was zugeben? Hier einfach mal klicken!

Ich habe die 2080ti, die 2080 und eine Radeon VII. Kann damit direkt vergleichen. Mit dem tomshw-RTG Mod braucht die Karte gerade mal 220Watt, ohne sie zu verbastelt. Seiten wie Techpowerup geben auch die Performance/Watt/Dollar an und Guru3d Mehrkosten beim Energieverbrauch. Performance/Watt steht NVidia gut da, aber Performance/Dollar überhaupt nicht. Hier soll ein negativer mit einem positiven Aspekt kaschiert werden. Aber letztlich zählt nicht nur die FPS-Rate sondern das Gesamtpaket. Da steht man dann plus minus null da, weil ein guter Aspekt den weniger guten aufhebt. So ein Gesabbel kann doch nicht deren Ernst sein. CO²...:lol:.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

AMD wird die nächste Grafikkarte mit Chips von Samsung bauen.
Samsung fängt schon 2021 mit Chips in 3nm an wohingegen TSMC erst ab 2023 damit anfängt.
Das ist in Ordnung, momentan liegen sie aber mit ihren "14nm" hinter Nvidia und Intel zurück. Mit dem TSMC 7nm Verfahren haben sie endlich mal einen Fertigungsvorteil nicht nur im namen, sondern auch in der Transistorpackdichte.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Nvidias Turing wird in 12nm ( entspricht Intels Packdichte bei 14nm+++++..) gefertigt. Beim Sprung auf TSMC 7nm würden sie nur 20% Chipfläche einsparen, aber mehr als 20% investieren müssen. Es lohnt sich einfach nicht. Entweder wird der TSMC 7nm Prozess billiger oder sie springen gleich auf den nächten Node in TSMC 5nm auf:
Anhang anzeigen 1045448

wie kommst du darauf? machst du das an deinen Bildchen fest?


AMD muss zum nächsten Node greifen, weil sie fertigungstechnisch hinter Intel und Nvidia sind. Beim Sprung von GloFo 14nm auf TSMC 7nm sparen 57% der Chipfläche + andere Vorteile.

und wie kommst du auf 57% Flächeneinsparung?
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Ich habe die 2080ti, die 2080 und eine Radeon VII. Kann damit direkt vergleichen. Mit dem tomshw-RTG Mod braucht die Karte gerade mal 220Watt, ohne sie zu verbastelt.

Na, dann zeig mal deine Vergleiche. Es wird sich sicher der ein oder andere Besitzer der Karten zeigen der zu deinen Ergebnissen Stellung zieht. Was so eine RTX 2080Ti mit ~162W leisten kann.
3DCenter Forum - Einzelnen Beitrag anzeigen - UNIGINE 2 Superposition Benchmark

Nicht nur die V7 kann mann untervolten/optimieren :D.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Nein das ist nicht übertrieben.
Sehe dir doch das aktuelle Potential der iGPUs von Intel an, und wie weit die noch entfernt sind überhaupt RT nutzen zu können.
Es ist ja nicht so das die absolute Masse Gaming-Laptops für 1000€ und mehr kauft.
Nein auch hier wird sehr viel im Bereich bis 500€ verkauft, wo hauptsächlich Intel iGPUs drin sind, obwohl AMD hier mit Raven Ridge ein viel besseres Produkt hat.
Und so lange Intel hier den Ton angibt, wird sich auch nichts schnell ändern.
Ok. Bei Konsolen und iGPUs fehlt mir das wissen, habe das nur allgemein aus kaufmännischer Sicht betrachtet. Alleinstellende Qualitätsmerkmale sind ein Kaufanreiz für die begehrte Kundenschicht der gut verdienenden. Ob Sony oder Microsoft bei ihren zukünftigen Top-Consolen darauf verzichten wollen, wird man sehen. Das eigentliche Geld wird hier über die Game Lizenzen verdient, die Hardware wird gerne quersubventioniert.
Wie schnell man da etwas auf die Beine bekäme, kann ich weniger beurteilen. Aber eine Sony Playstation ohne Raytracing, während das im PC-Bereich bei FHD schon eine 2060 bei optimierten Einstellungen bringt? Wenn eine Geschäftsleitung sich entscheidet, Raytracing als zentrales Argument zu wählen sich als Nr. 1 zu positionieren, kann so etwas recht schnell gehen. Ich gehe da von 5-10 Jahren aus, erst mal müssen die Treiber und Game Engines angepasst und optimiert werden, dann sollte das mit den GPUs der nächsten Generation auf FHD bei 30 FPS eigentlich kein Problem mehr sein.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Also meine Aorus 2080ti OC verbraucht schon bei 1650MHZ 288Watt. So wie das hier immer dargestellt wird schafft ja jede NVidia Karte locker 2GHZ. Nur dann verballert meine Karte 360Watt bei einem Trippleslotdesign. .
Da hast du aber eine ganz schlechte Karte.
Meine zieht bei 1935MHz gerade mal ~250W.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Na, dann zeig mal deine Vergleiche. Es wird sich sicher der ein oder andere Besitzer der Karten zeigen der zu deinen Ergebnissen Stellung zieht. Was so eine RTX 2080Ti mit ~162W leisten kann.
3DCenter Forum - Einzelnen Beitrag anzeigen - UNIGINE 2 Superposition Benchmark

Nicht nur die V7 kann mann untervolten/optimieren :D.
Ja steht der anderen Karte aber in nichts nach. Wie geschrieben die Ti ist auch kein Kostverächter. Zumal nicht der maximale Verbrauch bei einer Kostenrechnung für Stromrechnungen wichtig ist sondern der Durchschnittsverbrauch, was diese PR Heinis nicht wissen und Du auch nicht? Wenn ein Spike nach oben geht, geht auch einer nach Unten! Ich habe die Karte nebenher mal rödeln lassen. Ist nicht anders als bei NVidia. Auch da gibt es Spikes die gerne über 230 oder 250 hinausschießen (2080ti und 2080). Man kann jede Karte optimieren. Das wird nur komplett ausgeblendet und nicht nur in diesem Forum, sondern querbeet durch alle Foren wo man nicht gesperrt ist. So eine Diskussion ist auch völlig unprofessionell.

https://abload.de/img/r7-tomshwrtg_mod7hj9c.jpg

Igors Angaben stimmen ganz genau. 220Watt bei 940mV. Takt bei Werksangaben, Lüfter moderat. 100Watt mehr kosten pro 60min 3Cent, 50Watt ca. 1,5Cent und die CO² Belastungen (spezifische Emission) bei der Stromerzeugung sind in Deutschland seit 1990 stark rückläufig (-40%). Für 2018 lagen sie bei 474g/kwh. Die kostet ungefähr 30Cent. Rechne dir aus was 1,5 oder 10% bei 3Cent davon ausmachen. Ich würde behaupten beim undervolt nähert man sich sogar noch an.

/edit:
Da hast du aber eine ganz schlechte Karte.
Meine zieht bei 1935MHz gerade mal ~250W.
Das kann sein. Ich wollte eine Karte ohne viel Klimbim. Ob die Gaming OC da ein guter Deal war ist ja zweitrangig. Frühe kaufte ich alle 2 Jahre ein neues Motorrad. Musste aber feststellen das sich der Zugewinn in Grenzen hielt. Die Karte ist laut Herstellerangaben ab 1665 schon im OC Mode.

Ist diese hier: GeForce RTX™ 2080 Ti GAMING OC 11G | Grafikkarten - GIGABYTE Germany

Ich wollte keinen Tannenbaum, sondern eine Grafikkarte.^^
Ob GB dafür die guten Dies kauft weiß ich nicht.
 
Zuletzt bearbeitet:
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Diesen ganzen Unsinn müsste man Dir eigentlich um die Ohren hauen!
Oh, was für ein toller Beginn von dir hier im Forum. Herzlich Willkommen! :daumen:

1. Silizium für die Verwendung in Halbleiterverfahren wird im Zonenschmelzverfahren hergestellt und das gilt auch für den Ingot. Sonst wäre das Silizium viel zu unrein.
Eben, eine Züchtung. Ein Hochofen ist da nicht involviert.

2. Eine AMD-Karte klebt nicht so wie eine NVidia an ihrem Boost, damit verbraucht sie auch keine Wattage die an Volllastszenarien erinnert.
3. die 1660 hat eine Wattage von 120Watt bei Plus 13 oder 25% Limits, was dann auf maximal 160Watt herausläuft (je nach Modell nutzt die Karte diese Limits auch aus) und dieses dann lediglich 0,05kwh Mehrverbrauch bei der Polariskarte pro 60min bedeuten würde, unter Furmark wahrscheinlich!
Soso. Also TomsHW sagt 126W für die GTX1660 vs. 236W für die RX590:
GTX 1660
RX 590

Tatsächlich sind es also sogar mehr als 110W Unterschied und damit deutlich weniger als 30 Stunden Volllast :daumen:

Könnt Ihr selbsternannten PR-Fuzzie's Euren Unsinn nicht woanders posten?
Und noch direkt ne Beleidigung hinterher. Läuft bei dir :daumen:

lieber Schaffe!
/edit: Falls Du olletsag suchst, mal ein anderes Forum antiggern! Lass mich raten, da bist Du und der Rest der PR Kampagne bereits gesperrt? Vom einem weiß ich es zu 100%.
Wen ich nicht falsch liege hat er das hier und das geschrieben. Er weiß damit über NVidia Karten mehr als die Mehrheit hier. Ich glaube sogar das er dort arbeitet! gastello rückwärts gelesen bedeutet olletsag! Er könnte auch der Gast aus dem 3dCenter sein der dort schon sehr sinnvolle Beiträge geschrieben hat.
Toll, wie du mit deinen nicht mal 24h Anwesenheit zig User kennst, die schon seit Tagen und Wochen hier nicht mehr posten können, weil ihre Accounts gelöscht wurden.

Und wie du olletsag kennst. Man könnte fast meinen du hast Infos aus erster Hand :daumen:

Dann umgehen solche Forenmitglieder mit Doppelaccounts also ausgesprochene Sperren oder Sanktionen, die auf dem Hausrecht der PCGH beruhen?
Damit kennst du dich wohl auch noch aus....? :-P
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Oh, was für ein toller Beginn von dir hier im Forum. Herzlich Willkommen! :daumen:


Eben, eine Züchtung. Ein Hochofen ist da nicht involviert.

Soso. Also TomsHW sagt 126W für die GTX1660 vs. 236W für die RX590:
GTX 1660
RX 590

Tatsächlich sind es also sogar mehr als 110W Unterschied und damit deutlich weniger als 30 Stunden Volllast :daumen:

Und noch direkt ne Beleidigung hinterher. Läuft bei dir :daumen:

Toll, wie du mit deinen nicht mal 24h Anwesenheit zig User kennst, die schon seit Tagen und Wochen hier nicht mehr posten können, weil ihre Accounts gelöscht wurden.

Und wie du olletsag kennst. Man könnte fast meinen du hast Infos aus erster Hand :daumen:


Damit kennst du dich wohl auch noch aus....? :-P
Für NVidias Wafer Ingots braucht man keinen Strom und auch keinen HF Ofen, dass züchtet man in deiner Regenwassertonne mit Ökostrom gleich bei Dir auf dem Hof neben deiner privaten Windmühle? Die Verarbeitungstemperatur liegt zwischen 1000-2500°C.:lol:

Gas gibst Du ja auch reichlich.:schief:

Da zählt der Durchschnittsverbrauch nicht der Wert der maximalen Leistungsaufnahme einer TDP oder TBP.:lol:

Da gibt es jeweils Idle Power Draw und Load Power Draw. LPD stellt dabei den Maximumwert dar, der den Partnern aufzeigt was sie als Kühllösung verbauen müssen und was für ein Netzteil es braucht um die Hardware stabil zu betreiben. Du stellst reihenweise Behauptungen auf, die Du als richtig deklarierst. Mit welchem Recht?

/edit: Ich umgehe keine Sperrungen, sondern habe meinen ursprünglichen Account wegen Leuten wie Dir schon letztes Jahr gekündigt. Scheint so als wäre ich damit nicht allein.
 
AW: Nvidia: Jen-Hsun Huang über 7 nm und und die Zukunft von Raytracing

Nvidias Turing wird in 12nm ( entspricht Intels Packdichte bei 14nm+++++..) gefertigt. Beim Sprung auf TSMC 7nm würden sie nur 20% Chipfläche einsparen, aber mehr als 20% investieren müssen. Es lohnt sich einfach nicht. Entweder wird der TSMC 7nm Prozess billiger oder sie springen gleich auf den nächten Node in TSMC 5nm auf:
Anhang anzeigen 1045448

AMD muss zum nächsten Node greifen, weil sie fertigungstechnisch hinter Intel und Nvidia sind. Beim Sprung von GloFo 14nm auf TSMC 7nm sparen 57% der Chipfläche + andere Vorteile.
Die Grafik veranschaulicht vor allem, dass es ziemlich egal ist, wie der Prozessname lautet.
Es gibt keine genauen Angaben bezüglich den "12"nm FFN-Prozess, welcher Nvidia exklusiv ist.
Bezogen auf die Transistordichte hat sich zwischen Pascal und Turing wenig bis nichts getan.
GeForce RTX 2080 Ti, 2080 & 2070: Technik im Detail - ComputerBase

Das Bild zeigt darüber hinaus den 7nm mobile Prozess mit 6-Track-Cells von TSMC, nicht den weniger dichten 7nm HPC-Prozess mit 7.5-Tracks.
Im Vergleich zu GloFos und TSMCs 14/16nm Prozess spart der 7.5T HPC-Prozess dennoch viel Fläche ein, wenn analoge Schaltungen keinen zu großen Anteil vom Chipdesign aufweisen.
Vega VII ist im Vergleich zu Vega10 33% kleiner (331mm² vs. 495mm²), hat aber ein doppelt so breites HBM2-Interface und zwei Infinity-Links/XGMI.
 
Zuletzt bearbeitet von einem Moderator:
Zurück