Geforce RTX 3000: Analyst will Ampere-Termine kennen, Nvidia hat keine Eile

Na, warten wir ab, wie es sich entwickelt, wenn immer mehr LL-API Titel in die Parcoure wandern mit Engines, die verstärkt mixed Szenarien (Integer + Float) nutzen. Die 50% werden sich never ever halten. Wenn man Titel wie CoD Modern Warfare (2019), RDR2 und BF5/Anthem betrachet, dann liegt der Abstand sogar bei weit unter 30%.



Es steht dir natürlich völlig frei, auf 4k rumzureiten, um einen möglichst großen Abstand zu konstruieren.

Sorry, aber das ist für mich nicht nachvollziehbar. Dir steht es aber natürlich frei zu denken was du willst! Du solltest aber keine Motivationen in etwas herein interpretieren, die es so nicht gibt.

Zum ersten Teil würde es mich natürlich freuen!
Zum Rest, dir steht es natürlich frei, wie jedem anderem auf der Welt, sich einfach mal alle Benchmarks des Jahres anzuschauen und dazu noch unterschiedliche Tests! Was zu einem etwas andern Bild führt, als das in deinem Kopf.

Aktuell sind es eben über 50% unter maximale, von Spielen erzeugter Grafiklast.

Dir ist auch klar, das ein Big Navi, oder ein Big RDNA2 auch nicht seine volle Mehrleistung unterhalb 4K entfesseln wird, oder? Wenn ein Big RDNA 2 letztendlich spekulativ maximal 70% schneller ist, als die 5700XT. So werden das in 1080p bei weitem keine 70% sein.

Darf ich mal deine Benchmarks dazu sehen?

Unter 4K ist jede GPU komplett GPU limitiert - das sieht man daran das es egal ist welchen Prozessor man verbaut hat. Da ist ein 1800x genauso schnell wie ein 9900k. Zwischen beiden CPUs liegen in Spielen sicher 25%.

Partielles CPU Limit - was soll das sein? Teilweises CPU Limit - habe ich noch nie gehört.

Wenn es anfängt, das alle GPUs dichter zusammen rücken. Unabhängig vom internen Aufbau. Anders herum ist es doch auch immer wieder so, das die großen GPUs in 1080p Auslastungsprobleme haben. Alles Gründe die einem als Leistungsbetrachtung die 4K Werte nahelegen sollten.

Das ist wie CPUs nur in 4k Benchen, ist genau so ein quatsch wie GPUs nur in 1080p. Das sieht man viel, aber nicht die tatsächliche Leistung der Hardware.


Das die 2080 super bei den Initialen Reviews, bis zu 30% besser abgeschnitten hat als die RX5700XT hat doch zum gegenwärtigen Zeitpunkt keinerlei Bedeutung mehr.
Das eine nagelneue Architektur gewisse Startschwierigkeiten hat, ihre PS auch auf die Strasse zu kriegen, sollte doch mittlerweile bekannt sein: Zum einten muss sie sich in einem veralteten Testparcours, der zuvor noch nie etwas von NAVI mitbekommen hat der Konkurrenz stellen und zum anderen ist es ganz normal das die Treiber zu Beginn nicht das gelbe vom Ei sind.
Weswegen die 30% zum gegenwärtigen Zeitpunkt nur Schall und Rauch sind, in einem gewissen Sinne eine Rauch und Blendgranate
die, die Realität nicht ansatzweise wiederspiegelt und bei gewissen Usern hat sich der Rauch anscheinend immer noch nicht vollständig verzogen.

Übrigens was die Zuversicht das NVIDIA auch bei den kommenden GPU's überlegen sein wird anbelangt, würde ich mich nicht zu weit aus dem Fenster lehnen, denn der Aufprall könnte ziemlich heftig werden.
AMD musste in der Vergangenheit, die Entwicklung bei den GPU's auf Sparflamme setzten und NVIDIA hat zugleich seine Hausaufgaben gemacht.
Dies wird aber bei den kommenden Entwicklungen nicht der Fall sein und bezüglich RDNA2 kann keiner sagen wie hoch die IPC Steigerung im Vergleich zu RDNA sein wird.

Ach ja, die Hoffnung auf eine RX5800(XT) alias NAVI 12 habe ich auch noch nicht komplett aufgegeben. Falls sie wirklich noch Anfang 2020 als z.B.: RDNA, Die Size 300-360mm2, 4096, 3860, 3584 oder 3328 Shader mit 16Gbps GDDR6 256bit oder 14Gbps 384bit und einem Verbrauch von ca. 250 - 275 W kommen sollte, wird die Karte alles hinwegfegen was bis drei nicht auf den Bäumen ist. (Die 2080ti aussen vor, die wird wohl bis auf wenige Ausnahmen erst von RDNA2 richtig vernascht)

Ich wollte noch auf den Verbrauch der 2070 von ca. 170 W eingehen, der immer wieder als Beispiel für die bessere Effizienz im Vergleich zu den 210W der RX5700XT hervorgehoben wird.
Dies sollte man doch noch etwas relativieren, da sie doch ein gutes Stück langsamer, mit der Tendenz bei kommenden Spielen den Anschluss komplett zu verlieren ist.
Beziehungsweise sich dann lediglich mit der RX5700 zu duellieren.
Beide Architekturen sind somit in etwa gleich effizient.
Unter diesem Gesichtspunkt sollte eine 5800(XT) mit ca. + 20-40% relativ zur RX5700XT und einem Verbrauch von ca. 250 -275W eigentlich nichts im Wege stehen diese Karte wäre bestens geeignet als schnellen Appetitmacher bevor RDNA2 aufschlägt in die Lücke zu stossen.


Die 2070 Super ist auch effizienter, weiter zum nächsten Punkt. ;)

Mal angenommen ein Big Navi kommt mit 60% mehr Recheneinheiten. Dann müsste der Takt bestimmt um ca13% runter um in etwa mit 250W auszukommen. Mehr Recheneinheiten skalieren nach allen Tests zu GPUs die ich bisher gesehen habe nie 1 zu 1 in mehr Leistung. Realistisch sind eher 60% mehr Recheneiheiten resultieren in etwa 40% mehr Leistung. Dazu den reduzierten Takt, damit die Leistungsaufnahme nicht explodiert. Dann kommt man am Ende auf rund 23% mehr Leistung als eine 5700XT. Sagen wir ich bin zu pessimistisch und es sind eher bis zu 30%.

Damit wird ein Big Navi niemals eine 2080Ti zum Boden aufwischen nutzen!

Wenn gleich eine derartige GPU extrem interessant finden würde. Ich bin übrigens einfach mal von 16 Ram ausgegangen.

Deine Erwatrungshaltung bezüglich der Leistung in kommenden Spielen, von 5700Xt und 2070(Super) denke ich sind etwas zu optimistisch, aus AMD Sicht.

Hallo zusammen,
werde mal schauen, was auf dem Markt kommt (Karte), sobald
Cyberpunk 2077 draussen ist. Wahrscheinlich wirds eine Ampere
werden, da ja vom Spiel Raytracing unterstützt wird.
Viele Grüße,
Schnitzel

AMD wird auch demnächst Ray Tracing unterstützen!
 
sobald AMD etwas handfestes richtung BIG NAVI auf den tisch legt..
warum eigentlich bisher noch nicht? nachfrage ist ja wohl vorhanden
 
Weil AMD schon seit längerem den Zyklus erst Mittelklasse, dann Oberklasse hat. Wobei 400 € für Mittelklasse schon heftig ist.
 
Partielles CPU Limit - was soll das sein? Teilweises CPU Limit - habe ich noch nie gehört.

Das ist vermutlich, wenn mal die CPU und mal die GPU limitieren. Soll Spiele geben, in denen sich der Workload für die beiden ändert.

Das ist wie CPUs nur in 4k Benchen, ist genau so ein quatsch wie GPUs nur in 1080p. Das sieht man viel, aber nicht die tatsächliche Leistung der Hardware.

Wobei man aufpassen muss. Die Auflösung wirkt sich auf den Workload der verschiedenen Teile der GPU und das Verhältnis der Last bei diesen Teilen aus.
 
Das ist vermutlich, wenn mal die CPU und mal die GPU limitieren. Soll Spiele geben, in denen sich der Workload für die beiden ändert.

Es gibt kein partielles CPU Limit. Unter 4K wirkt sich mehr CPU Power oder mehr Kerne auf die Frametimes aus - aber nicht auf die FPS Rate, was klar aufzeigt das es ein GPU Limit ist.

Partielles CPU Limit prägte ein @Scully1234 vor Jahren im Hardwareluxxforum in einer Diskussion um GPU Power. Schon damals war das Stuss - weil es dazu diente immer dann wenn bei NVidia die Leistung wegbricht - zu begründen es läge an der CPU.

Die CPU liefert auch unter 4K ausreichend DrawCalls - falls Du darauf hinaus möchtest. Wissen muß man in dem Zusammenhang - das Engines oft mit einem FPS-Target daherkommen und dies je nach Auflösung auch angepaßt wird. Bringt ja nichts wenn das Spiel über den Schirm ruckelt - dann verzichtet man lieber auf Frames und hält den Verlauf glatter. Als generelle Richtlinie gilt dabei eine bestimmte Anzahl an DrawCalls aufrecht zu erhalten, die Hauptarbeit hat sowieso die GPU zu erledigen und wird ihr auch genauso zugewiesen. Die Geometrie in dem Fall von der CPU berechnen zu lassen ist deutlich billiger als es der GPU noch zuzumuten.

Mich persönlich hätte nur interessiert - was Computerbase falsch macht weil ihre Testergebnisse nicht richtig sein sollen - denn das Ergebnis eines Tests hängt immer davon ab was ich überhaupt abbilden will. Da unterscheiden sich Computerbase Ergebnisse von denen der PCGH - weil man dort nicht unbedingt den Worstcase sucht - sondern spielbare Durchschnitts-Frameraten. Man paßt dann also für spielbare Frameraten und aus Performancegründen Detailstufen an - dabei bildet man Durchschnitts-FPS ab. PCGH sucht oft den Worstcase um darauf hinzuweisen wie weit die FPS Rate einbrechen kann und wie spielbar das Ganze noch bleibt. Dafür ermittelt man ein eigenes Szenario - aus min und max FPS im Verhältnis.
 
Zuletzt bearbeitet:
Wie würdest du es dann nennen, wenn ich z.B. in KCD in die Stadt reite und meine FPS droppen, weil die CPU auf einmal limitiert?

GPU Limit - weil die GPU viel mehr zu textuieren hat und sich in dem Fall die DrawCalls nicht zusammenfassen lassen. Dann wird ein Teil DrawCalls aufgeschoben - muß dann nach und nach abgearbeitet werden, was Zeit kostet.

Es gibt je Auflösung ein Minimum was das an Zeit kostet, zum Beispiel unter 2k gleich 20ms bei aufwendigen Szenen und dann kann die Framerate nicht gleich hoch bleiben. Das weiß der Entwickler und läßt sie dann droppen.
 
Der einzige Grund warum amd rdna deutlich Energie ineffizienter ist bzw gleich effizienter als nvidia älterer Fertuigungprozess gpu gen Produzierte turing liegt schlicht am gcn design

dazu mal zur Geschichte wie es den dazu kommen konnte das amd mehr shader brauchte und mehr abwärme verursacht.

Der erste Grund ist man wollte mit gcn ein Wollmichsau
Planungen waren 2008
damals als Noch amd Glofo teilweise besaß war der Plan 2010 mit 20nm gpu zu fertigen

2010 war klar das es mit 20nm nix wird und man musste die neue GPu arch die auf 20nm geplant wurde auf eine ersatz prozess auf pause gestellt werden und dann redesigned werden.
Der ersatz damals ein rebrand der letzten vliw gen HD6000
2011 war klar das 28nm das rennen machen wird ein optimierter 45nm Prozess
Da aber die dichte bei 20nm im design bei 28nm extrem große chips produzieren würde beschloss man das teile der arch zusammenrücken müssen.

das erzeugt in GCN hotspots
Die 2 dinge fördern wärme Entwicklung und shaderinefizienz durch weniger takt beim L1 L2 cache (notwendige längere Latenzen)

Die erste Baustelle also die shader effizienz bei der performance wurde behoben 2016 mit navi Planung
Die Struktur wie der chip aufgebaut wird konnte man noch nicht umstellen was mehr an den Kosten lag
man denke an die Finanzsituation von amd 2016
Nun da endlich navi120 erschienen ist
Muss man leider feststellen das man zwar endlich die shader an nvidia shader floatingpoints Leistung erreichen aber. die effizienz noch arg schlecht ist


Der nächste Schritt ist RDNA2 mit eigener Struktur die nicht durch zu hohe dichte zu hohen Wärmeverluste führt.


Derzeit ist rdna so aufgebaut
4 Cluster mit jeweils 5*2 shader Blöcken +L1 dediziert je cu und gemeinsamen L2
Die latenzen sind verkürzt worden

Der plan war aber 8 Blöcke mit je 5cu und einen block den L2
das würde die wärme Deutlich besser verteilen und die Effizienz deutlich erhöhen

Das ist auch der Grund warum der echte navi10 nicht erschienen ist
Ursprünglich 4 Blöcke je 14cu
Diese gpu hätte locker mit der rdna arch an rtx2080 herangereicht
Leider kam diese gpu aufgrund der enormen Hitzeentwicklung nicht über 1ghz und man braucht min 1,6ghz um mithalten zu können. (geplant waren 1,8ghz bei high end 4*14 56cu)
Lösung cancel und auf navi12 fokussieren.
Darum kam Januar 2019 nur der Ersatz aus Not radeon 7
Mit navi wurde gerechnet bis nov 2018 das diese Januar 2019 vorgestellt wird.
ich glaube die Entscheidung gegen navi10 fiel dann dez 2018.
Dazu kam das tsmc 7nm ausbeute bei navi10 zu gering war.
Erwartbare Leistung bei rtx2060 ziel war rtx2080 und bei den kosten konnte ein so großer chip etwa 350mm² mit nur 400€ nicht gedeckt werden.
Denke an lisa versprechen min 40% marge
Die Rechnung ist simple
56*64*2*1,0=7,168 teraflops (geplant 56*64*2*1,6=11,4tf)
Dagegen navi12 2560 shader
40*64*2*1,9=9,728tf
Idealer Gegner von nvidias Mittelklasse chip (das sind die 104er)
Seitdem nvidia aber die Mittelklasse aber zu high end preisen verkauft konnte amd dann auch den preis daran anpassen.
Die 104 chips waren mal auf max preis bei 250€
Und das war schon teuer heute findet man da nur noch die einsteiger Klasse 116er
Bei nvidia sogar in Kleinst schritten von 15% Abständen 116er chips verkauft
Abstand zu 106er chip aber um 40%
Der 106er ist der einsteiger chip
Daran krankt der markt aktuell
Von 150 bis 300€ sind die Leistungsunterschiede gestaffelt in max 15% Abständen
Wer zuletzt also 2016 Umgerüstet hat pascal oder polaris (200-300€) der braucht aktuell unter einer rtx2060s oder rx5700xt nichts zu kaufen.(ab 400€ und nicht jeder ist bereit seine Prinzipien zu ändern "nur max 300€ zu zahlen")
Zumal ab ende 2020 der Vram deutlich ansteigen wird.
aufgrund der neuen Konsolen.
Zwar wird man bis ende 2021 mit 8gb vram glücklich aber danach wirds eng

Die Spielindustrie bewegt sich klar Richtung 4k Auflösung (1440p nativ) und VR was auf Konsole mehr gepuscht werden soll.
Teilweise will man RT in games als standard verwenden. Das hat vordringlich Kostengründe.
Weniger designer Kosten (weniger shadowmaps , keine lightmaps)
Soweit So klar warum keine rx5800 kommen wird und wir bis Mitte 2020 auf rdna2 warten müssen

Nvidia rtx3000 kommt im Sommer und setzt mal Zeichen im high end mit mehr vram und mehr RT Leistung (rtx3080ti rtx3080 3070)
Die interessanten Karten also die 250€ bereich wird nvidia gar nicht bedienen bis Anfang 2021
Da liegt amd chance.
Und intel ist eine Komplette unbekannte
Mein tipp rdna2 einmal

hgh end mit 64cu und 80cu ab 900€-1500€
mid class mit 40cu und 48cu 350-500€
entry 24-32cu 200-300€
Und das jeweils mit 12-16gb vram

anders kann amd nicht mehr verkaufen.
Der kosten druck kommt von den Konsolen
ps5 450€
etwa 48cu
24gb vram
octacore cpu
etwa 12tf

nvidia Pläne zur einsteiger gpu sind noch völlig im unklaren.
das hat was Gutes
man spart geld bis endlich dann es sich lohnt aufzurüszten das blöde ista ber das ich dann gleich mal eine neue cpu brauche weil meine ab einer rx5700xt - rtx2070s zu langsam wird
Und diese Performance erwarte ich aber einer rx6700-rtx3060

Mein System ci7 5820k @stock OC eventuell bis 4ghz mit derzeitiger Kühlung
gebraucht wird min 4,2ghz bei einer rx5700xt bzw rtx2070
Aber solange meine gtx1060 drin ist lohnt OC nicht.
 
Zuletzt bearbeitet:
Der einzige Grund warum amd rdna deutlich Energie ineffizienter ist bzw gleich effizienter als nvidia älterer Fertuigungprozess gpu gen Produzierte turing liegt schlicht am gcn design

dazu mal zur Geschichte wie es den dazu kommen konnte das amd mehr shader brauchte und mehr abwärme verursacht.
Das war vermutlich eine Designentscheidung - die aber von mehr abhängig ist. Mantle-->Vulkan-->directX - wobei Vulkan AMD besonders liegt.

Der erste Grund ist man wollte mit gcn ein Wollmichsau
Man wollte vermutlich keine angepaßte Gamergen, weil einem das keiner abkauft.

das erzeugt in GCN hotspots
Wo? Beim HBM/HBM2?

Derzeit ist rdna so aufgebaut
RDNA zielt darauf ab die Effizienz erst auszunutzen. Wenn man die Einheiten nicht ausgelastet bekommt - nutzen auch zig 1000 Shader nichts. Sie sind dann nicht mehr als Ballast die den Verbrauch in die Höhe treiben.

Dazu kam das tsmc 7nm ausbeute bei navi10 zu gering war.
Die soll ziemlich gut sein.

Die Spielindustrie bewegt sich klar Richtung 4k Auflösung (1440p nativ) und VR was auf Konsole mehr gepuscht werden soll.
Teilweise will man RT in games als standard verwenden. Das hat vordringlich Kostengründe.
Weniger designer Kosten (weniger shadowmaps , keine lightmaps).
Ja - so könnte man es schreiben - wobei Hybrid nicht unbedingt dafür sorgt das man nicht frickeln muss und Hybrid wird es noch lange Zeit geben.

PS: In letzter Zeit hat die Schlacht eher auf Softwareebene stattgefunden - also die Schlacht der Engines, SDKs und API. Das wird weiter so gehen - weil dort das größte Potential schlummert.
 
Zuletzt bearbeitet:
GPU Limit - weil die GPU viel mehr zu textuieren hat und sich in dem Fall die DrawCalls nicht zusammenfassen lassen.

Das war nur ein Beispiel. Du willst ja jetzt wohl nicht behaupten, dass es niemals vorkommen kann, dass die CPU-Last steigt, ohne dass die GPU-Last steigt. Gibt genug für die CPU zu tun außer dem Rendern. Nimm meinetwegen eine größere Welt in Anno. Da passiert jede Menge off-screen, das verlangt der Grafikkarte gar nichts ab, muss aber trotzdem berechnet werden.

Das weiß der Entwickler und läßt sie dann droppen.

Du, ich glaub die dropt von ganz alleine, wenn das Rendern länger dauert...
 
Du, ich glaub die dropt von ganz alleine, wenn das Rendern länger dauert...
Nö.

Wenn ich weiß das:
16 ms = 60 FPS
33 ms = 30 FPS
40 ms = 25 FPS
50 ms = 20 FPS sind - kann ich den Inhalt daran nicht anpassen? Optimieren usw.. Ich könnte die FPS auch einfach abstürzen lassen - oder? Die machen auch eine Measuring Performance. Natürlich nur wenn sie die Zeit haben. Wie geschrieben steht die General Guidelines bei einem vorbestimmten Rendertarget und sicher auch in Abhängigkeit von Vertices to Process, Zpass, Generalpass, usw.. Da kann Dir die Misc Specific Guidelines richtig einen mitgeben und ein einfaches oder aufwendiges zusätzliches Volume alles zum FPS-Absturz bringen.
 
Nö.

Wenn ich weiß das:
16 ms = 60 FPS
33 ms = 30 FPS
40 ms = 25 FPS
50 ms = 20 FPS sind - kann ich den Inhalt daran nicht anpassen? Optimieren usw.. Ich könnte die FPS auch einfach abstürzen lassen - oder? Die machen auch eine Measuring Performance. Natürlich nur wenn sie die Zeit haben. Wie geschrieben steht die General Guidelines bei einem vorbestimmten Rendertarget und sicher auch in Abhängigkeit von Vertices to Process, Zpass, Generalpass, usw.. Da kann Dir die Misc Specific Guidelines richtig einen mitgeben und ein einfaches oder aufwendiges zusätzliches Volume alles zum FPS-Absturz bringen.

Bitte was ist los? Wenn die CPU mit dem Daten ranschaffen nicht hinterher kommt limitiert die CPU und wenn die GPU die Daten nicht schnell genug verarbeiten kann limitiert die GPU.
Da musst du gar nicht erst anfangen mit irgendwelchen vermeintlichen Fachbegriffen um dich zu werfen.


Gesendet von iPhone mit Tapatalk
 
So gib neue infos zu ampere

angeblich
ga100 HPC 8192shader doppelte tensor core rt unbekannt ist aber auch tesla
ga102 6000-8000shader ebenfalls doppelte tensor cores Rt vermute ich verdoppelt
ga104 3072-5000
ga106 2500-3072
leider gibs keine infos zum SI und Speicherbestückung
ga108 hat noch 1000 shader

Wenn das zutrifft wird amperer aber richtig in performace reinhauen.
da fragt man sich wieso macht das nvidia
da muss intel wohl mit xe schonw as handfestes haben
Und amd weit über dem was ich vermute haben als big navi

Wie soll man bitte 6400shader auslasten? (als bsp für ga102)
 
Die 2070 Super ist auch effizienter, weiter zum nächsten Punkt. ;)

Mal angenommen ein Big Navi kommt mit 60% mehr Recheneinheiten. Dann müsste der Takt bestimmt um ca13% runter um in etwa mit 250W auszukommen. Mehr Recheneinheiten skalieren nach allen Tests zu GPUs die ich bisher gesehen habe nie 1 zu 1 in mehr Leistung. Realistisch sind eher 60% mehr Recheneiheiten resultieren in etwa 40% mehr Leistung. Dazu den reduzierten Takt, damit die Leistungsaufnahme nicht explodiert. Dann kommt man am Ende auf rund 23% mehr Leistung als eine 5700XT. Sagen wir ich bin zu pessimistisch und es sind eher bis zu 30%.

Damit wird ein Big Navi niemals eine 2080Ti zum Boden aufwischen nutzen!

Wenn gleich eine derartige GPU extrem interessant finden würde. Ich bin übrigens einfach mal von 16 Ram ausgegangen.

Deine Erwatrungshaltung bezüglich der Leistung in kommenden Spielen, von 5700Xt und 2070(Super) denke ich sind etwas zu optimistisch, aus AMD Sicht.

Die 2070 Super ist effizienter? Mach mal einen Punkt.
2080super W.png

Bezüglich der Taktreduktion von ca 13%, damit die Leistungsaufnahme nicht ausufert, bin ich einer Meinung mit dir.
Aber lass es mal nur 10% sein. Da gibt es bestimmt noch genügend Stellschrauben bzw. Dinge die nicht linear mit den zusätzlichen Recheneinheiten skalieren damit der Verbrauch nicht zu extrem ausufert.
Bei den lediglich 40% Mehrleistung bei +60% zusätzlichen Recheneinheiten, währe das eher ein worst case scenario falls das Speicherinterface zu stark limitieren sollte.

Falls dies nicht allzu sehr der Fall sein sollte, sind sicherlich auch 45 - 50% möglich: Siehe folgenden Vergleich zwischen einer RX560 und einer RX570 (Unter tupfgleichen Bedingungen Takt, 128Bit vs. 256Bit, 1024 vs 2048 Shader)
Da kommen im Schnitt ca.90% Mehrleistung an. Weswegen ich eher von +30 -35% ausgehe.
Aber bei +60% Recheneinheiten, wird sich der Verbrauch sicherlich auf die 275 -300W zubewegen. Bei +50 würde er wohl eher so bei 250 - 275W liegen, was ich als die realistischere Variante betrachten würde.

RX560 vs. RX570
YouTube
 
So gib neue infos zu ampere

angeblich
ga100 HPC 8192shader doppelte tensor core rt unbekannt ist aber auch tesla
ga102 6000-8000shader ebenfalls doppelte tensor cores Rt vermute ich verdoppelt
ga104 3072-5000
ga106 2500-3072
leider gibs keine infos zum SI und Speicherbestückung
ga108 hat noch 1000 shader

Wenn das zutrifft wird amperer aber richtig in performace reinhauen.
da fragt man sich wieso macht das nvidia
da muss intel wohl mit xe schonw as handfestes haben
Und amd weit über dem was ich vermute haben als big navi

Wie soll man bitte 6400shader auslasten? (als bsp für ga102)

Konkurrenz belebt das Geschäft. Wäre schön wenn du recht behälst.
 
So gib neue infos zu ampere

angeblich
ga100 HPC 8192shader doppelte tensor core rt unbekannt ist aber auch tesla
ga102 6000-8000shader ebenfalls doppelte tensor cores Rt vermute ich verdoppelt
ga104 3072-5000
ga106 2500-3072
leider gibs keine infos zum SI und Speicherbestückung
ga108 hat noch 1000 shader

Wenn das zutrifft wird amperer aber richtig in performace reinhauen.
da fragt man sich wieso macht das nvidia
da muss intel wohl mit xe schonw as handfestes haben
Und amd weit über dem was ich vermute haben als big navi

Wie soll man bitte 6400shader auslasten? (als bsp für ga102)
Wer's glaubt. Der letzte der versucht hat, vorab irgendwelche Infos von NVIDIA nach aussen zu tragen.
Befindet sich immer noch in NVIDIA's Folterkeller.
Der Kopf wird dabei, sobald er seinen letzten Lebenshauch ausgeatmet hat, vor dem Eingang an ihrem Hauptsitz in Santa Clara, als abschreckendes Beispiel auf einen Pfahl aufgespiesst. :devil:
 
Zurück