Nvidia Ampere: Angeblich halber Verbrauch und 50 Prozent schneller als Turing

Der Verbrauch ist für mich fast nicht relevant...50% mehr Leistung hingegen schon. Wären dann ca. 102,5% mehr wenn man von 1080 Ti auf 3080 Ti guckt...ja, sowas will ich haben, wenn der Preis halbwegs in Ordung geht.
Vom Preis her waren aber auch schon Gerüchte da - auch wenn ich gegenüber NV etwas skeptisch bin - die besagten, die neue 3080 Ti soll ein wenig UNTERHALB der 2080 Ti sein. Evtl. die magische 1K Grenze NICHT durchbrechen?
 
Die 2080 zu Release war eine 1080ti mit weniger VRAM und nutzlosen RT Cores zum gleichen Preis. :daumen:
Das war, ist und bleibt enttäuschend.

So etwas gibt man halt von sich, wenn man überhaupt keine Ahnung hat. Ich empfehle, wenn neue GPUs erscheinen, nicht nur bunte Benchmark-Bildchen zu gucken, sondern vielleicht auch mal die zugehörigen Artikel (Texte) zu lesen ;) .

Zum Einstieg:

GeForce RTX 2080 Ti, 2080 & 2070: Technik im Detail - ComputerBase

tl;dr: Nvidias neue Grafikkarten der GeForce-RTX-Serie setzen auf die GPUs TU102, TU104 und TU106 mit Turing-Architektur. Deren Anpassungen und Neuerungen gegenüber Pascal sind umfangreich und gehen über das viel beworbene und viel diskutierte Echtzeit-Raytracing weit hinaus. ComputerBase gibt einen Überblick mit Einschätzung.
 
Also wenn nVidia 50% mehr bei 50% weniger liefert, und AMD angeblich doppelt so schnell liefern will, wird es wohl am Ende wieder zu einem leichten Vorsprung für nVidia bleiben.
Für Intel sehe ich aber jetzt schon eind dicke rote Laterne baumeln, die sich dann irgendwo bei der aktuell verfügbaren Karten einreihen werden.
 
Ein in 7nm+ gefertigter 500mm2 Die würde übertragen in NVIDIA's 12nm Prozess in etwa 900mm2 entsprechen.
Wenn man jetzt miteinbezieht das der neue Prozess das Doppelte pro Fläche kostet.
Was würde NVIDIA wohl für einen solchen Chip verlangen?

1. ich tippe auf 1200-1400 € für die 3080
2. 1600-2200 € für die 3080ti
3. Eine halb so schnelle 3070 für 700-800€ ein echtes Schnäppchen.
4. Eine 3060 die 2/5 der Leistung bringt für 500€
5. Eine 3050ti die 1/5 der Leistung bringt für 300€
6. Eine 3050 die 1/8 der Leistung bringt für 220€

Eigentlich unglaublich in was für Preisregionen wir uns hier befinden.
 
Zuletzt bearbeitet:
ich darf dich korrigieren die 70er schlägt normalerweise die 80ti

600€ 780ti->970 330€
650€ 980ti->1070 450€
700€ 1080ti-> 2080 700€
(für die Zeiten vor Kepler hab ich kein Plan)
Turing war enttäuschend was den Fortschritt anbelangt :(

Ja, ne. Mal so mal so.
Die 1070 war minimal schnelelr als eine 980 Ti, aber das lag auch an der immensen Leistungsteigerung von teilweise bis zu 60-70%.
Andere Generationen hatten mahcmkal kaum viel mehr Leistung, wie die aktuelle.
Bei rund 30% mehr schägt man keine 2 Stufen darüber, weil die 1080 Ti schon so viel mehr Leistugn besitzt wie die 1080.
Soll heißen, die 2080 hat etwa die Leistung der 1080 Ti, die hat aber viel mehr Speicher.
Man kann es jetzt natürlich auch wieder von dden Spielen udn den Einstellungen abhängig machen, was gerade gut auf welcher Karte udn mit wieviel RAm gut läuft.
Fakt ist aber, dass es übrlicherweise wesentlich mehr Leistung pro Euro gab.
Mal abgesehen bei so einer Refreshserie wie die 500er, was eher vergleichbar mit eben der gleichen Bezeichnungsserie von AMD gab und gibt.
Da hat NVidia eigentlich nur den Strombedarf gesenkt (meine ich, das war das Hauptproblem der 400er?) und die letzten paar Shadereinheiten freigeschaltet.
So schlägt eine 70er nicht mal eine damals normale 80er ohen Ti.
 
Wenn Nvidia das wirklich schafft fliegt die GTX1080ti schneller raus als der PCI-E Slot schauen kann :ugly:
Allerdings kann ich mir das noch nicht wirklich vorstellen obwohl momentan alle gerüchte rund um die neuen GPU´s und Konsolen sehr sehr potent ausgelegt sind.
So eine RTX3080 bei ~130 Watt mit 16GB Ram und Leistung oberhalb einer RTX2080ti wäre schon schön. Obwohl ich dann sicher gleich zum Ti Modell greifen würde. Hoffentlich darf die neue Ti dann mehr als 150 Watt ziehen :devil:
 
Habe ich den Artikel schon mal gelesen? Zumindest habe ich Mitte 2018 genau das selbe einem Kumpel per WhatsApp geschrieben ^^

IMG_20200103_193415.jpg
 
50% mehr Leistung bei halben verbrauch
Lass mal rechnen
rtx3060 mein ziel bei 250-300€ alles darüber braucht schon arg starke Argumente.

aktuell TU106 Vollausbau 2304*1,5=3456
3456/64=54sm
108RT und 432 tensor
96rop
768tmu
192bit 16gt 12gb=384gb/s
bei 334mm²
beachtlich

Daran glaube ich eher nicht
Eher wird es ein 3072 96rt 384tensor 96rop 768tmu
~296mm²
beim ram bleibt es gleich
wafer etwa 9000§ 188 chips cost 48$
gpu kostet
nvidia marge 80% chip (84% yield)
dann dem aib 86$
vram 12gb etwa 96$
20$ Platine
20$ Kühler
20% aib marge die versuchen mehr
269$
$vs€ 1,11

19% mwst
285€ endkunden preis etwa 289€ für die FE
nvidia vermutlich msrp bei 359$ und deutschland bei 369€

Was kann das aufhalten
AMD rx6700xt bei gleicher Leistung ab 299€ was vermutlich machbar ist.
Der chip dürfte etwa gleich groß sein wie nvidia ga106 bei etwa 48cu und 300mm²
Bei selber marge wie nvidia würde amd die gpu bei 299$ Ansätzen
Bis dahin sind alle polaris gpu endlich vom markt.
hab den Händler vergessen nochmal etwa 10%
 
Wenn das wirklich stimmen sollte (was ich nicht glaube, eher 50% schneller ODER 50% weniger Verbrauch wäre realistischer und selbst das wäre ziemlich gut) dann wäre das ein echter "NVidia-Killer". Also dann könnte NV die Karten selbst so nennen. :ugly:

Ich meine mal ehrlich, ein solcher Sprung würde ganz grob gesagt bedeuten RTX2080Ti-Leistung bei 120W Verbrauch. Das glaube ich erst wenn ichs sehe - und wenns wirklich annähernd in die Richtung geht gute Nacht AMD.
Nvidia wird nicht das Risiko eingehen und AMDs Grafiksparte sterben lassen...

Gesendet von meinem SM-N960F mit Tapatalk
 
.Niemals^^ die 1080Ti/2070S/2080(S) reichen grade eben noch so aus für 60fps, bei reduzierten Details die man auf 1440p sowiso nicht sieht weil die Auflösung zu gering ist.

Wer glaubt denn sowas? Dir ist schon klar, das die Auflösung primär mit der Bildschirmgröße skaliert? Mein aktueller 34" 21:9 UWQHD hat die gleiche Pixeldichte pro Zoll wie mein voriger 40" 16:9 4K, allerdings hat die GPU gut 3 Millionen weniger Pixel pro Bild zu berechnen, die Bildschärfe ist identisch.
 
Für Intel sehe ich aber jetzt schon eind dicke rote Laterne baumeln, die sich dann irgendwo bei der aktuell verfügbaren Karten einreihen werden.

Keine Ahnung, warum überhaupt jemand damit rechnet, dass Intel von Beginn an oben mitmischen kann oder gar will. Das ist doch alles nur Wunschdenken. Alle bisherigen Leaks deuten an, dass Intel dGPUs sich erst mal nur etwas besser als iGPUs präsentieren werden. Ich würde jetzt mal allerhöchstens damit rechnen, dass Intel mit ihrer stärksten Karte vielleicht im Segment GTX 1660 mitspielen können. Intel fehlen viele Jahre Erfahrung und vor allem auch Softwareentwicklung und Entwicklersupport. Ein Hauptgrund, warum nVidia so stark sind, ist nicht nur die exzellente Hardware, sondern eben auch der hervorragende Entwicklersupport, die Treiberentwicklung und die zahlreichen SDKs.

Bis Intel im Segment x80 oder gar x80Ti ernsthaft Paroli bieten kann, werden noch ein paar Jahre vergehen. Alles andere wäre eine zwar willkommene, aber vor allem mal handfeste Überraschung. Ich kann nur jedem empfehlen, bitte einfach die Erwartungen etwas anzupassen. Irgendwie hat sich das Wunschdenken, dass Intel vom Start weg nVidia "zerstören" wird, verselbständigt. Ich sehe das große "aber... aber... aber... Intel haben doch versprochen, dass..." Geheule schon kommen. Nein, haben sie nicht. Intel haben bisher gar nix versprochen. Realistisch betrachtet, werden sie anfangs zunächst im OEM Office PC, Entry Level und unterem Mainstream Segment eine Rolle spielen.
 
@Shoot3r,

Incredible Alk weiß das sicher. Genau genommen wäre damit zu rechnen, dass es im Zweifel zu einem erzwungenen Technologietransfer von Patenten ähnlich wie bei Intel und AMD kommt. Intel kann man im Moment als dritten Player noch vergessen, deren Xe ist noch Jahre hinten dran, vermutlich sind sie soweit von AMD entfernt, wie AMD derzeit von Nvidia.

Außerdem ist man sich (trotz einer ansonsten in allen Belangen völlig inkompetenten Regierung) durchaus bewusst, dass der technologische Vorsprung in den Sparten x86 und Grafikprozessoren durch das quasi-Duopol unter US-amerikanischer Herrschaft entstanden ist. Obwohl da heftig dran gearbeitet wird, da durch endlose Gier die Haus- und Mietpreise rund um die San Franciso Bay seit der Immobilienblase so extrem gestiegen sind, dass sogar die großen Unternehmen gewaltige Boni zahlen müssen, damit die Intelligenzia nicht flieht.
 
Ich mache mir eher Sorgen, dass nV den Chip für den Konsumenten dann so kastriert, dass sie den locker über 3 Generationen ausbauen können. Die Marktsituation würde es hergeben, AMD wird wohl so ein großer Wurf nicht gelingen.
 
Wer glaubt denn sowas? Dir ist schon klar, das die Auflösung primär mit der Bildschirmgröße skaliert? Mein aktueller 34" 21:9 UWQHD hat die gleiche Pixeldichte pro Zoll wie mein voriger 40" 16:9 4K, allerdings hat die GPU gut 3 Millionen weniger Pixel pro Bild zu berechnen, die Bildschärfe ist identisch.
Weniger Pixel.... am Bildschirm, jap--die also dann keine information ans Auge weitergeben, weil sie ja nicht da sind und die GPU sie auch nicht mit informationen füllen kann. Und wo genau Plaziert die GPU die Pixel damit auch wirklich hoch Auflösende feine Details nicht eventuell verschwinden? Aso... nirgendwo genau!

Du, mein 40" FHD TV und mein UHD Beamer haben eventuell eine Ähnliche Pixeldichte--Mit selben Material gefüttert, kommt aber nicht auch das "Selbe" Bild hinten raus. Es fehlen informationen vom Bild. Und das ist bei (U)WQHD zu UHD das gleiche nur abgemildert.
 
Qualitätskommentar!

Wie sieht es denn tatsächlich aus? Ich lasse der Einfachheit halber die Super-Varianten weg.

1650 - Untere Einstiegsklasse
1660/1660Ti - Einstiegsklasse
2060 - Ober Unterklasse
2070 - Untere Mittelklasse
2080 - Obere Mittelklasse
2080Ti - Oberklasse
Titan - High End

Wahrscheinlich hast Du ein paar Schulstunden geschwänzt, aber es ist durchaus üblich innerhalb von Klassen diese zu unterscheiden. Eine 2080Ti ist für Dich sicherlich auch High End, aber du liegst eben falsch. Das gilt allein für die Titan. Ebenso ist eine 2060 keine Mittelklasse-Karte, sondern als 2060 Super nur der höchste Ausbau der Einstiegsklasse. Es macht übrigens keinen Sinn, innerhalb einer neuen Generation Vorgänger wie Pascal mit hineinzuziehen.

So, noch eine sinnvolle Antwort Deinerseits zur Erklärung?

also ich finde schon das die 2080ti Benz ist , wie Sabrina Setlur sagen würde. Und die Titan ist dann SLS

Unterschicht , ich hab Bauchschmerzen .... kann nich mehr xD , ich will meeehrrrr
 
Zuletzt bearbeitet:
Zurück