Nvidia Ampere mit 35 Prozent Mehrleistung ab 21. und 28. September?

Die tatsächliche Performance der 3090 wird wohl 35% über der der 2080 TI liegen, aber Nvidia wird dann halt nicht wirklich über Verbrauch reden, die grünen Balken in der Präsentation wieder so designen, dass es wie ein gigantischer Schritt aussieht und dann gaaaanz schnell von den immensen Zuwächsen im Raytracing sprechen, die der Hauptfokus ihrer Kundschaft seien, jetzt wo der Markt von Raytracing voll gesättigt ist. Ein großer Schritt in die Zukunft (bis bald zur 30x0 super Serie )

Die PR Mitarbeiter von Nvidia haben sicher einen unterhaltsamen Job.
 
35% Mehrleistung, bei 60-90W mehr Verbrauch, trotz erheblich besserem Fertigungsprozess, wären eine absolute Pleite.
Depends. +35% für die 3080 auf die 2080Ti wäre ne ordentliche Ansage und Steigerung gegenüber der 2080. 250W Leistungsaufnahme wäre da auch im Rahmen.

Die 3080Ti/3090 müsste da natürlich locker 50-70% auf die 2080Ti drauf legen, damit das aufgeht.
 
Man möchte ja meinen, dass Vergleiche immer irgendwie logisch sind. So könnte man eine 2060 mit einer 3060 vergleichen, aber einfach nur einen Wert ohne Zusammenhang bietet mehr Gesprächsstoff und vor allem keinen negativen Vorgeschmack :lol:
 
Depends. +35% für die 3080 auf die 2080Ti wäre ne ordentliche Ansage und Steigerung gegenüber der 2080. 250W Leistungsaufnahme wäre da auch im Rahmen.

Die 3080Ti/3090 müsste da natürlich locker 50-70% auf die 2080Ti drauf legen, damit das aufgeht.
So wie du das skizzierst, würde es sich dann um eine Effizienzsteigerung um 35% handeln. 35% Effizienzgewinn wäre genau die Formulierung wert, die Pu244 genutzt hat:
(...)trotz erheblich besserem Fertigungsprozess, wären eine absolute Pleite. (...)
Ja, trotz der veränderten Ausgangslage, denn sein Kommentar bezog sich mittelbar ja auf die gesamte Architektur.

Am ersten wissen wir hoffentlich eher, ob es sich um eine absolute Pleite handeln wird oder nicht.
 
Nein. Es wären 50%.

(2080Ti ist 10% schneller als eine 2080SUPER mit 250W Leistungsaufnahme - +35% auf die 2080Ti = +50% auf die 2080SUPER bei identischer Leistungsaufnahme = +50% Effizienz)
Wieso du da auch die 2080 Super reinmischst, verstehe ich nicht. Aber nichts desto trotz ist mir klar geworden, dass ich etwas missachtet habe: Die 2080ti hat ja nur auf dem Papier eine 250W-TDP, in der Praxis sind es aber eher 275W. → 10% geringere Real TDP und ~35% Mehrperformance → Abermals ~50% Effizienzgewinn, wie bei deiner Rechnung.

Wobei das natürlich nach wie vor ungelegte Eier bleiben.
 
Wer ist immer noch davon überrascht, dass wir dem physisch machbaren immer näher kommen und die Leistungssteigerung immer magerer wird, dafür der technische Aufwand und damit der Preis aber immer schneller steigt?

Da auch AMD auch an die selbe Physik halten muss, wird es denen nicht anders ergehen, auch wenn manche da auf ein Wunder hoffen...
 
Selbst wenn eine 3080 die 2080Ti beerben sollte in Punkto Leistung, was will man damit? Genau die gleiche Krankheit wie 2080 vs 1080Ti = zu wenig VRAM für die gebotene Leistung und trotdem bei der FE nochmal nen Hunni drauf :wall:
Es wird (hoffentlich) spannend, wie AMD auf die Offerte von NV reagieren wird.
@Grestorn: alter Schwarzseher. Das haben viel auch in der CPU-Sparte von AMD behauptet: "Was soll da Neues kommen" oder "Ende der Entwicklung" usw. Und jetzt bekommt Intel langsam aber sicher die Rücklichter zu sehen. Keiner von uns weiß, was RDNA 2 tatsächlich in der Lage ist zu leisten. Und das ist nur EIN Aspekt der neuen Gen.
Gruß T.
 
Die tatsächliche Performance der 3090 wird wohl 35% über der der 2080 TI liegen, aber Nvidia wird dann halt nicht wirklich über Verbrauch reden, die grünen Balken in der Präsentation wieder so designen, dass es wie ein gigantischer Schritt aussieht und dann gaaaanz schnell von den immensen Zuwächsen im Raytracing sprechen, die der Hauptfokus ihrer Kundschaft seien, jetzt wo der Markt von Raytracing voll gesättigt ist. Ein großer Schritt in die Zukunft (bis bald zur 30x0 super Serie )

Die PR Mitarbeiter von Nvidia haben sicher einen unterhaltsamen Job.

Also ich bin da was optimistischer ich sag 45% mehr Leistung für der 2080ti sofern die 10000 vs 6500 Benchmark Punkte stimmen.

Nvidia selbst wird ihre Karten nur mit DLSS präsentieren und so auf 100% mehr Leistung kommen.
Wenn das tatsächlich auch in jedem Spiel läuft ist das auch gar nicht so unberechtig. Inzwischen sieht es ja verdammt gut aus.

Die vervierfachte Raytracing Leistung wird dann ihr übriges tun.

Könnte mir vorstellen das AMD in Rasterisierung diesmal tatsächlich wieder an Nvidea vorbei zieht. Nur werden leider alle Tester mit aktivem DLSS ihre Leistungswerte ermitteln. Mal sehen ob AMD auch so eine KI upscaling Methode entwickelt hat.
 
Da auch AMD auch an die selbe Physik halten muss, wird es denen nicht anders ergehen, auch wenn manche da auf ein Wunder hoffen...

Nvidias Preise haben aber weniger mit Physik, sondern eher mit AMDs schwäche zu tun. Mag sein, dass die Kosten in den letzten Jahren gestiegen sind, eine Preissteigerung von 170%, wenn man die RTX 2080Ti zu Grunde legt oder gar 450% (bei der RTX Titan, rechtfertigst das jedoch lange nicht.

HBM hat Nvidia auch nicht verwendet.
 
Zuletzt bearbeitet:
Also ich bin da was optimistischer ich sag 45% mehr Leistung für der 2080ti sofern die 10000 vs 6500 Benchmark Punkte stimmen.

Nvidia selbst wird ihre Karten nur mit DLSS präsentieren und so auf 100% mehr Leistung kommen.
Wenn das tatsächlich auch in jedem Spiel läuft ist das auch gar nicht so unberechtig. Inzwischen sieht es ja verdammt gut aus.

Die vervierfachte Raytracing Leistung wird dann ihr übriges tun.

Könnte mir vorstellen das AMD in Rasterisierung diesmal tatsächlich wieder an Nvidea vorbei zieht. Nur werden leider alle Tester mit aktivem DLSS ihre Leistungswerte ermitteln. Mal sehen ob AMD auch so eine KI upscaling Methode entwickelt hat.

Vierfache Raytracing Leistung :lol:Nur mit DLSS präsentieren :ugly: (weil es ja auch von jedem Spiel unterstützt wird dank dem tollen neuen magischen DLSS 3.0)

Könnt ihr euch bitte mal über die Techniken informieren, bevor ihr diesen Stuss von dem YouTuber nachplappert? Ich kanns langsam echt nicht mehr lesen. Ich hab auch keine Ahnung warum der Typ von so vielen großen Technik-Seiten überhaupt als Quelle anerkannt wird. Wenn er mal richtig lag, dann nur weil er die richtigen Leaker auf Twitter als Quelle genommen hat, von "seinen eignen Quellen" kam bisher nix zustande.
 
Zuletzt bearbeitet:
Wer ist immer noch davon überrascht, dass wir dem physisch machbaren immer näher kommen und die Leistungssteigerung immer magerer wird, dafür der technische Aufwand und damit der Preis aber immer schneller steigt?

Da auch AMD auch an die selbe Physik halten muss, wird es denen nicht anders ergehen, auch wenn manche da auf ein Wunder hoffen...

Die mangelnde Leistungssteigerung liegt weniger an dem physikalisch Machbaren sondern eher daran dass Nvidia es nicht nötig hat die Leistung zwischen 2 Generationen weiter zu steigern als bisher.
Das liegt vorallem an mangelnder Konkurrenz.
Die Preise steigen dabei trotzdem immer mehr an weil es halt die Leute mitmachen.
Sieht man ja auch ganz gut hier im Forum.
 
In seinen Beiträgen schwadroniert der Autor selber immer gerne mit solchen irrelevanten und unpassenden Aussagen.

Ich dachte bisher immer, dass Journalismus (abgesehen von der reinen Informationsweitergabe) auch dazu da ist (wortreich) zur Unterhaltung anzuregen. Wie man an den Beiträgen hier im Forum zu sehen ist, ist Herrn Links Aussage auch nicht falsch: die Teilnehmer hier unterhalten sich/spekulieren/philosophieren tatsächlich gerne (wortreich) über das Thema Mehrleistung.

Aber wenn Du schon den Griffel spitzt: "schwadroniert ... mit unpassenden Aussagen" ist in diesem Zusammenhang (grammatikalisch gesehen) selbst eine unpassende Aussage. In der ursprünglichen Bedeutung ("wilde Fechtstöße vollführen" / "herumfuchteln") kann die Dativ-Ergänzung mit "mit" angebunden werden - soweit richtig. Aber "wilde Fechtstöße mit irrelevanten und unpassenden Aussagen vollführen"? Das klingt für mich nicht besonders stilsicher.

Vielleicht sollte das Verb hier ja im übertragenen Sinne verwendet werden ("wortreich" oder "aufdringlich über etwas berichten") -> "In seinen Beiträgen schwadroniert der Autor selber immer gerne über solche irrelevanten und unpassenden Aussagen."? Das wäre zumindest grammatikalisch richtig, aber immernoch unpassend (und damit auch irrelevant); denn "wortreich über irrelevante und unpassende Aussagen reden'; denn das tut Herr Link ja nicht.

So wie es sich für mich darstellt hat Herr Link lediglich eine Redewendung verwendet, die Du in diesem Zusammenhang unpassend fandest; die Reihung "selber immer gerne" zeigt das nicht nur deutlich sondern bringt mich auf die Frage ob Du selbst nicht "selber immer gerne"... Aber darauf gehe ich an dieser Stelle nicht mehr ein stattdessen gebe ich mit einem ironischen Zwinkern zu, dass ich nun selbst "ins Schwadronieren geraten" bin - darin gefalle ich mir nämlich auch "selber immer gerne" ;)

Viele Grüße

phila
 
3080 oder gar 3090 sind für mich ohnehin utopisch, darum find ich es interessant und schön, das die 3070 jetzt doch zur gleichen Zeit kommen soll. Dann am besten noch mit 16 GB und für ~600€ dann bin ich sofort mit dabei :D
 
@Grestorn: alter Schwarzseher. Das haben viel auch in der CPU-Sparte von AMD behauptet:

Auch bei den CPUs hat man bei der IPC und Takt zu Intel "nur" fast(!) aufgeschlossen, d.h. die Leistung pro Kern ist auf dem selben Niveau wie bei Intel. Auch da ist eine physische Grenz des machbaren erreicht, mehr Takt als 5 GHz sind derzeit einfach kaum drin. Und die Optimierungen dessen, was man pro Takt machen kann, sind auch ziemlich ausgereizt. AMD kann hier aber über mehr Kerne skalieren, das ist bei CPUs aber einfacher möglich, als bei GPUs, wo man ja nur mehr Shader Units einbauen kann und da auch wieder an die physischen Grenzen von Platz und Stromaufnahme stößt.

Nvidias Preis haben aber weniger mit Physik, sondern eher mit AMDs schwäche zu tun. Mag sein, dass die Kosten in den letzten Jahren gestiegen sind, eine Preissteigerung von 170%, wenn man die RTX 2080Ti zu Grunde legt oder gar 450% (bei der RTX Titan, rechtfertigst das jedoch lange nicht.

Die Preise sind bestenfalls in dem Bereich ein wenig überhöht, in dem NVidia keine Konkurrenz hat. Also eigentlich nur bei der 2080S, 2080Ti und vor allem bei der Titan zur Zeit.

HBM hat Nvidia auch nicht verwendet.
Bringt ja auch nix, wie man inzwischen weiß. GDDR6 ist offenbar die bessere Wahl.

Die mangelnde Leistungssteigerung liegt weniger an dem physikalisch Machbaren sondern eher daran dass Nvidia es nicht nötig hat die Leistung zwischen 2 Generationen weiter zu steigern als bisher.
Das liegt vorallem an mangelnder Konkurrenz.
Die Preise steigen dabei trotzdem immer mehr an weil es halt die Leute mitmachen.
Sieht man ja auch ganz gut hier im Forum.

Das ist es, was ich meine. Ihr glaubt an ein Wunder und veschließt die Augen vor der Realität. Auch BigNavi wird bestenfalls mit NVidia gleichziehen (oder minimal besser sein) aber sicher nicht zu einem wesentlich besseren Verhältnis von Preis/Leistung oder Watt/Leistung.

Denn auch AMD kann, wie gesagt, die Phsyik nicht austricksen. Und ihr könnt Euch gerne Illusionen hingeben, ihr werdet nur genauso, wie schon so oft zuvor, dann am Ende wieder massiv enttäuscht werden.
 
Zuletzt bearbeitet von einem Moderator:
Die mangelnde Leistungssteigerung liegt weniger an dem physikalisch Machbaren sondern eher daran dass Nvidia es nicht nötig hat die Leistung zwischen 2 Generationen weiter zu steigern als bisher.
Das liegt vorallem an mangelnder Konkurrenz.
Die Preise steigen dabei trotzdem immer mehr an weil es halt die Leute mitmachen.
Sieht man ja auch ganz gut hier im Forum.
Ich bezweifele daran, dass es bei Pascal und Turing an fehlendem Willen, sondern fehlendem Können lag.
Also, natürlich lag es an fehlendem Willen, was sie ABSEITS der GPU gemacht haben---sie hätten natürlich zu HBM wechseln sollen und sich schon da um Board- und Kühlerdesignoptimierungen kümmern sollen und so weiter. Aber dass die Gewinne auf GPU-Ebene nicht so stark ausfielen, lag wohl kaum an fehlendem Willen---im Zweifelsfall hätten sie halt das gleiche Preisgefüge auch mit leistungsstärkeren Karten bringen können, dann hätte man 2080ti-Performance bei gleichem Preis mit weniger Leistungsaufnahme bekommen und mehr Performance zur 2080ti-Leistungsaufnahme zu viel höheren Preisen.
(...)
Nvidia selbst wird ihre Karten nur mit DLSS präsentieren und so auf 100% mehr Leistung kommen. Wenn das tatsächlich auch in jedem Spiel läuft ist das auch gar nicht so unberechtig. (...)
Das wäre sogar sehr unberechtigt, wenn sie Turing ohne DLSS und Ampere mit DLSS präsentieren würden---zutrauen würde ich ihnen das aber durchaus.
 
Die mangelnde Leistungssteigerung liegt weniger an dem physikalisch Machbaren sondern eher daran dass Nvidia es nicht nötig hat die Leistung zwischen 2 Generationen weiter zu steigern als bisher.

DIe offendbar deutlich höhere TDP spricht aber schon für eine Grenze beim Machbaren. Wenn Nvidia nach oben hin noch Luft hätte würde sie den Verbrauch sicher nicht in diesem Maße erhöhen.

Beim Rest gebe ich dir Recht. Allerdings werde ich dieses mal auch eine der überteuerten High-End Karten kaufen.
Einfach weil ich die Leistung brauche und Turing auch ganz brav ausgesessen habe :D
 
Habs woanders bereits geschrieben. Abwarten, was die Dinger wirklich können, aber wenn das den Tatsachen entspricht, dann ist "nur"mehr Speicher auch keine wirkliche Neuerung und den Preis (für mich) nicht wert... Mal sehen, was AMD so auf die Beine stellt... Hoffentlich kommt da wenigstens wieder etwas Schwung in die "Performance-Region" was die Preise angeht... Bei orakelten 35% mehr von den Grünen spar ich mir heuer ein Upgrade...auch gut...hab ja noch andere Hobbies ;-)... und ich befürchte, dass AMD (leider) wieder nicht an Nvidia rankommt...
 
Zurück