• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia Ampere mit 35 Prozent Mehrleistung ab 21. und 28. September?

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Nvidia Ampere mit 35 Prozent Mehrleistung ab 21. und 28. September?

Kommt Nvidia Ampere mit 35 Prozent Mehrleistung ab 21. und 28. September? Das sind zumindest die neuesten Gerüchte, die sich kurz vor dem Start überschlagen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Nvidia Ampere mit 35 Prozent Mehrleistung ab 21. und 28. September?
 

deady1000

Volt-Modder(in)
Neuer Artikel - Neue wirre Aussagen/Vermutungen.

Woher kommen die 35%?
Worauf beziehen Sie sich?

RTX3080 vs RTX2080?
Kann ja nicht sein, da die Ti deutlich schneller war.
Bezieht es sich auf die RTX3090?
Kann auch nicht sein, weil viel zu langsam bei dem vermuteten Preis und der gesteigerten Leistungsaufnahme.

Man weiß es nicht.
Alles was bleibt ist ein fettes Fragezeichen und ne knappe Woche bis wir mehr wissen.
Jetzt folgen wieder 150 Kommentare, wo man sich 24h im Kreis dreht und etwas versucht zu diskutieren, was irgendein Random-Dude in den Raum geworfen hat.

Vorschlag:
Einfach ein paar Tage abwarten.
 
Zuletzt bearbeitet:

Eragoss

Freizeitschrauber(in)
RTX 3090 mit 35% mehr Leistung und 50% höheren Preis. Juhuu

Wenn es sich um die RTX 3080 handelt, wäre dies natürlich super...
 

shaboo

Freizeitschrauber(in)
Alles andere macht keinen Sinn.
Also RTX3080 = RTX2080Ti + 35%.
Um die 40% gegenüber der Vorgängerkarte klingt für mich jetzt nicht so unrealistisch.
RTX 3080 = 2080 + 40% = 2080Ti + 15-20% hat man gerüchteweise schon sehr häufig gehört.

Ist mir aber auch egal; man wird eh' einfach das kaufen müssen, was Nvidia und AMD auf den Markt bringen, weil's halt nun mal nichts anderes gibt. Eine 10GB-3080 kommt mir auf jeden Fall nicht ins Haus, so dass die Entscheidung zwischen der 16/20-GB-3080 und dem entsprechenden Pendant von AMD fallen wird.
 

DarkWing13

Software-Overclocker(in)
Neuer Artikel - Neue wirre Aussagen/Vermutungen.

Woher kommen die 35%?
Worauf beziehen Sie sich?

RTX3080 vs RTX2080?
Kann ja nicht sein, da die Ti deutlich schneller war.
Bezieht es sich auf die RTX3090?
Kann auch nicht sein, weil viel zu langsam bei dem vermuteten Preis und der gesteigerten Leistungsaufnahme.

Man weiß es nicht.
Alles was bleibt ist ein fettes Fragezeichen und ne knappe Woche bis wir mehr wissen.
Jetzt folgen wieder 150 Kommentare, wo man sich 24h im Kreis dreht und etwas versucht zu diskutieren, was irgendein Random-Dude in den Raum geworfen hat.

Vorschlag:
Einfach ein paar Tage abwarten.

Zumindest war es bei der letzten Generation ja so, das die 2080 leistungstechnisch in etwa die 1080Ti beerbt hat (vor den "Super" Modellen), und die 2080Ti etwa 30-40% schneller war als die 1080Ti.
Wenn Nvidia sich treu bleibt, könnten die 35% also durchaus richtig sein, und beziehen sich auf eine 3090 im Vergleich zu einer 2080Ti.
Das heißt dann wieder, dass alle unteren Klassen eine "Stufe" aufgewertet würden, und eine 3080 eben ungefähr, vielleicht mit einem leichten Plus, die 2080Ti ersetzen würde.
Beim RT könnten es sogar mehr als 35%, eben die zuvor genannten 50-70%, da Nvidia zweifelsohne diese Technik pushen will, und sich in Hinsicht auf Big Navi hier einen sicheren Vorsprung erhalten will.
 

wtfNow

Software-Overclocker(in)
35% mehr Leistung im Bereich Rasterisierung vom Ampere Flagschiff 3090 zum Turing Flagschiff 2080ti.

Das war auch die Info vor Wochen von "Moore's Law Is Dead": ca 40% mehr Leistung Rasterisierung und ein Vielfaches mehr Leistung an Raytracing.

Passt zusammen.
Zum Glück sind nur noch ein paar Tage.
 

Bandicoot

PCGH-Community-Veteran(in)
35% mehr Kosten, ja das könnte hinkommen.
Eine 3080 wird max 20% über einer 2080ti liegen, wohl eher 10-15% mehr nicht.
Die 2. schnellste wird das letzte Highend nicht um 35% abhängen.
Wenn es wirklich so sein sollte (träum weiter) würde das den hohen Preis der 3090 erklären.

Wir werden sehen Sprach der Blinde zum tauben, dieser niest darauf und der Blinde sagt mach mir auch mal ein Bier auf.
 

Pu244

Lötkolbengott/-göttin
Bis heute sprechen die Gerüchte von 30 bis 75% Leistungssteigerung.

Es ist also fast alles drin (100% hätten mir natürlich wesentlich besser gefallen).

PCGH schrieb:
Ob 35 Prozent im Schnitt nun viel sind oder nicht, darüber lässt sich philosophieren.

Eigentlich nein.

35% Mehrleistung, bei 60-90W mehr Verbrauch, trotz erheblich besserem Fertigungsprozess, wären eine absolute Pleite. Sollte es so kommen, wäre es verständlich, dass Nvidia sie durch mehr VRAM, übertünchen muß.

35% höhere Performance bei 28% mehr Leistungsaufnahme. Samsungs 8nm Prozess muss der Knaller sein.

Bis heute sind die 8nm ein (meiner Meinung nach sehr unglaubwürdiges) Gerücht.
 

Blowfeld

PC-Selbstbauer(in)
Die tatsächliche Performance der 3090 wird wohl 35% über der der 2080 TI liegen, aber Nvidia wird dann halt nicht wirklich über Verbrauch reden, die grünen Balken in der Präsentation wieder so designen, dass es wie ein gigantischer Schritt aussieht und dann gaaaanz schnell von den immensen Zuwächsen im Raytracing sprechen, die der Hauptfokus ihrer Kundschaft seien, jetzt wo der Markt von Raytracing voll gesättigt ist. Ein großer Schritt in die Zukunft (bis bald zur 30x0 super Serie )

Die PR Mitarbeiter von Nvidia haben sicher einen unterhaltsamen Job.
 

TheEndOfTheWorld

PC-Selbstbauer(in)
35% Mehrleistung, bei 60-90W mehr Verbrauch, trotz erheblich besserem Fertigungsprozess, wären eine absolute Pleite.
Depends. +35% für die 3080 auf die 2080Ti wäre ne ordentliche Ansage und Steigerung gegenüber der 2080. 250W Leistungsaufnahme wäre da auch im Rahmen.

Die 3080Ti/3090 müsste da natürlich locker 50-70% auf die 2080Ti drauf legen, damit das aufgeht.
 

Mitchpuken

Software-Overclocker(in)
Man möchte ja meinen, dass Vergleiche immer irgendwie logisch sind. So könnte man eine 2060 mit einer 3060 vergleichen, aber einfach nur einen Wert ohne Zusammenhang bietet mehr Gesprächsstoff und vor allem keinen negativen Vorgeschmack :lol:
 

CD LABS: Radon Project

Volt-Modder(in)
Depends. +35% für die 3080 auf die 2080Ti wäre ne ordentliche Ansage und Steigerung gegenüber der 2080. 250W Leistungsaufnahme wäre da auch im Rahmen.

Die 3080Ti/3090 müsste da natürlich locker 50-70% auf die 2080Ti drauf legen, damit das aufgeht.
So wie du das skizzierst, würde es sich dann um eine Effizienzsteigerung um 35% handeln. 35% Effizienzgewinn wäre genau die Formulierung wert, die Pu244 genutzt hat:
(...)trotz erheblich besserem Fertigungsprozess, wären eine absolute Pleite. (...)
Ja, trotz der veränderten Ausgangslage, denn sein Kommentar bezog sich mittelbar ja auf die gesamte Architektur.

Am ersten wissen wir hoffentlich eher, ob es sich um eine absolute Pleite handeln wird oder nicht.
 

CD LABS: Radon Project

Volt-Modder(in)
Nein. Es wären 50%.

(2080Ti ist 10% schneller als eine 2080SUPER mit 250W Leistungsaufnahme - +35% auf die 2080Ti = +50% auf die 2080SUPER bei identischer Leistungsaufnahme = +50% Effizienz)
Wieso du da auch die 2080 Super reinmischst, verstehe ich nicht. Aber nichts desto trotz ist mir klar geworden, dass ich etwas missachtet habe: Die 2080ti hat ja nur auf dem Papier eine 250W-TDP, in der Praxis sind es aber eher 275W. → 10% geringere Real TDP und ~35% Mehrperformance → Abermals ~50% Effizienzgewinn, wie bei deiner Rechnung.

Wobei das natürlich nach wie vor ungelegte Eier bleiben.
 
G

Grestorn

Guest
Wer ist immer noch davon überrascht, dass wir dem physisch machbaren immer näher kommen und die Leistungssteigerung immer magerer wird, dafür der technische Aufwand und damit der Preis aber immer schneller steigt?

Da auch AMD auch an die selbe Physik halten muss, wird es denen nicht anders ergehen, auch wenn manche da auf ein Wunder hoffen...
 

Tolotos66

Volt-Modder(in)
Selbst wenn eine 3080 die 2080Ti beerben sollte in Punkto Leistung, was will man damit? Genau die gleiche Krankheit wie 2080 vs 1080Ti = zu wenig VRAM für die gebotene Leistung und trotdem bei der FE nochmal nen Hunni drauf :wall:
Es wird (hoffentlich) spannend, wie AMD auf die Offerte von NV reagieren wird.
@Grestorn: alter Schwarzseher. Das haben viel auch in der CPU-Sparte von AMD behauptet: "Was soll da Neues kommen" oder "Ende der Entwicklung" usw. Und jetzt bekommt Intel langsam aber sicher die Rücklichter zu sehen. Keiner von uns weiß, was RDNA 2 tatsächlich in der Lage ist zu leisten. Und das ist nur EIN Aspekt der neuen Gen.
Gruß T.
 

AfFelix

Freizeitschrauber(in)
Die tatsächliche Performance der 3090 wird wohl 35% über der der 2080 TI liegen, aber Nvidia wird dann halt nicht wirklich über Verbrauch reden, die grünen Balken in der Präsentation wieder so designen, dass es wie ein gigantischer Schritt aussieht und dann gaaaanz schnell von den immensen Zuwächsen im Raytracing sprechen, die der Hauptfokus ihrer Kundschaft seien, jetzt wo der Markt von Raytracing voll gesättigt ist. Ein großer Schritt in die Zukunft (bis bald zur 30x0 super Serie )

Die PR Mitarbeiter von Nvidia haben sicher einen unterhaltsamen Job.

Also ich bin da was optimistischer ich sag 45% mehr Leistung für der 2080ti sofern die 10000 vs 6500 Benchmark Punkte stimmen.

Nvidia selbst wird ihre Karten nur mit DLSS präsentieren und so auf 100% mehr Leistung kommen.
Wenn das tatsächlich auch in jedem Spiel läuft ist das auch gar nicht so unberechtig. Inzwischen sieht es ja verdammt gut aus.

Die vervierfachte Raytracing Leistung wird dann ihr übriges tun.

Könnte mir vorstellen das AMD in Rasterisierung diesmal tatsächlich wieder an Nvidea vorbei zieht. Nur werden leider alle Tester mit aktivem DLSS ihre Leistungswerte ermitteln. Mal sehen ob AMD auch so eine KI upscaling Methode entwickelt hat.
 

Pu244

Lötkolbengott/-göttin
Da auch AMD auch an die selbe Physik halten muss, wird es denen nicht anders ergehen, auch wenn manche da auf ein Wunder hoffen...

Nvidias Preise haben aber weniger mit Physik, sondern eher mit AMDs schwäche zu tun. Mag sein, dass die Kosten in den letzten Jahren gestiegen sind, eine Preissteigerung von 170%, wenn man die RTX 2080Ti zu Grunde legt oder gar 450% (bei der RTX Titan, rechtfertigst das jedoch lange nicht.

HBM hat Nvidia auch nicht verwendet.
 
Zuletzt bearbeitet:

dampflokfreund

PC-Selbstbauer(in)
Also ich bin da was optimistischer ich sag 45% mehr Leistung für der 2080ti sofern die 10000 vs 6500 Benchmark Punkte stimmen.

Nvidia selbst wird ihre Karten nur mit DLSS präsentieren und so auf 100% mehr Leistung kommen.
Wenn das tatsächlich auch in jedem Spiel läuft ist das auch gar nicht so unberechtig. Inzwischen sieht es ja verdammt gut aus.

Die vervierfachte Raytracing Leistung wird dann ihr übriges tun.

Könnte mir vorstellen das AMD in Rasterisierung diesmal tatsächlich wieder an Nvidea vorbei zieht. Nur werden leider alle Tester mit aktivem DLSS ihre Leistungswerte ermitteln. Mal sehen ob AMD auch so eine KI upscaling Methode entwickelt hat.

Vierfache Raytracing Leistung :lol:Nur mit DLSS präsentieren :ugly: (weil es ja auch von jedem Spiel unterstützt wird dank dem tollen neuen magischen DLSS 3.0)

Könnt ihr euch bitte mal über die Techniken informieren, bevor ihr diesen Stuss von dem YouTuber nachplappert? Ich kanns langsam echt nicht mehr lesen. Ich hab auch keine Ahnung warum der Typ von so vielen großen Technik-Seiten überhaupt als Quelle anerkannt wird. Wenn er mal richtig lag, dann nur weil er die richtigen Leaker auf Twitter als Quelle genommen hat, von "seinen eignen Quellen" kam bisher nix zustande.
 
Zuletzt bearbeitet:

ZanDatsuFTW

Freizeitschrauber(in)
Wer ist immer noch davon überrascht, dass wir dem physisch machbaren immer näher kommen und die Leistungssteigerung immer magerer wird, dafür der technische Aufwand und damit der Preis aber immer schneller steigt?

Da auch AMD auch an die selbe Physik halten muss, wird es denen nicht anders ergehen, auch wenn manche da auf ein Wunder hoffen...

Die mangelnde Leistungssteigerung liegt weniger an dem physikalisch Machbaren sondern eher daran dass Nvidia es nicht nötig hat die Leistung zwischen 2 Generationen weiter zu steigern als bisher.
Das liegt vorallem an mangelnder Konkurrenz.
Die Preise steigen dabei trotzdem immer mehr an weil es halt die Leute mitmachen.
Sieht man ja auch ganz gut hier im Forum.
 

phila_delphia

Software-Overclocker(in)
In seinen Beiträgen schwadroniert der Autor selber immer gerne mit solchen irrelevanten und unpassenden Aussagen.

Ich dachte bisher immer, dass Journalismus (abgesehen von der reinen Informationsweitergabe) auch dazu da ist (wortreich) zur Unterhaltung anzuregen. Wie man an den Beiträgen hier im Forum zu sehen ist, ist Herrn Links Aussage auch nicht falsch: die Teilnehmer hier unterhalten sich/spekulieren/philosophieren tatsächlich gerne (wortreich) über das Thema Mehrleistung.

Aber wenn Du schon den Griffel spitzt: "schwadroniert ... mit unpassenden Aussagen" ist in diesem Zusammenhang (grammatikalisch gesehen) selbst eine unpassende Aussage. In der ursprünglichen Bedeutung ("wilde Fechtstöße vollführen" / "herumfuchteln") kann die Dativ-Ergänzung mit "mit" angebunden werden - soweit richtig. Aber "wilde Fechtstöße mit irrelevanten und unpassenden Aussagen vollführen"? Das klingt für mich nicht besonders stilsicher.

Vielleicht sollte das Verb hier ja im übertragenen Sinne verwendet werden ("wortreich" oder "aufdringlich über etwas berichten") -> "In seinen Beiträgen schwadroniert der Autor selber immer gerne über solche irrelevanten und unpassenden Aussagen."? Das wäre zumindest grammatikalisch richtig, aber immernoch unpassend (und damit auch irrelevant); denn "wortreich über irrelevante und unpassende Aussagen reden'; denn das tut Herr Link ja nicht.

So wie es sich für mich darstellt hat Herr Link lediglich eine Redewendung verwendet, die Du in diesem Zusammenhang unpassend fandest; die Reihung "selber immer gerne" zeigt das nicht nur deutlich sondern bringt mich auf die Frage ob Du selbst nicht "selber immer gerne"... Aber darauf gehe ich an dieser Stelle nicht mehr ein stattdessen gebe ich mit einem ironischen Zwinkern zu, dass ich nun selbst "ins Schwadronieren geraten" bin - darin gefalle ich mir nämlich auch "selber immer gerne" ;)

Viele Grüße

phila
 

dustyjerk

Freizeitschrauber(in)
3080 oder gar 3090 sind für mich ohnehin utopisch, darum find ich es interessant und schön, das die 3070 jetzt doch zur gleichen Zeit kommen soll. Dann am besten noch mit 16 GB und für ~600€ dann bin ich sofort mit dabei :D
 
G

Grestorn

Guest
@Grestorn: alter Schwarzseher. Das haben viel auch in der CPU-Sparte von AMD behauptet:

Auch bei den CPUs hat man bei der IPC und Takt zu Intel "nur" fast(!) aufgeschlossen, d.h. die Leistung pro Kern ist auf dem selben Niveau wie bei Intel. Auch da ist eine physische Grenz des machbaren erreicht, mehr Takt als 5 GHz sind derzeit einfach kaum drin. Und die Optimierungen dessen, was man pro Takt machen kann, sind auch ziemlich ausgereizt. AMD kann hier aber über mehr Kerne skalieren, das ist bei CPUs aber einfacher möglich, als bei GPUs, wo man ja nur mehr Shader Units einbauen kann und da auch wieder an die physischen Grenzen von Platz und Stromaufnahme stößt.

Nvidias Preis haben aber weniger mit Physik, sondern eher mit AMDs schwäche zu tun. Mag sein, dass die Kosten in den letzten Jahren gestiegen sind, eine Preissteigerung von 170%, wenn man die RTX 2080Ti zu Grunde legt oder gar 450% (bei der RTX Titan, rechtfertigst das jedoch lange nicht.

Die Preise sind bestenfalls in dem Bereich ein wenig überhöht, in dem NVidia keine Konkurrenz hat. Also eigentlich nur bei der 2080S, 2080Ti und vor allem bei der Titan zur Zeit.

HBM hat Nvidia auch nicht verwendet.
Bringt ja auch nix, wie man inzwischen weiß. GDDR6 ist offenbar die bessere Wahl.

Die mangelnde Leistungssteigerung liegt weniger an dem physikalisch Machbaren sondern eher daran dass Nvidia es nicht nötig hat die Leistung zwischen 2 Generationen weiter zu steigern als bisher.
Das liegt vorallem an mangelnder Konkurrenz.
Die Preise steigen dabei trotzdem immer mehr an weil es halt die Leute mitmachen.
Sieht man ja auch ganz gut hier im Forum.

Das ist es, was ich meine. Ihr glaubt an ein Wunder und veschließt die Augen vor der Realität. Auch BigNavi wird bestenfalls mit NVidia gleichziehen (oder minimal besser sein) aber sicher nicht zu einem wesentlich besseren Verhältnis von Preis/Leistung oder Watt/Leistung.

Denn auch AMD kann, wie gesagt, die Phsyik nicht austricksen. Und ihr könnt Euch gerne Illusionen hingeben, ihr werdet nur genauso, wie schon so oft zuvor, dann am Ende wieder massiv enttäuscht werden.
 
Zuletzt bearbeitet von einem Moderator:

CD LABS: Radon Project

Volt-Modder(in)
Die mangelnde Leistungssteigerung liegt weniger an dem physikalisch Machbaren sondern eher daran dass Nvidia es nicht nötig hat die Leistung zwischen 2 Generationen weiter zu steigern als bisher.
Das liegt vorallem an mangelnder Konkurrenz.
Die Preise steigen dabei trotzdem immer mehr an weil es halt die Leute mitmachen.
Sieht man ja auch ganz gut hier im Forum.
Ich bezweifele daran, dass es bei Pascal und Turing an fehlendem Willen, sondern fehlendem Können lag.
Also, natürlich lag es an fehlendem Willen, was sie ABSEITS der GPU gemacht haben---sie hätten natürlich zu HBM wechseln sollen und sich schon da um Board- und Kühlerdesignoptimierungen kümmern sollen und so weiter. Aber dass die Gewinne auf GPU-Ebene nicht so stark ausfielen, lag wohl kaum an fehlendem Willen---im Zweifelsfall hätten sie halt das gleiche Preisgefüge auch mit leistungsstärkeren Karten bringen können, dann hätte man 2080ti-Performance bei gleichem Preis mit weniger Leistungsaufnahme bekommen und mehr Performance zur 2080ti-Leistungsaufnahme zu viel höheren Preisen.
(...)
Nvidia selbst wird ihre Karten nur mit DLSS präsentieren und so auf 100% mehr Leistung kommen. Wenn das tatsächlich auch in jedem Spiel läuft ist das auch gar nicht so unberechtig. (...)
Das wäre sogar sehr unberechtigt, wenn sie Turing ohne DLSS und Ampere mit DLSS präsentieren würden---zutrauen würde ich ihnen das aber durchaus.
 

sunburst1988

Software-Overclocker(in)
Die mangelnde Leistungssteigerung liegt weniger an dem physikalisch Machbaren sondern eher daran dass Nvidia es nicht nötig hat die Leistung zwischen 2 Generationen weiter zu steigern als bisher.

DIe offendbar deutlich höhere TDP spricht aber schon für eine Grenze beim Machbaren. Wenn Nvidia nach oben hin noch Luft hätte würde sie den Verbrauch sicher nicht in diesem Maße erhöhen.

Beim Rest gebe ich dir Recht. Allerdings werde ich dieses mal auch eine der überteuerten High-End Karten kaufen.
Einfach weil ich die Leistung brauche und Turing auch ganz brav ausgesessen habe :D
 

Heidi1610

Kabelverknoter(in)
Habs woanders bereits geschrieben. Abwarten, was die Dinger wirklich können, aber wenn das den Tatsachen entspricht, dann ist "nur"mehr Speicher auch keine wirkliche Neuerung und den Preis (für mich) nicht wert... Mal sehen, was AMD so auf die Beine stellt... Hoffentlich kommt da wenigstens wieder etwas Schwung in die "Performance-Region" was die Preise angeht... Bei orakelten 35% mehr von den Grünen spar ich mir heuer ein Upgrade...auch gut...hab ja noch andere Hobbies ;-)... und ich befürchte, dass AMD (leider) wieder nicht an Nvidia rankommt...
 
Oben Unten