Geforce Ampere offiziell: RTX 3090 und RTX 3080 starten im September, RTX 3070 im Oktober - alle Infos

möglich wäre es schon der AMD außen Dienst sagt auch schon das Big Navi gut werden soll von daher denke ich schon das sie zu mindestens aufschließen werden
Wäre schön, aber das kann ich mir, wie gesagt, nach den letzten Jahren nicht vorstellen.
Wenn man die 3080 erreichen könnte, wäre das schon ein Fortschritt.
 
Nun, was denkt ihr : wird die 3080 laut sein ..
Nvidia hat sich stark verbessert die letzten Jahre mit den FE's meiner Meinung nach.

Doch, ich bin leicht verwöhnt von meiner 2080 MSi Trio X Gaming.
Die ist ziemlich leise und kühl (:

Denkt ihr kann die 3080 da mithalten?
 
Kann mir einer sagen, warum eigentlich bei Intel & Co. früher immer die Effizienz Keule und wie sparsam das doch ist, geschwenkt wurde - und kaum verbraten deren Geräte selber extrem viel, ist alles egal und es zählt nur mehr die absolute Leistung?

Was interessiert mich mein Geschwätz von Gestern?

Na, wer hats gesagt?

Und ja: ich bin über diese TBP/TGP etwas erstaunt und enttäuscht. Als jemand der seine GPU Jahrelang nicht upgegradet hat weil die (bevorzugten) AMDs (etwa die Vega) zu viel verbraucht haben und zu wenig Zugewinn hatten, werde ich ohne große Probleme um die 3xxxer Serie einen Bogen machen.
 
Zuletzt bearbeitet:
Echt jetze, eine 3080 mit nur 10GB? Die 1080 hat 8GB, über 4 Jahre Zeit vergangen und nur 2 GB mehr. In Zukunft 4K+ Texturen bei 150GB+ Games, okaaay Nvidia okaaay.
AMD deine Chance, nutze sie! ;)
Wieviel hat denn die 2019 vorgestellte AMD 5700 XT nochmal? Nachdem auch schon Jahre zuvor die 480 mit 8 GB kam?
Ja, ist etwas lahm derzeit was den Speicherausbau betrifft, aber mit den neuen Konsolen wirds sowieso einen Schub geben (müssen)
Leck mich fett! 699 für ne 3080er? Ich glaube, meine 2080 bekommt gerade Altersschwäche.
biggrin1.gif
Ja wahnsinnspreis. 480, 580, 680 -> Preis: 499$. Das war aber damals der schnellste Chip, also quasi die Titan.
Plötzlich wird klar: AMD kann nicht hinterher:
Somit: GF 780 - 650$
Stimmt schon, da sind 699 gar nicht so schlimm.
Nvidia weiß was die Kunden bereit sind zu zahlen. Würden sies nicht tun
 
Zuletzt bearbeitet:
In ResetEra hat jemand auf Basis der Digital Foundry Werte für diese Spiele konkrete Benchmarks erstellt:
Borderlands 3 (4k/Bad Ass/DX12/4K/TAA)
RTX 2080 - 34.33fps
RTX 2080 ti - 48FPS
RTX 3080 - 61.79fps (180%)


Shadow of the Tomb Raider (4k/Highest/TAA)
RTX 2080 - 47fps
RTX 2080 ti - 61FPS
RTX 3080 - 78.96fps (168%)


Battlefield V (4k/Ultra/TAA/DXR OFf)
RTX 2080 - 67fps
RTX 2080 ti - 84FPS
RTX 3080 - 112fps (168%)


Control (4k/High/TAA/DLSS OFf)
RTX 2080 - 31.8fps
RTX 2080 ti - 41.7FPS
RTX 3080 - 56.47fps (177.6%)


Doom Eternal (4k/Ultra Nightmare)
RTX 2080 - 82.3fps
RTX 2080 ti - 105.8FPS
RTX 3080 - 156fps (189.6%)

Absolut heftig, 4K/Ultra mit mehr wie 150 FPS in Doom Eternal.:D
Die RTX 3070 soll sich zwischen 2080ti und 3080 einordnen, aber näher an der 2080ti.

Log in | ResetEra
 
Hat Intel eigentlich nun PCIe4.0 Boards am Start, oder verlieren sie nun dadurch alle Kunden endgültig an AMD?
 
In ResetEra hat jemand auf Basis der Digital Foundry Werte für diese Spiele konkrete Benchmarks erstellt:


Absolut heftig, 4K/Ultra mit mehr wie 150 FPS in Doom Eternal.:D
Die RTX 3070 soll sich zwischen 2080ti und 3080 einordnen, aber näher an der 2080ti.

Log in | ResetEra
Wenns so kommt wär das gut, da es nicht nur RT oder DLSS Werte sind.
Aber ist halt auch teuer erkauft. Nicht nur vom Geld her, sondern vom auch vom Verbrauch.
Weiß nicht, warum Nvidia da so hoch raufgeht, wenn die vergangenen Generationen da sehr sparsam waren (1080 -> 180W. Die 2080 zähle ich nicht weil kein Shrink, aber 320 W bei der 3080? Kann man nur hoffen, dass das mit der 5nm und 3nm Gen in normale Regionen zurückkommt, bei meiner Frau braucht der ganze PC keine 180W unter Doom: Eternal.).
 
Interessiert sich hier irgendeiner für das neue Kühlungssystem der 3080 founders? Der Chef meinte ja es soll viel besser kühlen und leiser sein
 
Kann mir einer sagen, warum eigentlich bei Intel & Co. früher immer die Effizienz Keule und wie sparsam das doch ist, geschwenkt wurde - und kaum verbraten deren Geräte selber extrem viel, ist alles egal und es zählt nur mehr die absolute Leistung?

Das ist die berühmte 180° Fanboykehrtwende, ein Manöver, das sie alle beherrschen.

Im Herbst wird man das wohl sehr schön sehen können. Dann werden die AMD Fanboys. die ja bisher immer vom CPU Limit gesprochen haben (warum kauft man dann eine gute AMD CPU?) plötzlich die Spiele entdecken, die von der CPU begrenzt werden. Dann muß auch da eine gute GPU von einer guten CPU unterfüttert werden. Gleichzeitig werden alle Intelfanboys das GPU Limit für sich entdecken, bei der Effizienz haben sie die Fanboykehrtwende ja schon vollzogen, die ist nichtmehr wichtig. Wenn Rocketlake rauskommt, dann vollziehen beide Lager wohl wieder ihre 180° Kehrtwende.

Bei den Herstellern ist es immer so, dass der unterlegene natürlich alle Mittel nutzen muß, um an die Konkurrenz heranzukommen, dazu gehört massives OC. Der überlegene kann sich hingegen etwas zurücklehen und sich, dank weniger Verbrauch, mit kleineren Kühlern und einer billigeren Spannungsversorgung zufrieden geben. Der Verbrauch explodiert, wenn bei Hersteller etwa gleich stark sind, was in der Vergangenheit nur selten der Fall war.
 
Also für 1500 Euro kaufe ich mir die 3090. Hab da mit deutlich mehr gerechnet. Die 3080 kommt für mich, dank 10GB, leider nicht in Frage. Die 3090 ist für meine VR-Anwendungen leider alternativlos. Und AMD wird die 3090 (leider) sicherlich nicht toppen können. 1500 Euro sind zwar etwas schmerzhaft aber seitdem ich nicht mehr rauche und täglich alle 1 und 2 Euro Stücke in die Kasse schmeiße, bleibt mir sogar noch etwas für ein passendes Netzteil :D

Edit: Hab die ersten gebrauchten 2080TI's für unter 600 Euro gesichtet :D
 
Zuletzt bearbeitet:
Der erste winzige Hinweis darauf, wie verdammt stark BN wird, ist allein der Umstand, dass sie für die 3080 den GA102 nutzen, statt dem 104 und dieser als Vollausbau auf der 3070 landet...

Oder es liegt daran, dass die 3080 von Anfang an mehr als 8GB haben sollte und/oder daran, dass der GA104 keinen GDDR6X ansprechen kann.

Hat Intel eigentlich nun PCIe4.0 Boards am Start, oder verlieren sie nun dadurch alle Kunden endgültig an AMD?

Boards, ja.
CPUs, noch nicht.
 
Kann man natürlich auch so einfach abhaken.


2080 Ti im August 2018 für $999 offensichtlich ohne Tax angekündigt.
Auf der Website zum Kauf dann für $1199 inkl. Tax angeboten.
In Deutschland 1259€ logischerweise auch mit Steuer

Kurs 17.08.2018 war $1 = 0,87€
$999 = 869,13€ + 19% = 1034,26€ -> kaufen konnte man für 1259€


3090 heute für $1499 angekündigt
Auf Website zum Kauf für $1499
In Deutschland für 1499€

Kurs 01.09.2020 war $1 = 0,84€
$1499 = 1258,07€ + 16% =1459€ -> kaufen kann man sie bald für 1499€


Verstehst du jetzt meinen Gedankengang?
Warum sollte der Preis jetzt mit Tax in der Präsentation angegeben sein und identisch auf der Website?
Jeder Staat in den USA hat doch seine eigenen Steuern



Edit: Naja nvm, in Frankreich kostet die 3090 z.b. 1549€

Wir erinnern uns! Früher waren die Dollar Preise immer Euro Endpreise, bis jemand auf die Idee kam das die Leute im Euroland doch besser verdienten als die Amis(bzw jemand hat sich die Taschen vollgemacht).Ab da hat man es dann so gehandhabt und die Käufer haben es anscheinend nicht gemerkt, ausser ich!
Ich denke mal Corona spielt hier mit rein!
 
Eine 3080 liegt in manchen Spielen in 4K bei Ultra Details und 120 Hz zwischen 60 - 100% über der Leistung einer 2080. Die 3090 toppt das noch. Die ausführlichen Tests werden diese Tendenz nur noch untermauern. Diese 30x0 Serie hat den Gebrauchtwert der 20x0 Serie massiv gesenkt. Um diesen Fakt kommt man nicht herum.

Also bei dem Video von digital foundery hab ich im mittel +70% , bei starker belastung +60% und bei geringerer Belastung +70% der Gpu gesehen in 4K .Das waren stabile Werte das mal +100% da war für eine Millisekunde zählt für mich nicht.
 
Cyberpunk 2077 mit der gesamten Palette an Raytracing und DLSS sieht wirklich unfassbar gut aus:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Eine 3070 mit 2080ti Leistung für 499€ wäre eine echt schmerzhafte Ansage für alle 2080ti Käufer die ihre gebraucht loswerden wollen. Da wäre dann nur noch etwas mehr Ram zugunsten der ti. Mal sehen was der Test an belastbare Werte dazu ergibt.

Wäre schön, aber das kann ich mir, wie gesagt, nach den letzten Jahren nicht vorstellen.
Wenn man die 3080 erreichen könnte, wäre das schon ein Fortschritt.
Wurde bei CPUs auch gesagt was dann passierte wissen wir ja. Soll aber jetzt nicht heissen das es bei den GPUs genauso kommt aber unmöglich ist es auch nicht.
 
Zuletzt bearbeitet:
Wie sinnlos endlos Beispiele und Gegenbeispiele zu bringen, ob der Speicher in diesem oder jenem Spiel in dieser oder jener Auflösung reicht oder nicht reicht.

Ich weiss, dass ich 8 GB spätestens mit Mods voll kriege. Wer das nicht tut, der braucht wohl nicht mehr.
Ich brauche mehr.

Es gibt keine abschliessende Antwort ob der Speicher reicht. Ist doch klar, je nachdem für wen und was. Ihr tauscht dauernd Argumenta aus (und zwar immer dieselben) und uberseht dabei vollkommen, dass beide Seiten Recht haben. Die Argumente beider Seiten sind meist valide. Jeder gewichtet sie nur anders. Das unterschiedliche Gewichten von Argumenten (mir kann etwas wichtiger sein als dir, dir etwas anderes wichtiger sein als mir, bekanntes Prinzip!)anzuerkennen ist eine Grundvorraussetzung andere Meinungen akzeptieren zu könneb.

Ich bin preislich bisher etwas positiv überrascht. Der Speicher aber ist ein Ausschlusskriterium, der Preis für die 20 GB Karte wird es auch sein. Für mich, selbstverständlich.
 
Zurück