Nvidia Ampere: Bilder der (riesigen) Geforce RTX 3090 Founders Edition machen die Runde

Die rtx3080 wird 300w sprengen das ist sicher
nvidia will die Krone behalten und prügelt auf 2ghz hin
Mit 1,8ghz wäre man bei 210w
Gut möglich das die standard Taktraten bei 50% mehr strombedarf resultieren was bei 300w 2,0ghz vs 150w 1,7ghz
Die ipc steigt nur marginal um 5-7%
aus dem Gerücht entnommen timespy extreme 10 000pkt bei 2,1ghz 5376shader vs rtx2080ti 1,8ghz

Im Grunde fallen die preise eienr rtx2080ti auf 799$ un die Leistung ist vergleichbar mit der rtx3080
Für nvidia ist das ein fiasko das man tsmc 7nm node nicht nutzen konnte.
Und samsung 7nm node schlechte yields brachte damit amn ende 2019 komplett auf 8nm gehen musste (10nm node von samsung)
Das design musste nur marginal angepasst werden. da samsung prozess für kleinere gpu von ampere vorgesehen war. Vermutlich ga106 und ga107
Da aber das ganze lineup nun von samsung kommt mussten die sku angepasst werden
ich vermute das nvidia amd mit rdna2 nicht so stark eingeschätzt hat.

Die vor 9 Monaten 70% mehr Leistung bezogen sich durchaus auf die arch von rasterleistung aber mit 2,2-2,4ghz gpu clock
Daraus wurde nix als bekant wurde das tsmc 7nm node kaum kapazitäten frei waren.
ampere a100 wird somit alle tsmc chips erhalten und das ist fix
 
Yep, es wird höchste Eisenbahn, dass Nvidia im Hausshop "nackte" Platinen einführt, natürlich entsprechend günstiger. Gerade Wasserkühlungs-Freaks würden frohlocken.

MfG
Raff
Sehe ich etwas anders. Es wird höchste Zeit das nVidia auch bei Release Wassergekühlten im Angebot hat. Dann spart man sich den Umbau (der könnte bei so riesen Kühlern auch umständlicher werden) und hat von Anfang an eine kühle Karte ohne den lästigen Lüfterlärm.
 
Da lieber die effiziente Radeon.

Du redest von einer RX 5600? Dann bist du hier im falschen Thread. :-D
Ansonsten ist das Gerüchteküche und Wunschdenken. Nimmt man bei NV die 350 W (für das größte Modell *) tatsächlich als gegeben hin, kann man zur Effizienz dennoch keine Aussage treffen, da Leistungsdaten fehlen und zu AMD kann man derzeit gar überhaupt keine Aussage treffen, da hier weder Leistungsdaten noch Verbrauchsdaten vorliegen.

*) Das möglicherweise gar nicht mal mit AMDs Topmodell konkurriert, da es ggf. bereits leistungstechnisch über diesem liegen könnte.
 
Hab voll Bock auf ne fette 350Watt Karte. :D :cool:

Freue mich drauf, was Nvidia da bringt.
Mehr Basispower, als 2080Ti, dazu DLSS 7.0 :D ;) , RT Power bis zum Abwinken und Speicher bis zum jüngsten Gericht, mit 24GB. :hail:

Was soll ich mit kleinen Stromsparkärtchen im 1-2 Slot Design ?
Da könnt ich gleich meine GTX 1660 Super drin lassen, die grad ihren Überbrückungsjob macht. ;)

Kann's kaum erwarten, was Jensen uns für ne tolle Hype-Show bietet ! :banane:


Und jetzt tut mal nicht so, als würde euch das nicht auch interessieren, was der so präsentieren wird, selbst wenn hier teilweise ganz schön rumgenörgelt wird.

Mal gucken was Asus, MSI, EVGA, Zotac und der Rest so an Customs bringt. :)

Noch 10 Tage, Leute. :daumen:

Ne sorry ich sehe zur Zeit nichts wirklich positives an Ampere wenn ich mal die ganzen Gerüchte revue passieren lasse eher das Gegenteil ist der Fall :schief:. Aber nu jut, man kann sich alles schön reden. Jeder wie er mag.
 
Sehe ich etwas anders. Es wird höchste Zeit das nVidia auch bei Release Wassergekühlten im Angebot hat. Dann spart man sich den Umbau (der könnte bei so riesen Kühlern auch umständlicher werden) und hat von Anfang an eine kühle Karte ohne den lästigen Lüfterlärm.
Dann sollen sie beides anbieten. Aber ich will keinen vormontierten Fullcover, da der dann sicherlich nicht von Aqua Computer oder Watercool stammt, sondern wie gefühlt fast alles bei sowas von EKWB. Und gerade in dem Preisbereich erwarte ich dann höchste Qualität und nicht nur Durchschnitt.
 
AMD hat jetzt die Chance ein Preiswerteres Produkt vorzustellen und ich freue mich wenn die 6700/XT und 6800 Vorgestellt wird. Von mir aus auch mit 500 Watt TDP, Hauptsache es gibt wirklichen Fortschritt in der Leistung.

Ich glaube du hast Gestern zu viel gefeiert :ugly:. In der Klasse 500W. TDP sind ja nun mal jenseits von gut und böse. Das dürfte nichtmals der Big Chip schlucken...bei weitem nicht :hmm:.
 
Frage mich ernsthaft, warum es bei Nvidia so viele "Leaks" gibt und bei AMD Funkstille ist!?
Kann man das so interpretieren, dass AMD da was Ordentliches im Petto hat oder eher das Gegenteil?
Hoffe auf ersteres.
 
500 bis 550 sind eher sie Standardempfehlungen und wenn jemand eine 2080ti verbauen wollte wurde auf ein 750 Watt NT hingewiesen. was hat jetzt der CPU Kühler mit der GPU zu tun? Zumal hier au h BeQuiet eher seltener empfohlen wird. Auch werden hier im Forum nicht nur BeQuiet Gehäuse empfohlen. Was erzählst du hier für einen Blödsinn?

Naja:
Mit dem CPU-Kühler ist es nicht ganz sooo weit her geholt auch wenn ich nicht weiß ob er das auch so meinte.
Unter CPU+GPU Vollast (3900X+Aorus 1080Ti), habe ich mit 5x 140mm Lüftern im Gehäuse mit offener Fronttür und 2x140mm auf dem Dark Rock Pro 4, zirca 10°C und mehr zusätzlich an der CPU als wenn nur diese auf Vollast Läuft. Im Durchschnittlichen Gamingbetrieb sind es ein Paar-paar grad weniger.<--^^
 
Das mit dem dämlichen 12pin stromstecker werden die doch net wirklich durch ziehen oder? und wenn ja dann muss n 2x8 pin auf den 12pin adapter beiliegen was die ganze sache wieder sinnlos macht.... ich sachs ganz ehrlich... so ein dummes unterfangen wär für mich n grund KEIN nvidia zu kaufen.... n dämlichen adapter nutzen für ne spielerei die mit der darauf folgenen gen eh wieder abgeschafft wird....

Ansonsten wär geil wenn ma so n Kloppa von karte aufn markt kommt platz ist dafür allemal in den meißten gehäusen


und wenn die GPU über 300 watt zieht... dazu n 8 kerner oder mehr werkelt und noch RGB kram und ne AIO oder Custom am NT hängt dann solte es wohl eher in richtung 850 watt gehen.... Aufgrund der effizientz in mittleren Lastbereich von Netzteilen find ichs mittlerweile eh grob Fahrlässig zu sagen 500 watt reichen für ne (bsp) 5700xt und nen 3700x....

Just vor n paa wochen konnt ichs testen... vega 56 am maximum so das sie auch 260watt saugt... dazu ein auf ca 50 watt gedeckelter 3100 + custom loop + 10 lüfter und ca 500 LEDs im Gehäuse... hab n 500w pure power genommen da das neue seasonic Prime TX-850 inne RMA is.... und schaue da nach ner halben stunde Trackmania hatte das Netzteil die Hosen gestrichen Voll und ist Thermal bedingt inne notabschaltung gegangen... Und ich denke um die 250watt leistungsaufnahme wird mit den Nächsten Grafikkarten eher der Standart werden bei der Leistung die wir Mittlerweile in Games brauchen... Ich bin froh ,,, viele haben gesagt es sei Kompett hirnrissig sich n wirklich sehr Teures Titanium Zertifiziertes NT zu kaufen.... Bei den TDP aussichten bin ich froh bei 50% Last 97% effizienz zu haben, Die zeiten in denen ein 500watt Gold zertifiziertes Netzteil "locker" reicht, sind Vorbei
 
Zuletzt bearbeitet von einem Moderator:
Aber nu jut, man kann sich alles schön reden. Jeder wie er mag.

Ich glaub meine 1080Ti von Asus war in etwa 1cm kleiner/kürzer.
Und viel leichter war die sicher auch nicht.
Fand die schon toll.

Ein würdiger Nachfolger wäre sowas schon.
1,5 KG Grafikkarte mit Vapor Chamber !? Hört sich gut an für mich.

Mein Gehäuse is eh dafür gemacht, da ich seit je her auf Luft only Kühlung und gut belüftete Gehäuse setze.
Platz kein Problem: Vorn sind außer den beiden 200er Lüftern genau NIX und diese Schaufeln dauernd reichlich Frischluft heran.
Wenn sich die GPU da etwas von abzweigt, kein Problem. Soll sie ja. Dafür is das ja so.

Laufwerke, oder Käfig hab ich schon lange nich mehr.
Eine SSD unten/front reicht doch, quer hinterm unteren Lüfter(unten am Boden). :)
Sonst hab ich da nix zusätzlich drin.
Sound is eh schon lange extern.

So etwa 41cm könnte meine GPU lang sein(und 6-Slot Design ;) ). :D
Dann wird's langsam eng.

Und laut is da nix, da die großen Teile gerade mal so um die 900 Umdrehungen machen und wenn ich meine Hand da in's Gehäuse halte is da n schöner Luftzug.
Kommt nur noch auf die jeweiligen Lüfter/Kühldesigns der Hersteller an. Es wird ja nicht nur eine FE kommen, obwohl mir die auch schon gefällt.
Bin auch mal auf die Lösungen der Customs gespannt. Dicke, fette GPUs gab's zuletzt auch schon. Da sieht ne 2080 FE immer klein gegen aus. ;)
 
Zuletzt bearbeitet:
war letzte generation nicht 999EURO und 1600Euro die Range ?
Ich denke 2000 Euro ist jetzt die grenze für die ti äh 90
Bei den Preisen werde ich das erste mal in meinem Leben aus Prizip eine Marke nicht mehr kaufen völlig egal ob es jetzt 1500 oder 2000Euro sind
 
Sagt mal, nervt es euch nicht auch extrem, dass man unter dem Artikel keine vernünftige Kommentaransicht geboten bekommt? Ich will mich nicht erst einloggen, um chronologisch die Kommentare lesen zu können.
 
Das mit dem dämlichen 12pin stromstecker werden die doch net wirklich durch ziehen oder? und wenn ja dann muss n 2x8 pin auf den 12pin adapter beiliegen was die ganze sache wieder sinnlos macht.... ich sachs ganz ehrlich... so ein dummes unterfangen wär für mich n grund KEIN nvidia zu kaufen.... n dämlichen adapter nutzen für ne spielerei die mit der darauf folgenen gen eh wieder abgeschafft wird....

Ansonsten wär geil wenn ma so n Kloppa von karte aufn markt kommt platz ist dafür allemal in den meißten gehäusen

Als ob das jemals anders gewesen ist... War beim 6pin und 8pin genau das gleiche... :hmm:
 
Das mit dem dämlichen 12pin stromstecker werden die doch net wirklich durch ziehen oder? und wenn ja dann muss n 2x8 pin auf den 12pin adapter beiliegen was die ganze sache wieder sinnlos macht.... ich sachs ganz ehrlich... so ein dummes unterfangen wär für mich n grund KEIN nvidia zu kaufen.... n dämlichen adapter nutzen für ne spielerei die mit der darauf folgenen gen eh wieder abgeschafft wird....
Adapter 3 x 8 Pin liegt bei, der 12 Pin soll bis zu 600 Watt liefern können, das schaffen auch keine 3 x 8 Pin Kabel.

Frage mich ernsthaft, warum es bei Nvidia so viele "Leaks" gibt und bei AMD Funkstille ist!?
Kann man das so interpretieren, dass AMD da was Ordentliches im Petto hat oder eher das Gegenteil?
Hoffe auf ersteres.
Interpretieren kann man alles aber ich rechne mit Ersterem, sei es Leistungskrone oder Preis/Leistungskrone und/oder Effizienzkrone.

Gegen einen voreiligen Nvidia Kauf sprechen die evtl. schlechtere 8nm Fertigung, Betatester für heißen VRAM?, Early Adopter Preise und dagegen für Big Navi die bessere 7nm Fertigung und Konsolen Architektur. Der Rest steht in den Sternen.
Gekauft wird wenn PCGH beide getestet hat.
 
Zuletzt bearbeitet:
Das war bei mir bei Turing schon so ... aber niemand hat mitgemacht. ;)
Bringt also nix. Gab genug die 1000+ € rausgehauen haben. Und nun haben wir eben den Salat.

Get over it! ;) :daumen:

Juuup da es genug mit zuviel Kohle gibt wird Nvidia es sich nicht entgehen lassen ihre Topmodelle wieder richtig schön teuer zu machen... Aber hey in einer Welt in der Millionen leute 1500+ Euro fürn Handy ausgeben..... was erwarten wir... Und AMD wird sich anpassen... es wird von AMD keine karte geben die es mit ner 3090 aufnehmen kann und dabei nur die Hälfte oder 2/3 Kostet


Aber Nvidia hat für leude wie mich die ihre Hardware gerne Unter Kontrolle haben, und zwar Ohne 100 Zusatz Programme einen Klaren Nachteil.... Schön das Nvidia Treiber so gut laufen.... Ihnen fehlt es aber an Umfang... Ein im Treiber Integiertes OC Tool, meinetwegen auch ein im Treiberprogramm Integrierter Afterburner... MUSS sein... hab mich soooo an Wattman gewöhnt...das ich es nicht mehr Missen will
 
Zuletzt bearbeitet von einem Moderator:
Zurück