RTX 4000 und RX 7000: Leaker mit neuer Specs-Tabelle

Fakt ist doch, dass es nicht die Aufgabe des Kunden sein kann, die Aufgaben des Herstellers zu erledigen, vernünftige Einstellungen zu wählen.
Die Einstellungen sind vernünftig. Wenn dir der Verbrauch zu hoch ist, kauf eine kleinere Karte. Das wurde hier aber auch schon von mehrere Usern vorgeschlagen. Niemand sagt, dass du für 1500€+ eine 450W Karte kaufen und dann selbst noch Hand anlegen musst, aber du hast die Möglichkeit dies zutun.

Abgesehen davon gibt es genügend Beispiele, bei denen das Silent-Bios der Karten kaum Performance einbüßt gegenüber der Sauf-was-Du-willst-Version. Genauso wie die Pro-Versionen der Karten nahezu am Sweetspot betrieben werden und auch kaum Leistung verlieren. Ich erwarte einfach eine für den unbedarften User ausgelegte Standard-Version. Wer mehr will soll halt selbst Hand anlegen. Opt-in statt Opt-out.
Es gibt kein Opt-Out. Du tust so als gäbe es neben den 450-600W Karten nichts anderes mehr und das ist Unfug.
Laut Gerüchten liegt die 4060 bei 180-250W und wenn dir das zu viel ist, gibt es noch den AD106 und AD107.

Leider verzichten immer mehr Hersteller darauf solche Hardware zu liefern, von gut abgestimmten Silent-Biosversionen ganz zu schweigen.
Tun sie eigentlich nicht. Meine ASUS TUF bietet z.B. ein Silent BIOS. Du hast eine große Auswahl zwischen verschiendenen Modellen. Wo ist das Problem? Was stört dich daran, Auswahl zu haben? Check ich nicht.
Kauf, was dir gefällt und ignoriere den Rest, aber hör doch auf Nvidia und AMD vorschreiben zu wollen, was sie zutun haben.
Wenn es nach dir ginge, hätte ich mir keine 3090 kaufen können, weil es sie nicht gegeben hätte.

Es erschließt sich mir nicht, welchen Vorteil du persönlich davon hättest, wenn die Topmodelle max. 280W verbrauchen würden. Störst du dich daran, dass User wie ich eine 450W Karte kaufen würden?
Und wo war dein Aufschrei bei der Fury oder R9 295X2, welche einen Verbrauch von über 500W hatte?
 
Zuletzt bearbeitet:
Ist doch dem Thepunisher240 sein neuer Account :schief:
Ich hab's mir schon gedacht. Gibt ja nicht viele die sich so eloquent und höflich ausdrücken wie der nervöse, kleine Puni.

Diese Specs sehen für mich unglaubwürdig aus. Beim Namen des leakers erwarte ich bezüglich AMD Infos aber auch nicht viel. Bin Mal gespannt was uns noch so serviert wird bis zum Release.
 
Laut Gerüchten liegt die 4060 bei 180-250W und wenn dir das zu viel ist, gibt es noch den AD106 und AD107.

Und das ist zum Beispiel eine Sache wo ich mich dann frage ob das so weiter gehen muss.

Meine 1060 hat 120w die 2060 hat 160w und die 3060 170w wieso muss dann die 4060 180-250w verbrauchen?
Das die 3090ti viel Strom verbraucht ist mir höchstens ein Kopfschütteln wert, aber muss auch die 60er immer zulegen was den verbrauch betrifft ?

Wenn ich das mit den CPU's vergleiche, sind die auch mit jeder Generation im verbrauch schlechter geworden ?
Ob ein zen1 oder ein zen2 oder zen3 6Kerner immer 65w tdp.

Zugegeben ich weiß nicht sicher wie es bei Intel aussieht, aber da ich meine immer mal gehört zu haben die haben auch effiziente Prozessoren, denke ich ist da etwa gleich.
 
Und das ist zum Beispiel eine Sache wo ich mich dann frage ob das so weiter gehen muss.

Meine 1060 hat 120w die 2060 hat 160w und die 3060 170w wieso muss dann die 4060 180-250w verbrauchen?
Das die 3090ti viel Strom verbraucht ist mir höchstens ein Kopfschütteln wert, aber muss auch die 60er immer zulegen was den verbrauch betrifft ?

Wenn ich das mit den CPU's vergleiche, sind die auch mit jeder Generation im verbrauch schlechter geworden ?
Ob ein zen1 oder ein zen2 oder zen3 6Kerner immer 65w tdp.

Zugegeben ich weiß nicht sicher wie es bei Intel aussieht, aber da ich meine immer mal gehört zu haben die haben auch effiziente Prozessoren, denke ich ist da etwa gleich.
Die TDPs sind bei Alder Lake gestiegen, und die nächsten Ryzen legen auch drauf.

Es kommen immer ein paar Watt mehr drauf weil mehr Shader verbaut werden. Bei jedem Prozess-Wechsel (Fertigung, 10nm auf 7nm als Beispiel) muss sich der GPU Designer entscheiden (Beispiel): ENTWEDER 30% weniger Stromverbrauch bei gleicher Leistung, ODER 15% mehr Leistung. Nicht beides. Und dann nimmt man da den Mittelweg, packt noch ein paar Shader dazu und schon sind 10W mehr Verbrauch da.
 
ENTWEDER 30% weniger Stromverbrauch bei gleicher Leistung, ODER 15% mehr Leistung. Nicht beides. Und dann nimmt man da den Mittelweg, packt noch ein paar Shader dazu und schon sind 10W mehr Verbrauch da.
Da bin ich ein bisschen verwirrt, wenn entweder 30% weniger Stromverbrauch bei gleicher Leistung oder 15% mehr Leistung (bei gleichem Stromverbrauch oder ? ) möglich sind wäre 10w mehr Stromverbrauch in meinem Auge beim besten willen nicht der Mittelweg.

Die genau Mitte wäre dann doch 15% weniger Stromverbrauch bei 7,5% Mehrleistung oder ?

Und nein das wäre auch nix was ich bevorzugen würde, allerdings würde ich mich für die 15% Mehrleistung bei gleichzeitig einem der Leistung entsprechendem Preis ehr gut aufgehoben fühlen.

Ja viele wollen Mehrleistung wie geht aber für die wäre dann doch die 70er 80er etc.
 
Da bin ich ein bisschen verwirrt, wenn entweder 30% weniger Stromverbrauch bei gleicher Leistung oder 15% mehr Leistung (bei gleichem Stromverbrauch oder ? ) möglich sind wäre 10w mehr Stromverbrauch in meinem Auge beim besten willen nicht der Mittelweg.
Korrekt.

Die genau Mitte wäre dann doch 15% weniger Stromverbrauch bei 7,5% Mehrleistung oder ?

Das würde keiner kaufen. Wenn man mit 15% Mehrleistung bei gleicher TDP ankommt dann sprechen die Leute von "null Fortschritt" etc...
 
Das würde keiner kaufen. Wenn man mit 15% Mehrleistung bei gleicher TDP ankommt dann sprechen die Leute von "null Fortschritt" etc...
Ich weiß nicht ob die Leute die dann von "null Fortschritt" sprechen nicht auch die sind die sowieso nie eine 60er karte kaufen würden.
Aber wie auch immer ich weiß das ich mit meiner Meinung vermutlich in der Minderheit bin und also mit der Verbrauchs-Entwicklung leben muss. :-(

That's life.
 
Ist doch dem Thepunisher240 sein neuer Account :schief:

MfG Föhn.

Jesus, Maria und Josef !
Immer von Spiel zu Spiel denken (ja, 3 € ins Phrasen Schwein).
Ja, Früher mal ! Da hatte NV aber schon auch den ein oder anderen Heizofen/Föhn im Portfolio.
Meinte eher von der aktuellen Gen zur Darauffolgenden ... :ugly:

MfG Föhn.
lass diese unterstellungen hier....
das is verleumdung was du hier betreibst.......
Ich hab's mir schon gedacht. Gibt ja nicht viele die sich so eloquent und höflich ausdrücken wie der nervöse, kleine Puni.

Diese Specs sehen für mich unglaubwürdig aus. Beim Namen des leakers erwarte ich bezüglich AMD Infos aber auch nicht viel. Bin Mal gespannt was uns noch so serviert wird bis zum Release.
ich redet da einen ist zusammen das ist echt unglaublich.....

auch dann gleich lügen zu verbreiten....
aber ja ihr wisst ja natürlich alles...

das ich natürlich dieser puni oder was auch immer bin...

is immer das typische wenn man nicht mehr weiter weiß wir einfach irgendwas behauptet und irgendwelche lügen verbreitet....

was für eine kranke welt....
 
Bei mir wirds entweder ne 4070 oder 7700xt, je nach Preis/Leistung/Raytraycing/Vram.
Meine Schmerzgrenze dafür sind 700 Euro! Mich juckts halt in den Fingern und würde morgen schon gerne kaufen!
2023 kommen so viel geile Games, freu mich schon so!

Bin bisher mit meiner 1070 gut klargekommen. Z.B. CP2077 mit FSR2.0 Mod und high details @ WQHD um die 40 fps!

Hoffe sie liegt im Dezember unterm Weihnachtsbaum!

LG
Also bist Du wegen AMD mit Deiner Nvidia bis jetzt klar gekommen mit CP2077 und das ist die Begründung, oder die Motivation jetzt wieder Nvidia zu kaufen?

Sry, dass kann ich wirklich nicht verstehen, ...
naja eigentlich doch.
Ist halt Mode Nvidia zu haben, auch wenn sie einen als Kunden hängen lassen, weil man nicht die neueste Hardware gekauft hat, mit den angeblich notwendigen vereinfachten Schaltungen -4 Bit FTW- , um neue Features zu sehen (RT , Sound, DLSS)

Ps. bei mir wird's die fetteste AMD-Karte. Ich habe so das Gefühl, als würde ich die eben so lange nutzen können wie meine 7970 anno dazumal. (5 Jahre :D [Ohne RT, sonst natürlich alle 9 Monate neue Karte] ).

Liebe Grüße
Das tun "die anderen" ja auch. NV vergrößert die Caches, Intel wird bei Meteor Lake wohl auch Cache stapeln. Der "kleine" Infinity Cache in RDNA2 ist natürlich eine tolle Sache, leider zu klein für gute Hitrates in höheren Auflösungen. Erst wenn das stapeln günstiger und massentauglicher wird werden wir mehr davon im Consumer Markt zu sehen bekommen.
Der kleine Infinity Cache bei AMD hat eine hervorragende Hitrate.
Der einzige Grund warum Nvidia in höheren Auflösungen näher an AMD rankommt, ist das NVDIA ihre Chips erst dann auslasten kann. In kleinen Auflösungen läuft der Chip hohl. Das weißt Du doch eigentlich auch oder nicht ?
Man kann auch ausrechnen wie viel Leistung bei höhreren Auflösungen verloren geht, Computerbasee und PCGh haben das genau getestet und dem Chip von AMD eine gute Leistung in allen gängigen Auflösungen bescheinigt. Noch mal,
der Eindruck, dass Ampere in hohen Auflösungen prozentual mehr zulegt stimmt, aber es kommt daher, dass Nvidia dort eine Schwäche von Ampere kaschieren kann.

Viele Grüße
 
Zuletzt bearbeitet:
Die ideale gpu für mich wäre die rtx4060 bei gerade mal 2,4ghhz mit 170w
realistisch ist das umsetzbar
Hopper mit 144sm und einer tbp von 350w aber 80gb hbm2 -40w
und einer chipgröße von nur 814mm² wird das ein chip um die 135mm²

Kosten müsste so eine gpu min 309€
Einziger Nachteil wäre 10gb vram und der euro kurs könnte bis dahin Parität sein also sprich 329€ für so eine dgpu
Erwarten tue ich die dgpu um q2 2023 also stramme 2 Jahre nach rtx3060
Als Leistung käme man bei 2,4ghz und 46sm =22,0tf (+141% vs rtx3060)
Das wäre eine zu Starke gpu und würde eigentlich kein Grund als rtx4060 zu bringen sondern als rtx4060ti
Dann aber steigt der preis auf 100€
Sprich 399-429€ als uvp
Diese gpu erwarte ich aber schon q1 2023 also Januar Februar.
nvidia marge könnte sich um 80% steigen statt wie bisher 70%
Das wäre realistisch und würde vs rtx3060ti +70% liegen
Da aber wie beim Gerücht hier 2,7ghz angepeilt sind
Müsste das die rtx4070 werden mit 275w tbp und stolzen 23,8tf was etwa der rtx3080ti entspräche
nvidia könnte da 100% marge aufschlagen für ne uvp von 499€
Und hätte ne sku über für spätere ti modell mit 52sm oder 56sm
Die dann etwa der rtx3090 nahe kommt.

Annahme das ada 96fp32 pro sm rechnen kann die fp64 wieder exklusiv rechnen mit dem Verhältnis 1-48


bei 2,4ghz würde ich die gpu kaufen als rtx4060 bei 329€ das aber ist sehr unwahrscheinlich das es passiert
Eher ist das Szenario der rtx4070 für 499€ mit 12gb vram
Physisch hat der chip 72sm aktiv sind 60 56 52 oder 46
Das wird aber erst bei der auslese im okt/nov festgelegt.
geplant waren 46sm

Derweil ist der ad102 mit 116 oder 128sm fertig spezifiziert
Welche sku das werden ist offen
ich gehe von ner titan und einer rtx4090ti aus.
mit 116sm 550w tbp und etwa 2399€ uvp als rtx4090ti etwa 2,5ghz =55,9tf
Und genau das wird im aug sept vorgestellt.

Der ad103 sprich rtx4080 sehe ich nicht vor dez 2022 die auslese des chips läuft noch und wird im aug soweit sein unklar welche sm menge es wird es sind 70 76 80 und 84sm im Gespräch abhängig wie gut die defekten chips sind
ich gehe von 76sm aus bei 2,7ghz Takt = 39,4tf oder +83% vs rtx3080
preis um die 999€
Ich nehme viel an, da ich neue infos bekommen habe.

Teils gestützt von TPU Tabelle von hopper den nvidia wird kaum die Fertigung verbessert haben.
Welche chip welche sku wird ist völlig offen aber 3,0ghz sind ausgeschlossen.
Hopper hat 814mm² 144sm 350w tbp mit 80gb vram sprich 40w
Die board Effizienz nehme ich nicht raus aber etwa 10% für die sm Deaktivierung
und das ist die optimistische Einschätzung für den verbrauch von ada
gddr6x nehme ich 1,5w pro 2gb Modul an bei 12 =24w bei 8 16w
gddr6 nehme ich 1,1w an
Nvidia wird sicherlich kein 1gb module bei rtx4060 und 70 nehmen
Unklar ob es schon gddr6x 21gbits als 2gb module gibt.
preis pro gddr6 bis 18gbits 6$
gddr6x 21gbits ab 8$

Die preise für geddr6(x) sind stark gefallen von ehemals 1gb gddr6 16gbits 10$ auf nur noch 4$ (eol derzeit)
2gb module sind bei 6-9$ je nach Takt
gddr7 steht vor der Türe und wird sicherlich als refresh 2023/24 kommen
blackwell könnte sich verzögern bis 2025

aber alles hängt vom markt ab derzeit ist dieser überfüllt mit dgpu gebraucht und neu
nvidia hat keine andere Wahl als ada offiziell erst q1 2023 zu bringen geplant war q3 2022
paperlaunch der titan und rtx4090ti sehe ich aber im sept bis dez 2022
Dafür sprechen auch einige leaks
In Asien wird derzeit alles was mining hardware angeht verschleudert rtx3090 für 500€ aber als bulk in 100er packs
10er packs bei 700€ pro stück
Das wird sich irgendwann im sept oder okt in ebay zeigen ich gehe von 900€ aus
natürlich als gebr deklariert ohne Erwähnung fürs mining genutzt worden zu sein.
darum wird der preis irgendwann q1 2023 nochmal um 400€ sinken auf 500€ pro sku
Wenn die rtx 4070 mit derselben Leistung bei 499€ neu gibt


Das wäre meine Prognose
Für mich interessant wäre die rtx4060ti mit 46sm und nur 2,4ghz bei 170w 429€ wenn es blöd läuft

ich tendiere aber bei Nachfolger mit nochmal um 25% gesenkten verbrauch oder 12% mehr Takt
Ein 12v 16pin mit 150w Begrenzung q1 2025

Das wird ein vergleich gpu von 2013 bis 2025
gtx760 sofern noch funktionsfähig
gtx1060 6gb
rtx3060 (dxr im speziellen)
rtx5060 (gegen dxr zum Vorgänger)
Spiele von 2005 bis 2024 insgesamt 100 4stk pro Jahr
Cpu vergleich ci7 5820k vs r7 3800xt vs r7 5800x3d vs r7 7800x3d (optional wenn bis dahin verfügbar und bezahlbar vs 5800x3d)
16gb 32gb und 32gb
Das wird aber dauern nächstes upgrade gpu unklar ob rtx4060ti oder rtx5060
ich mach es von der tbp abhängig.
mehr als 170w keine chance
Derzeit ga106 etwa 170w bei 1,85ghz etwa 9115gflops wenn ausgelastet
Partiell mit dem r7 3800xt im cpu limit oft zwischen 90-95%
Eventuell Wechsel auf 1440p mit rtx4060ti/5060 und 10bit mit gsync sofern endlich das gefixt wurde bisher geht gsync nur mit 8bit
ideal va panel

Das wären meine Pläne
Anforderungen die kommen werden

ssm wird zur Pflicht egal ob os drauf oder nicht
auch ein nächstes upgrade aber das wird Thema wenn erste ue5 spiele kommen was ich etwa q1 2023 erwarte

heiß erwartet
stalker 2
atomic heart
unklar ob ue5
scorn
tes 6
witchfire
beyound good and evil 2
alan wake 2

Das sind die releases bis q4 2023 Überraschungen nicht angenommen bsp control 2 völlig offen welche engine das wird.
Als Rennspiel erwarte ich endlich das wrc legends dxr bekommt.
Forza wird es definitiv erst bei horizon 6 haben was ich erst 2024 erwarte

Derzeit beendet
Sniper Elite 5 war nett
Benchszene ist am Anfang auf dem uboot etwa 78fps da das game kaum langsamer wird in späteren levels ist das ausreichend im schnitt schätze ich 70fps bei maxed settings auf 1080p ohne upscaler und msaa

meine gtx1060 müsste bei etwa 42fps sein Tendenz zu 35fps
War wirklich zeit fürn Wechsel 2021

Wie sind eure Pläne ich nehme alles in 1080p an, da ein monitor Wechsel mich zum gpu Wechsel zwingt.
 
Du willst also sagen, dass die Gsync Ultimate Riege auf einmal kein HDR mehr kann, weil nur noch 8bit anliegen.
Oder redest vom Gsync v1 Modul?
Gsync compatible kannst du ja nicht meinen.

3.2 Open Issues in Version 516.59 WHQL
As with every released driver, version 516.59 WHQL of the Release 515 driver has open issues and
enhancement requests associated with it. This section includes lists of issues that are either not
fixed or not implemented in this version. Some problems listed may not have been thoroughly
investigated and, in fact, may not be NVIDIA issues. Others may have workaround solutions.
Note: You may encounter issues installing the NVIDIA Control Panel from the Windows Store.
See Issues Installing the NVIDIA Control Panel from the Windows Store for more information.
For notebook computers, issues can be system-specific and may not be seen on your particular
notebook.
 [NVIDIA Ampere GPU]: With the GPU connected to an HDMI 2.1 audio/video receiver, audio
may drop out when playing back Dolby Atmos. [3345965]
 [RTX 30 series] PC monitor may not wake from display sleep when GPU is also connected to an HDMI 2.1 TV, and the TV is powered off. [3645633]  Toggling HDR on and off in-game causes game stability issues when non-native resolution is used. [3624030]  Videos played back in Microsoft Edge may appear green if NVIDIA Image Scaling is enabled upon resuming from hibernate or booting with fastboot. [3624218]  [DirectX 12] Shadowplay recordings may appear over exposed when Use HDR is enabled from the Windows display settings. [200742937]  Monitor may briefly flicker on waking from display sleep if DSR/DLDSR is enabled. [3592260]  [Jurassic World Evolution 2][Microsoft Store] Artifacts may appear in game. [3682201]  [Prepar3D] Light sources display flashing black boxes. [3684206]  [MSI GE66 Raider 10UG/MSI GE76 Raider 10UH] Windows brightness setting does not work when notebook is in dedicated GPU mode. [3693207] [3693211]  [Destiny 2] Game may randomly freeze after launching game or during gameplay. [3685638]
Wo steht das da jetzt?
 
Wir gamer retten die Welt eh nicht! Gaming ist ein Hobby und Hobby kostet eben! Fängt schon an beim Bau des pc.... Teuer.... Strom... Teuer. Genauso wenn ich Auto enthusiast bin. Porsche fahren kostet auch geld. Na und? In der Welt läuft so viel schief. Da macht ihr euch Gedanken über 200 Watt mehr im pc? Nachhaltigkeit existiert seit 20 Jahren nur noch auf dem Papier. Die FFF Generation hat gut reden. Null Ahnung aber Hauptsache die Umwelt schützen wollen. Verbrennen Verbot 35 ist ein weiteres Beispiel für Aktionismus. Resultat Benzin wird immer teurer. Leute werden gezwungen neue Autos anzuschaffen obwohl die alten noch 10 Jahre laufen würden. Innovationen zum e-fuel werden ad akta gelegt. Woher soll der ganze Strom kommen? Wenn alle ihre Akku Autos laden und gleichzeitig ihr Heim mit der Wärmepumpen mit Strom bedienen müssen. Prof. Lesch hat mal gesagt wenn auch nur ein kleinerer Teil der Bevölkerung e-Autos hat müsste man ca. Die 10 fache strom Produktion bereithalten!! (nicht verbrauchen) damit im Falle des vermehrten gleichzeitigen Ladens das Stromnetz nicht zusammen bricht. Die Zukunft sieht für mich deswegen schwarz aus....
 
Zurück