News Geforce RTX 4060 Ti mit 16 GiB: AD106 mit 165 Watt und doppeltem Speicher

Nein. Warum? Wäre die 7800XT schneller wäre die 7900XT Obsolet. Logik.

Bei mir Spinnt die Seite irgendwie. Habe erst jetzt bemerkt das Rx480 das gestern geschrieben hat :D und jicht gerade eben.
1. Dann dürfen wir doch nicht drüber disskutieren ;) (Nicht ernst gemeint)
2. Ich würde die RT Leistung mit rein ziehen und dann ist eine 7800XT mit 16GB und mit 80-85% der Leistung einer 7900XT denkbar.

tgerade nachgeschaut.
Die 7900XT ist im Raster Mittel 16 % vor der 6950XT und 32% vor der 6800XT. Wenn jetzt die 7800XT 10% vor der 6800XT landet, wäre die 7900XT noch rund 20% davor.

Mit RT sind es zu gunsten der 7900XT 30% zur 6950XT und 49% zur 6800XT.

Denke da ist schon Luft für die 7800XT
 
Was meinst du genau?
Die Treiber, die hälfte der Sachen funktionieren zb gar nicht.. oder nicht richtig.

wärend ich zb bei Nvidia in jedem Spiel 16x Anisotrope filterung erzwingen kann.. funktioniert das bei AMD nur bei DX9! spielen.
Auch kann man den Shadercache einstellen.. An ..aus.. zugeteilte größe
der AMD treiber kennt sowas gar nicht.
meine erfahrung mit der 6800xt, der treiber funktioniert nur solange wie man alles auf Standart lässt.. sobald man auch nur n zero fan modus ausschaltet spackt es rum und resettet sich dauernt

Ist das wirklich so ein großer Unterschied der ins Gewicht fällt.
Mehr Stromverbrauch = mehr abwärme.. lautere lüfter
klar kann man darauf scheißen.. aber man sollte sich zumindest mal gedanken drüber gemacht haben
Das Idle Thema habe ich bewusst raus gelassen, da ich finde, das man das umgehen kann, wenn man möchte.
wie willst du denn den Idle verbrauch Reduzieren? nur 1 Monitor mit 60hz dran klemmen.. das hat den geringsten idle verbrauch.. kann man machen.. ist halt nur kacke

Featureset? DLSS3, Da es sich dabei noch um ein optisch Fragwürdiges Feature handelt würde ich das noch nicht so zum Totschlagen nehmen, auch die weiteren Unterschiede zwischen DLSS und FSR finde ich, naja relativ... Beides ok, wenn man möchte.
Also Optisch ist da gar nix mehr fragwürdig.. ausser du bist im bereich unter 50fps mit FG.. dann siehst du artefakte..
ansonsten ist das eine geniale technik das Bild bedeutend Flüssiger und den Frameverlauf wesentlich glatter zu machen.
Es ist ein Echter Gamechanger und bis dato in jedem Spiel was ich damit gespielt habe ein Segen um ein High Refresh Display anzusteuern.

daneben gibt es dann noch DLAA.. KI gestütztes Anti aliasing auf Nativer Auflösung.. AMD besitzt sowas nichtmals..


Warum zweite Wahl, habe Vergleichsbilder gesehen, über viele Spiele, die mal mit DLSS, mal mit FSR besser aussahen.
und genau da irrst du dich. der allgemeine tonus der Presse und der Tester ist durchgehend das FSR nicht mithalten kann.

zb hat Hardware unboxed einen Großen vergleich gemacht..
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
FSR hat es nicht ein einziges mal geschafft DLSS zu schlagen.. im Besten falle zieht FSR grade so gleich.. im normal Fall entspricht sogar DLSS Ausgeglichen/Medium der FSR einstellung auf Quality.

Sprich wir vergleichen bei ähnlicher Renderauflösung/FPS schon gar nicht mehr die gleiche Bildqualtität
Das kenne ich nicht, weswegen ich dazu nichts sagen kann. Aber selbst die 400nits wären deutlich besser als mein Monitor ;)
Ein Vernünftiger HDR Monitor mit entweder genügend Dimmingzonen (512+) oder OLED kann bedeutend mehr zur Bildqualität und Spielathmospäre beitragen als zb Raytracing
kann man schlecht erklären.. muss man gesehen haben.
Und wenn man 700+.. (bei Oled sogar ca 1200€+) in so ein Gerät investiert dann will man auch das es vernünftig funktioniert und das Tonemapping wiedergibt.. was mit AMD zur Zeit einfach nicht gegeben ist
 
Das Problem sind die varianzen in manchen Spielen kann sich die 7900 kaum von der 6900 absetzen, auch empfinde ich die Kolpotierten 285 Watt als viel zu viel. Wir werden sehen. Soll mich aber nicht weiter stören ich habe meine Gpu bereits. :D
 
Die Treiber, die hälfte der Sachen funktionieren zb gar nicht.. oder nicht richtig.
Ist das so, welche sachen brauchst du denn wofür? Wofür den Cache einstellen?
wärend ich zb bei Nvidia in jedem Spiel 16x Anisotrope filterung erzwingen kann.. funktioniert das bei AMD nur bei DX9! spielen.
Welches Spiel bringt den keine eigene Option AF16x zu nutzen?
Auch kann man den Shadercache einstellen.. An ..aus.. zugeteilte größe
der AMD treiber kennt sowas gar nicht.
Wozu?
meine erfahrung mit der 6800xt, der treiber funktioniert nur solange wie man alles auf Standart lässt.. sobald man auch nur n zero fan modus ausschaltet spackt es rum und resettet sich dauernt
Das wäre wirklich dämlich!
Mehr Stromverbrauch = mehr abwärme.. lautere lüfter
Ok, wo die Karten alle schon leise und kühl sind...
klar kann man darauf scheißen.. aber man sollte sich zumindest mal gedanken drüber gemacht haben
habe ich, sehe da bei bis zu 450W kein Problem mehr, sofern der Airflow stimmt und man bei Kauf die richtige Karte kauft, das geht aber unabhängig vom GPU Modell.
wie willst du denn den Idle verbrauch Reduzieren? nur 1 Monitor mit 60hz dran klemmen.. das hat den geringsten idle verbrauch.. kann man machen.. ist halt nur kacke
Ich persönlich bräuchte das nicht reduzieren, da mein Rechner endlich wieder nur zum Zocken ist. Da ist dann Idle quasi fast vernachlässigbar. Selbst wenn ich da wollte, würde ich wenn ich einen 144Hz Monitor betreibe zum Beispiel einfach eine erweiterte Anzeigeeinstellung vornehmen mit "nur" 98Hz. Da ist der Verbrauch im erwartbaren und damit konkurrenzfähig.

Weiter kann mein Monitor nur bis 85Hz, problem erledigt ;)

Was ist mit dem Afterburner, kann man da etwas gegen das hochtakten des Speichers tun? Vielleicht kann ich das ja selber bald mal probieren.
Also Optisch ist da gar nix mehr fragwürdig.. ausser du bist im bereich unter 50fps mit FG.. dann siehst du artefakte..
Ist das wirklich nur unter 50Fps? Läuft Cyberpunk mit Pathtracing in solchen Größenordnungen?
ansonsten ist das eine geniale technik das Bild bedeutend Flüssiger und den Frameverlauf wesentlich glatter zu machen.
Wenn der Algorithmus richtig liegt.
Es ist ein Echter Gamechanger und bis dato in jedem Spiel was ich damit gespielt habe ein Segen um ein High Refresh Display anzusteuern.
Ok, für genau dieses Zeihl kann ich mir gut vorstellen das es wirklich stark hilft. Ichh habe da keien Eile mit. Die rohe Rasterleistung ist imho wichtiger für mich und so etwas wie FG nur nette Zugabe.
daneben gibt es dann noch DLAA.. KI gestütztes Anti aliasing auf Nativer Auflösung.. AMD besitzt sowas nichtmals..



und genau da irrst du dich. der allgemeine tonus der Presse und der Tester ist durchgehend das FSR nicht mithalten kann.
Fand ich im selbsttest nicht so, aber kann sein, das sich das in 2023 zugunsten von DLSS verändert hat.
zb hat Hardware unboxed einen Großen vergleich gemacht..
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
FSR hat es nicht ein einziges mal geschafft DLSS zu schlagen.. im Besten falle zieht FSR grade so gleich.. im normal Fall entspricht sogar DLSS Ausgeglichen/Medium der FSR einstellung auf Quality.

Sprich wir vergleichen bei ähnlicher Renderauflösung/FPS schon gar nicht mehr die gleiche Bildqualtität
Wie zuvor schon gesagt.
Ein Vernünftiger HDR Monitor mit entweder genügend Dimmingzonen (512+) oder OLED kann bedeutend mehr zur Bildqualität und Spielathmospäre beitragen als zb Raytracing
kann man schlecht erklären.. muss man gesehen haben.
Und wenn man 700+.. (bei Oled sogar ca 1200€+) in so ein Gerät investiert dann will man auch das es vernünftig funktioniert und das Tonemapping wiedergibt.. was mit AMD zur Zeit einfach nicht gegeben ist
Mein TV hat HDR und ja, das sieht man deutlich. Aber auch RT sieht man (mMn) deutlich und der Realitätsgewinn einer Szene kann sehr groß sein.

Am PC ist mir das noch nicht so wichtig... Monitore kaufe ich selten, bzw. nicht so teuer... Dann eher wieder eine VR Brille.
 
Das ist doch Peinlich, das ist kein Generationssprung das ist höchstens ein Refresh trotz RDNA 3? Da mus was gewaltig schief gelaufen sein. 10%? So wenig Uplift gab es noch nie bein einem Generationsswechsel.
Die Chipletgröße ist ca. 50% kleiner als bei der 6900.
Wenn mans genauer anschaut ist GCD sogar nur 200mm² vs 540-XXX= ca. 400mm² bei der 6900.
Das wäre dann sogar ungefähr halbiert! (also macht die 7800xt vermutlich, was sie soll)

Manche haben z.T. übertriebene Erwartungen.
TSMC kann entweder nur mehr Packdichte oder mehr Takt je nach verfeinertem Prozess.
(wenn AMD die Variante Packdichte genommen hat, passt die Größe)
 
Zuletzt bearbeitet:
Welches Spiel bringt den keine eigene Option AF16x zu nutzen?
die ingame AF16x funktionen sind teilweise sehr Stark Optimiert und werden bei weitem nicht auf alle Texturen angewand.
ein Spiel kann unheimlich an Schärfe und Detailgrad dazu gewinnen indem man im Treiber für alle texturen AF16x forciert

manche Spiele funktionieren besser ohne Shadercache.. manche besser mit (ist auch n bischen system abhängig)... es ist schön wenn man die Shader Cachen kann.. bei AMD ist das limit auf 256mb.. danach werden alte daten überschrieben.. kann dir jetzt passieren das du Spiel B spielst.. und damit die Shadercache Daten von Spiel A gelöscht werden weil sie sonst nicht in das Limit Passen.

per Default ist der Shadercache auf AMD Karten entweder ausgeschaltet.. oder auf "AMD Optimiert" gestellt.. was in vielen Spielen ebenfalls "AUS" bedeutet.
um es in allen Spielen zu erzwingen (was durchaus einiges bringt gegen Ruckler und Frametimeprobleme) musst du schon mit Regedit dran gehen um den Shadercache global zu Forcieren.
die funktion war mal im Treiber.. AMD hat es für besser gehalten wenn die User keine eigene kontrolle darüber haben.

Ist das wirklich nur unter 50Fps? Läuft Cyberpunk mit Pathtracing in solchen Größenordnungen?
das kann ich dir nicht sagen.. ich hab das Spiel nicht..
aber für Framegeneration ist die empfehlung mindestens 40-50fps nativ zu erreichen. je mehr desto besser funktioniert es.
es ist auch für mich eher eine Technik um einen High Refresh Rate Monitor auszulasten und alles flüssiger darzustellen als wie auf teufel komm raus ein Spiel auf 60fps spielbar zu bekommen..

allerdings empfindet jeder "spielbar" anders.. für mich ist alles unter 60fps mittlerweile unspielbar weil ruckelig..
mach ich aber aus 45-50fps auf einmal 90-100 sieht die welt schon wieder anders aus
Aber auch RT sieht man (mMn) deutlich und der Realitätsgewinn einer Szene kann sehr groß sein.
Und da bin ich anderer Meinung..
ja es gibt einige Spiele die sehen Großartig mit Raytracing aus. Wenn man dementsprechend den Performance Verlust in kauf nimmt

ABER diese Spiele kannst du an einer Hand abzählen..

bei 95% der Spiele die Raytracing bieten sieht man auf den ersten blick kaum einen unterschied.. da es im besten fall nur "leicht anders.. aber nicht besser" aussieht.. vorallem nicht in Relation zu den Performance Kosten.

Auch ich sitz hier vor einen Witcher3 und schalt RTX ON/OFF um zu sehen was es für einen unterschied macht. und obwohl manche effekte "nett " sind.. ist es für mich optisch kein Grund durchgehend RTX angeschaltet zu lassen.
 
Zuerst einmal danke für das ausführliche Antworten.
die ingame AF16x funktionen sind teilweise sehr Stark Optimiert und werden bei weitem nicht auf alle Texturen angewand.
ein Spiel kann unheimlich an Schärfe und Detailgrad dazu gewinnen indem man im Treiber für alle texturen AF16x forciert
Mir persönlich bisher noch nicht unter gekommen, oder ich habe das halt abgestempelt, unter das Spiel ist nicht hübscher ;) (spekulativ)
manche Spiele funktionieren besser ohne Shadercache.. manche besser mit (ist auch n bischen system abhängig)... es ist schön wenn man die Shader Cachen kann.. bei AMD ist das limit auf 256mb.. danach werden alte daten überschrieben.. kann dir jetzt passieren das du Spiel B spielst.. und damit die Shadercache Daten von Spiel A gelöscht werden weil sie sonst nicht in das Limit Passen.
Noch nie gebraucht, hatte auch noch nie fortlaufende Ruckler, die ich nicht ohne verhindern konnte.
per Default ist der Shadercache auf AMD Karten entweder ausgeschaltet.. oder auf "AMD Optimiert" gestellt.. was in vielen Spielen ebenfalls "AUS" bedeutet.
um es in allen Spielen zu erzwingen (was durchaus einiges bringt gegen Ruckler und Frametimeprobleme) musst du schon mit Regedit dran gehen um den Shadercache global zu Forcieren.
die funktion war mal im Treiber.. AMD hat es für besser gehalten wenn die User keine eigene kontrolle darüber haben.
Halte ich persönlich auch für zielführender wenn der User das nicht verändert, wobei die option zu haben nett sein kann.
das kann ich dir nicht sagen.. ich hab das Spiel nicht..
aber für Framegeneration ist die empfehlung mindestens 40-50fps nativ zu erreichen. je mehr desto besser funktioniert es.
es ist auch für mich eher eine Technik um einen High Refresh Rate Monitor auszulasten und alles flüssiger darzustellen als wie auf teufel komm raus ein Spiel auf 60fps spielbar zu bekommen..

allerdings empfindet jeder "spielbar" anders.. für mich ist alles unter 60fps mittlerweile unspielbar weil ruckelig..
mach ich aber aus 45-50fps auf einmal 90-100 sieht die welt schon wieder anders aus
Ist bei mir mittlerweile genau so, eigentlich sogar unter 70-60Fps werden Spiele einfach zäh und sehen auch nicht mehr flüssig aus. bin aber zum Glück mit 75-85 glücklich ;)

Und da bin ich anderer Meinung..
ja es gibt einige Spiele die sehen Großartig mit Raytracing aus. Wenn man dementsprechend den Performance Verlust in kauf nimmt
ABER diese Spiele kannst du an einer Hand abzählen..

bei 95% der Spiele die Raytracing bieten sieht man auf den ersten blick kaum einen unterschied.. da es im besten fall nur "leicht anders.. aber nicht besser" aussieht.. vorallem nicht in Relation zu den Performance Kosten.
Es geht mir nicht um besser aussehen, aber realistischer... Das es einige negative Beispiel für RT gibt, weiß ich auch, gerade zu Anfang.

Wie viele Spiele unterstützen denn FrameGeneration?
Auch ich sitz hier vor einen Witcher3 und schalt RTX ON/OFF um zu sehen was es für einen unterschied macht. und obwohl manche effekte "nett " sind.. ist es für mich optisch kein Grund durchgehend RTX angeschaltet zu lassen.
Halt je nach Spiel, da bin ich bei.
 
Die Chipletgröße ist ca. 50% kleiner als bei der 6900.
Wenn mans genauer anschaut ist GCD sogar nur 200mm² vs 540-XXX= ca. 400mm² bei der 6900.
Das wäre dann sogar ungefähr halbiert! (also macht die 7800xt vermutlich, was sie soll)

Manche haben z.T. übertriebene Erwartungen.
TSMC kann entweder nur mehr Packdichte oder mehr Takt je nach verfeinertem Prozess.
(wenn AMD die Variante Packdichte genommen hat, passt die Größe)
Was interessiert das den Kunden frage ich dich? Was der Kunde sieht ist das AMD bei einem Generationssprung 15 Watt sparen kann und 10% schneller ist. :ka: Das ist einfach übel. 30% kann man bei jeder Karte wenisgtens erwarten und das ist schon eher wenig.

Sie haben sich ein eigenes Problem geschaufelt weil die 7900XT die eigentliche 7800XT ist ;).
 
Ist bei mir mittlerweile genau so, eigentlich sogar unter 70-60Fps werden Spiele einfach zäh und sehen auch nicht mehr flüssig aus. bin aber zum Glück mit 75-85 glücklich ;)


Wie hast du das denn geschafft, das es passt?

Bei meinen besten Kumpel der ja ein 60 Hz full hd Bildschirm hat habe ich die fps auf 75 fps festgelegt gehabt. Ist das Spiel etwa erst ab 85 fps flüssig?
Also die games die wir so zocken haben alle genügend fps. Habe ich aber bei allen zwecks Strom sparen und so auf 75 fps limitiert gehabt. Da ist sogar ein game dabei wie counter strike source wo mal auf einmal mitten beim zocken das game kurz einfriert. Dann geht das zocken wieder. Anfangs ist es noch flüssig aber mitten drin dann nicht mehr. Ich starte den Server und bei mir ist nur Mini einfrierer also nicht so auffällig zu bemerken. Ich habe meinen 60 Hz auf 120 fps limitiert. Wir zocken per LAN. Er hat Windows 7 und ich Windows 10 als Benutzung. Das game ist das selbe. Was kann ich machen damit es bei ihm auch möglichst nicht das Game einfriert?

Ich habe den sockel 2011-v3 und er einen ryzen Zen 2 als System. Nvidia haben wir beide. Also ich frage mich echt an was das liegt. Das merkwürdige ist das es bei ihm das einzige game ist wo sich so verhält. Serious Sam 4 ruckelte aber als ich auf 85 fps limitiert hatte noch ganz schön. Bei unlimtiett ist es so unerträglich das ist es zum davonlaufen. Die fps schwanken wie das Wetter oder die Aktien auf und ab. Nur mit Begrenzung der fps war es glatt gewesen. Nun ist aber me rtx 3050 nicht so schwach das es garnix mehr bei full hd packen könnte. Danke falls du mal einen Tipps hat bei gpu, die brauche ich sehr. Gpu wird doch nicht kaputt gehen weil ist ja noch neu.
 
Was soll man dazu sagen? Meckern bringt wohl doch etwas? ;)

Naja, aber wie ich NVidia kenne, werden sie sich das fürstlich bezahlen lassen. :-/
 
Damit ist die 8-GB-Version eine Totgeburt und die 70er-Käufer fühlen sich verarscht. Also quasi wie letzte Generation.

Fühle mich als 70er Käufer nicht verarscht. Die 4060Ti 8GB soll ja schon 449 Dollar kosten, also bei uns mindestens 500 Euro. Damit dürfte die 16GB Version bei mindestens 550 Euro, eher sogar mehr liegen. Habe für meine 4070 als MSI 3-Lüfter Modell 650 gezahlt, habe damit aber auch gut und gerne 30-35% mehr Leistung als mit einer 4060Ti. Das bringt mir deutlich mehr als 4GB mehr Speicher, die 12 GB der 4070 werden für WQHD so schnell kein Problem sein.

Allgemein denke ich wird die 4060Ti für WQHD nicht genug Leistung bringen, es sei denn man hat eher nicht so hohe Ansprüche. Es ist also eher eine gute Full HD Karte.
 
Zuletzt bearbeitet:
Hey hey,

habt ihr das Video: "PCGH-News: Abwrack-GPU: Alt gegen Neu, RTX 4060 Ti 16 GiB, RTX 4070 AD103, CPU-Effizienz Index" gesehen?

in der Tabelle mit den Chip und Speicher ist mir aufgefallen das die 4070 Ti doch nur 12 GB Speicher hat und die "zukünftige" 4060 Ti dann 16 GB!
In wie weit spielt der Chip da da eine Rolle, ich mein es kann doch nicht sein, das man sich "jetzt" eine 4070 Ti (mit 12 GB) holt und dann viel weniger speicher hat?!
Oder holt die 4070 Ti das über die "GPU-Spezifaktionen" wieder raus?
 
Nächste Woche ist erst die computex und in dieser Woche wird amd rx7600 mit 8gb und nvidia rtx4060ti mit 8gb veröffentlichen ohne Ankündigung.
Zur computex erwarte ich ansagen zur rtx4060ti 16gb und rx7600xt mit 16gb
Der Großteil der rede von jenson wird Ai sein
Amd eher Ankündigung von rx7600 bis rx7800
Kann sein das amd das komplette lineup verschiebt und nur die rx7600xt präsentiert.
Dann wird es so kommen das amd zur gamescom die rx8000 Serie ankündigt.
Das wird ein kompletter refresh der Serie in n4 mit gefixten mcd und den eigentlichen Takt für n31 n32 was so 3,2-3,6ghz ist.
nvidia hingegen wird darauf reagieren darum die Panikattakke mit den 16gb Modellen.
vram ist billig aktuell es spricht nix gegen sku mit 16 24 32 48gb von low end bis high end bei amd und nvidia
Der Grund warum das nvidia nicht tut liegt am studio driver der es ermöglicht damit creative zu arbeiten mit consumer gpu.
Da erwarte ich eben das es keine refresh von der rtx4090 gibt sondern ne rtx titan a mit 48gb und nen 5000$ preis.
Und dann alle anderen sku so aufgeteilt
rtx4050 12gb ad107 96bit 280$
rtx4060 16gb ad107 20gbps 128bit 350$
rtx4060ti 16gb ad106 22gbps 128bit 430$
rtx4070 super 16gb ad103 22gbps 256bit 650$
rtx titan a 48gb 20gbps 384bit 5000$
 
Hey hey,

habt ihr das Video: "PCGH-News: Abwrack-GPU: Alt gegen Neu, RTX 4060 Ti 16 GiB, RTX 4070 AD103, CPU-Effizienz Index" gesehen?

in der Tabelle mit den Chip und Speicher ist mir aufgefallen das die 4070 Ti doch nur 12 GB Speicher hat und die "zukünftige" 4060 Ti dann 16 GB!
In wie weit spielt der Chip da da eine Rolle, ich mein es kann doch nicht sein, das man sich "jetzt" eine 4070 Ti (mit 12 GB) holt und dann viel weniger speicher hat?!
Oder holt die 4070 Ti das über die "GPU-Spezifaktionen" wieder raus?
Das ist ne Frage vom Speicherinterface

Bei der 4070/TI ist das Speicherinterface 192bit.. was dafür sorgt das nur 6gb/12gb oder 24gb geht (wobei es glaube ich keine 4gb Speicherchips gibt)

Die 4060/ti hat ein 128bit Speicherinterface
Was 8gb oder 16gb ermöglicht.

Die 16gb der rtx 4060/ti sind Langsamer angebunden als die 12gb der 4070/ti
 
ok welchen Power Limit wird denn die rtx 4050 haben? Weil ich will ja bei den 75 Watt GPUs bleiben.Der 4060 ti hat ja 165 watt wie hier ja angegeben.Der 4060 wird dann bei 135 Watt oder sind es 115 Watt landen.Der 4050 ti,sofern er denn so am Pc und nicht nur auf dem Laptop sein platz haben wird,wird dann so 95 Watt haben.Und der 4050 so bei 85 Watt.Allerding ich will ja 75 Watt GPU und nicht mehr.Oder wie wird dann so die Platzierung sein?

Der 4050 wird dann auf rtx 3060 Level sein.Was auch schon nen gewisses Plus gegenüber der 3050 so ist.Aber wieviel das weis ja noch keiner.
 
Was interessiert das ...
Deine Antwort zeigt nur, das Du wenig Verständnis von Hardware hast.
(AMD spart in dieser Gen Chipfläche bei den GCD´s = Kosten)

btw.
Die Kunden interessiert dann nur der Preis, falls man Hardwarefacts ignoriert und dann ist ne 7900xt gar net so übel
vs ner 4070Ti.

7800xt vs 4070 wird bestimmt ähnlich preislich
dito
7700xt oder 7800nonXT vs 4060Ti

Die mündigen Kunden haben dann die freie Wahl beim ähnlichen Preispunkt, obs etwas mehr Raster- oder RT
sein darf. (i.d.R. wird wohl AMD auch mehr Vram mitgeben, ... mal schauen Was der Sonderfall 4060Ti-16GB
dann extra kosten soll)
 
Zuletzt bearbeitet:
Zurück