'na grad' deswegen ja.Die 6000 wurde niemals offiziell gelaunched
'na grad' deswegen ja.Die 6000 wurde niemals offiziell gelaunched
Ja genau, im Grunde haben sich User von gsync oder freesync schon vor der Ankündigung der neuen Karten entschieden. Sofern sie nicht im selben Zug den Monitor tauschen oder auf die sync verzichten wollen oder es egal ist. Es könnte so einfach sein...
Wir reden hier von evt. 10 Watt, zudem den VirtualLink nicht vergessen.Die Vermutung, er könnte geleakte Endwerte nur grob mit irgendwelchen von ihm hingehauchten Zahlenspielen hinterlegt haben, könnte hinkommen. Bei einem Artikel, der letztlich die Effizient zweier Arcs thematisiert, trotzdem verfehlt. Da interessiert das Drumherum nur noch am Rande. Sieht man ja auch hier, dass dann Schlüsse gezogen werden, die die Kenntnislage gar nicht hergibt.
Achso, und weil die Industrie, die Werbung oder andere Forenuser das so wollen soll ich gefälligst meine Spielgewohnheiten anpassen um etwas "modernes" zu spielen?Wenn du 50 Spiele hast und nur eines davon solche Features Unterstützt, dann spielst du nichts halbwegs modernes.
Controll release gab es kein DLSS 2.0 und das Spiel stürzte oft ab mit RT. Release konntest RT vergessen den da hattest ständig Frame spikes.
Das ist also überhaupt nicht vergleichbar wann du das gespielt hast, der Technische Zustand kannst dir mal in Steam anschauen wie toll das lief,
eben gar nicht gut Spielbar.
Dann vergleichst du High-End GPUs wie eine 3080 die wahrscheinlich 100% schneller ist wie die XSX. Das macht doch gar keinen Sinn
es kommt ja noch die ganze Bandbreite und ob die XSX sich überhaupt gegen einen Budget PC mit 3060 gut schlagen wird darf bezweifelt werden.
In welchen Game sollen 8Gb bei 1440p nicht reichen? Moderene Engines ja machen aber auch noch was ganz anderes,
sie benutzen Vram einfach weil er da ist. Die Beispiele die du nennst wo Texturen nicht geladen werden gibt es auf der 970 in 1440p
Ultra wo sie gar keine guten Fps Werte mehr hat. Übrigens das verhalten kannst gerade bei den Konsolen bewundern bei COD Demo.
Das Problem ist, das der verbrauch immer und immer höher geht. Jetzt sind schon 220 Watt in der Mittelklasse normal und das ist das Problem. in der Nächsten Generation haben wir Onboard Gpu`s mit 150 Watt. So ein Weg sollte nicht wirklich sein.Deswegen gibt es ja auch schwächere Karten, die dann weniger verbrauchen.
So genau ist da jetzt das Problem?
Was ist daran ein Problem?Jetzt sind schon 220 Watt in der Mittelklasse normal und das ist das Problem.
Und wo ist da das Problem?in der Nächsten Generation haben wir Onboard Gpu`s mit 150 Watt.
Genau, nur keine Wahrfreiheit!So ein Weg sollte nicht wirklich sein.
Ich würde mir ja den Arsch ablachen, wenn die 255 Watt doch stimmen und reichen um die 3090 minimal zu schlagen! Wenn die XSX GPU schon stark ist, was macht dann Big Navi? und falls das doch stimmt mit den 76% perf/ watt dann ist auch mit 350 Watt+ für die 3090 nicht zu gewinnen! AMD braucht ca. 30 % weniger Transistoren um in die gleichen Leistungsregionen vorzustoßen sag ich jetzt mal! Die reduzierte Komplexität der Schaltungen / Gatter trägt wohl viel dazu bei so effizient zu sein!Leistung und ähnlicher Verbrauch? Klingt einleuchtend... ?
Die Realität ist andersrum...AMD braucht ca. 30 % weniger Transistoren um in die gleichen Leistungsregionen vorzustoßen sag ich jetzt mal! Die reduzierte Komplexität der Schaltungen / Gatter trägt wohl viel dazu bei so effizient zu sein!
Aber: Der Wert spielt praktisch auch gar keine Rolle
Spätestens am 25.11.20 gibts Tests! Let' s see who is right!Die Realität ist andersrum...
Die RTX3080/90 hat rund 28 Milliarden Transistoren.
AMD fertigt einen gerüchteweise etwa 530mm^2 großen Chip bei TSMC in 7nm mit theoretisch möglichen ~90 MTr/mm^2, bedeutet rechnerisch wird BigNavi je nach realer Packdichte irgendwo zwischen 35 und 45 Milliarden Transistoren landen.
Von der Zahl der Transistoren brauchste also nicht auf AMD zu wetten, da werden sie sehr viel mehr davon aufbieten um mit NVidia mithalten zu können. Aber: Der Wert spielt praktisch auch gar keine Rolle.
Und lass mich raten; G-Sync von Nvidia ist trotzdem eine geile Sache?!@Mitchpuken Habe bereits meine 3080 bestellt(geraume Zeit). Ich warte/vertraue nicht mehr auf AMD.
(Allein schon, weil ich halt den Monitor inkl. G-sync weiter nutzen möchte)
Gibt glaub ich schlimmeres, als mit ner 3080 auf nem G-sync Monitor zocken zu können.Und lass mich raten; G-Sync von Nvidia ist trotzdem eine geile Sache?!
Gefangen und eingesperrt, kommt mir da in den Sinn.
Nein, die Features sprechen für Nvidia.Gleichstand beim Saufen.
Unterschied nur im Speicher, wo die geringere Menge für WQHD von Nvidia ausreicht(8, oder 6GB mehr Speicher macht die Karte nicht schneller).
Bleibt nur noch der Preis und die Verfügbarkeit abzuwarten.
Im Grunde hupe, ob man AMD, oder Nvidia nimmt. Tun sich nicht viel.
edit:
Vielleicht wird das am Ende noch der deutlichste Unterschied zwischen den Karten werden.
Ist ja nicht so, dass BigNavi nichts davon bieten würde...Nein, die Features sprechen für Nvidia.
NVenc, DLSS und RT, dass sind Sparten in denen Nvidia voraus ist. Da müsste AMD die Features preislich rausrechnen und entsprechend günstiger werden, allerdings glaube ich nicht an 3080 Rasterleistung bei rund 400-500€.
ohhh AMD muss , das ist ja ganz Neu ... nur weil die Nutzer gerne hätten muss AMD noch gar nix , nicht mal einen High End Konkurrenten bringen, nur damit der geneigte Nvidia Käufer seine Nvidia Karte vielleicht ein paar Eu billiger bekommen kannNein, die Features sprechen für Nvidia.
NVenc, DLSS und RT, dass sind Sparten in denen Nvidia voraus ist. Da müsste AMD die Features preislich rausrechnen und entsprechend günstiger werden, allerdings glaube ich nicht an 3080 Rasterleistung bei rund 400-500€.