lucky1levin
BIOS-Overclocker(in)
Durchgefallen.gsync compatible das ultimate ist was zu teuer
Durchgefallen.gsync compatible das ultimate ist was zu teuer
Also bist Du wegen AMD mit Deiner Nvidia bis jetzt klar gekommen mit CP2077 und das ist die Begründung, oder die Motivation jetzt wieder Nvidia zu kaufen?
Sry, dass kann ich wirklich nicht verstehen, ...
naja eigentlich doch.
Ist halt Mode Nvidia zu haben, auch wenn sie einen als Kunden hängen lassen, weil man nicht die neueste Hardware gekauft hat, mit den angeblich notwendigen vereinfachten Schaltungen -4 Bit FTW- , um neue Features zu sehen (RT , Sound, DLSS)
Ps. bei mir wird's die fetteste AMD-Karte. Ich habe so das Gefühl, als würde ich die eben so lange nutzen können wie meine 7970 anno dazumal. (5 Jahre [Ohne RT, sonst natürlich alle 9 Monate neue Karte] ).
Liebe Grüße
Ja, in kleinen Auflösungen:Der kleine Infinity Cache bei AMD hat eine hervorragende Hitrate.
Das ist ein Grund (einer, 1!) warum RDNA2 in höheren Auflösungen langsamer ist.According to AMD, the Infinity Cache should be able to work very effectively in games. The hit rate varies depending on the resolution, in 1,920 × 1,080 it should be 80 percent, in 3,840 × 2,160 it should be 58 percent. If the data is not in the cache, it must be searched for in the 16 GB memory. If, on the other hand, the data is available in the large cache, it is never transferred via the VRAM memory interface. Because this transfer of data requires a lot of energy (AMD speaks of six to eight times as much energy per transferred bit compared to the Infinity Cache), the energy efficiency increases compared to a GPU without Infinity Cache.
NV zieht in höheren Auflösungen vorbei und kommt nicht näher ran. Aber ja, mir ist die Architektur und deren Vor- / Nachteile bekannt.Der einzige Grund warum Nvidia in höheren Auflösungen näher an AMD rankommt, ist das NVDIA ihre Chips erst dann auslasten kann. In kleinen Auflösungen läuft der Chip hohl. Das weißt Du doch eigentlich auch oder nicht ?
Ich sage ja nichts Gegenteiliges, RDNA2 hat eine super Leistung in FullHD (aufgrund guter Auslastung der Shader und des Infinity Cache). In WQHD sind die Karten meist gleichauf, in 4K ist NV schneller.Man kann auch ausrechnen wie viel Leistung bei höhreren Auflösungen verloren geht, Computerbasee und PCGh haben das genau getestet und dem Chip von AMD eine gute Leistung in allen gängigen Auflösungen bescheinigt.
Du sprichst von "Schwäche kaschieren", andere würden sagen "hier kann Ampere seine Stärken ausspielen". Merkste selber? Ist beides richtig.Noch mal,
der Eindruck, dass Ampere in hohen Auflösungen prozentual mehr zulegt stimmt, aber es kommt daher, dass Nvidia dort eine Schwäche von Ampere kaschieren kann.
Viele Grüße
Er ist genauso biased wie Du und kramt immer die gerade für ihn passenden Benchmarks raus. Performance-Rating nur für Rasterisierung, Performance pro Watt bei maximaler FPS, wo sind das allgemein gültige Benchmarks?Er ist auf die FPS und als Bonus auf die Effizienz eingegangen.
Wie kann man bei 4 Zeilen schon so selektiert wahrnehmen oder ist das ein Reflex ?
Das Problem ist da wahrscheinlich, das man das nicht mehr sagen würde, wenn nur aller 3-4 Jahre eine neue GPU auf den Markt käme.Das würde keiner kaufen. Wenn man mit 15% Mehrleistung bei gleicher TDP ankommt dann sprechen die Leute von "null Fortschritt" etc...
Ziemlich großes Risiko für ein Unternehmen. Was wenn eine Gen mal keine super Ergebnisse bringt? Dann hat man 6-8 Jahre kein Produkt? Insolvenz incoming...Das Problem ist da wahrscheinlich, das man das nicht mehr sagen würde, wenn nur aller 3-4 Jahre eine neue GPU auf den Markt käme.
Mittlerweile vergeht ein Jahr nach Release und die ersten "Leaks" kommen schon zur nächsten Gen. Man kennt das ja.
Vielleicht sollten die Hersteller mal länger forschen bis zum nächsten Produkt.
Sehe ich nicht so.Ziemlich großes Risiko für ein Unternehmen. Was wenn eine Gen mal keine super Ergebnisse bringt? Dann hat man 6-8 Jahre kein Produkt? Insolvenz incoming...
Das Risiko haben dann aber alle Firmen welche GPUs auf den Markt bringen. Das spornt vielleicht mal wieder an, an jedes Bedürfnis zu denken und Fehler vorher auszumerzen.Was wenn eine Gen mal keine super Ergebnisse bringt?
Und die Firma die dann häufiger GPUs rausbringt hat einen Vorteil am Markt. Das funktioniert nicht in der freien / sozialen Marktwirtschaft, dazu müssten wir einen weiteren Planwirtschafts-Versuch unternehmen. Wie die bisher alle ausgegangen sind ist ja bekannt...Sehe ich nicht so.
Die Folge wäre ja immer schnellere Entwicklung, sonst geht man "pleite".
War früher ja auch nicht so und siehe da, die Firmen haben es auch geschafft. Mir kommt es heute so vor das immer mehr Produkt in schnellerer Zeit auf den Markt gehauen werden, besser wäre weniger dafür unterschiedlichere Modelle und mehr Ideenreichtum.
Das Risiko haben dann aber alle Firmen welche GPUs auf den Markt bringen. Das spornt vielleicht mal wieder an, an jedes Bedürfnis zu denken und Fehler vorher auszumerzen.
Was hat jetzt eine neue GPU Generation mit den verbauten Teilen der AIBs zu tun?Ich erinnere nur an manch schäbige Kühllösung bei Pascal (gerade EVGA hat sich da anfangs nicht mit Ruhm bekleckert) oder bei den Kondensatoren bei Ampere zum Start, als auch da Fehler bekannt worden. Auch der VRAM war bei Ampere oft nicht ausreichend gekühlt. Das sind alles Sachen die bei längerer Forschung hätten vorher schon behoben werden müssen.
Und wieder ein Beispiel für AIBs, die haben nichts mit der Rate an GPU Generationen zu tun.Hab das selbst ab 2016 oft erlebt, das ich selbst Hand anlegen musste an eine versiegelte GPU, weil der Hersteller nicht in der Lage ist bei den Preisen ordentliche Kühlpads zu verbauen oder eine ausreichende Menge (Siehe EVGA). Ich war froh das ich bei meiner GTX 1080 von EVGA eine Zusatzabsicherung hatte auf 5 Jahre extra. Eines Tages ging der PC nicht mehr an - Speicher kaputt bei der EVGA - war Gott sei Dank noch im 4. Jahr und es wurde getauscht. Ich denk nämlich oft, das das bei EVGA so gewollt ist, sonst würden die keine Zusatzversicherung anbieten. Deren Kühllösungen sind bisher immer recht schlecht gewesen und sehr dünn im Vergleich zu anderen.
Anhang anzeigen 1398280
Mag schon sein. Dann müssen die AIBs (was auch immer das heißt?! Allied Irish Banks ) halt mehr Sorgfalt bei Ihrer Produktentwicklung walten lassen.Und wieder ein Beispiel für AIBs, die haben nichts mit der Rate an GPU Generationen zu tun.
Mag schon sein. Dann müssen die AIBs (was auch immer das heißt?! Allied Irish Banks ) halt mehr Sorgfalt bei Ihrer Produktentwicklung walten lassen.
Ich denke trotzdem das es sinnvoll wäre, das dieses aller 2 Jahre neue GPU etwas verlangsamt werden könnte. Bisher machen es ja auch die Hersteller "ungefähr gleich". Das würde dann mit 3 Jahren auch nich anders sein.
Add-in boards (AIBs) use discrete GPUs (dGPU) with dedicated memory.
Das haut nicht hin wenn die alle 2 Jahre erscheinen.Die Entwicklung von gpu dauern in der Regel 3-4 Jahre
Doch, es haut hin weil NV / AMD immer an 2-3 GPU Gens in der Zukunft arbeiten. Wir bekommen alles "verzögert" ausgeliefert.Das haut nicht hin wenn die alle 2 Jahre erscheinen.
Was soll da jetzt keine 10bit haben?gsync compatible das ultimate ist was zu teuer
Ich denke trotzdem das es sinnvoll wäre, das dieses aller 2 Jahre neue GPU etwas verlangsamt werden könnte. Bisher machen es ja auch die Hersteller "ungefähr gleich". Das würde dann mit 3 Jahren auch nich anders sein.
Ne das nicht. Ich überspring immer eine Generation. Und da ich CPU & GPU eigentlich sofort zum Release geholt habe, würd ich so auf circa 4 Jahre kommen. Vielleicht sogar mehr - wer weiß das schon im Vorraus. Ich bin recht genügsam. Ich kauf dann wieder neu, wenn ich es dann auch brauche.deine Neuanschaffungspläne passen in einen 3 Jahreszyklus)
Ich würde mich als Bsp. nochmal über einen 5600X3D freuen und meinen 5800X veräußern - der würde mir für das bisschen Spielen reichen, hätte durch den Cache Vorteile und ist stromsparender als der 5800X3D (vermutet).
Für mich macht das Sinn. Zugegeben, es klingt etwas abenteuerlich.Das würde gar keinen Sinn machen. Ein Schritt zurück und einen nach vorn. Der 5800x ist so schon top.
Gehen wir mal davon aus das es den 5600x3d gibt. Was würde der Kosten? Wie viel müsstet du noch drauf legen? Selbst mit eine zukünftigen 4080 und deinem 5800x wärst du noch gut unterwegs. Es wäre Geld zum Fenster raus werfen bei einem Upgrade. Gern kannst du dem Forum auch etwas spenden, wenn du zu viel Geld hast. Da würden sich viele freuen ?Für mich macht das Sinn. Zugegeben, es klingt etwas abenteuerlich.
Ich möchte halt den Cache dazu, auf die 2 Kerne zusätzlich scheiß ich. Bei dem bisschen spielen, YT schauen und hier und da surfen, wäre der 5600X3D stromsparender und kühler noch dazu, als der 5800X3D.
Wie gesagt ich lass AM5 für die nächsten 2-3 Jahre aus und wenn da für AM4 nochmal ein letzter Prozessor kommt,nehm ich den mit. Verkauf den 5800X günstig, leg noch was drauf udn hol mir den 5600X3D mit B2 Stepping.
Muss dazu sagen ich hab einen der ersten Ryzen 5000er (gleich zu Release geholt) mit B0 Stepping. Und da mekr ich schon, wenn ich so sehe was manche da aus ihrer CPU mit B2 Stepping zaubern, wie meiner da noch am Anfang "schlechter" produziert wurde. Ich schaff in Curve Optimizer bei manchen Kernen nicht mal -5.
Ich find das immer lustig das viele denken das man zu viel Geld hat, nur weil man ein Upgrade machen will.Gehen wir mal davon aus das es den 5600x3d gibt. Was würde der Kosten? Wie viel müsstet du noch drauf legen? Selbst mit eine zukünftigen 4080 und deinem 5800x wärst du noch gut unterwegs. Es wäre Geld zum Fenster raus werfen bei einem Upgrade. Gern kannst du dem Forum auch etwas spenden, wenn du zu viel Geld hast. Da würden sich viele freuen ?
Wenn eine 4090 mit vernünftigen Werten betrieben wird ist sie immer noch um Welten schneller als eine 4060.Die Einstellungen sind vernünftig. Wenn dir der Verbrauch zu hoch ist, kauf eine kleinere Karte. Das wurde hier aber auch schon von mehrere Usern vorgeschlagen. Niemand sagt, dass du für 1500€+ eine 450W Karte kaufen und dann selbst noch Hand anlegen musst, aber du hast die Möglichkeit dies zutun.
Es gibt kein Opt-Out. Du tust so als gäbe es neben den 450-600W Karten nichts anderes mehr und das ist Unfug.
Laut Gerüchten liegt die 4060 bei 180-250W und wenn dir das zu viel ist, gibt es noch den AD106 und AD107.
Tun sie eigentlich nicht. Meine ASUS TUF bietet z.B. ein Silent BIOS. Du hast eine große Auswahl zwischen verschiendenen Modellen. Wo ist das Problem? Was stört dich daran, Auswahl zu haben? Check ich nicht.
Kauf, was dir gefällt und ignoriere den Rest, aber hör doch auf Nvidia und AMD vorschreiben zu wollen, was sie zutun haben.
Wenn es nach dir ginge, hätte ich mir keine 3090 kaufen können, weil es sie nicht gegeben hätte.
Es erschließt sich mir nicht, welchen Vorteil du persönlich davon hättest, wenn die Topmodelle max. 280W verbrauchen würden. Störst du dich daran, dass User wie ich eine 450W Karte kaufen würden?
Und wo war dein Aufschrei bei der Fury oder R9 295X2, welche einen Verbrauch von über 500W hatte?