Duvar
Kokü-Junkie (m/w)
Glaub das ist nicht das richtige Game zum testen der Leistungsaufnahme.
Glaub das ist nicht das richtige Game zum testen der Leistungsaufnahme.
Bei 900mv läuft die GPU bereits ins PT wenn man vernünftig Last anlegt. Im Time Ex oder ner anständigen Vulkan oder DX12 Anwendungen zerreist dir das den Boost bis unter 1600 mit Auto Abit. Das sind schön Wetter Werte, 1900 mit 900mv gehen nur mit massiver Kühlung und golden Chip UHD Stable, wenn überhaupt.
Höheres Powerlimit bei weniger Spannung -> stabilerer Takt und weniger Spikes. https://www.forum-3dcenter.org/vbulletin/images/3dc/smilies/common/bluesmile.gif
MfG
Raff
1. Dieser Umstand rechtfertigt aber nicht die Verwendung von "ne". Denn es ging ja hierum: schwachen Effizienzfortschritt1. Ne Ampere braucht in nem Game bei gleichen einstellungen und gleichen Frames weniger strom als Turing
2.Neue Architektur. Geb dem ganzen doch zeit zu reifen. den Leistungsschub haben wir bekommen die Effizienz der Architektur wird folgen
falsch aber das einer mit dem namen hated kein wunder.1. Dieser Umstand rechtfertigt aber nicht die Verwendung von "ne". Denn es ging ja hierum: schwachen Effizienzfortschritt
Schwach, nicht nonexistent!
2. Bislang gab es da nur wenige Fälle, in denen die historische Bewertung des Effizienzfortschrittes und die zeitgenössische stark von einander abwichen...
Wolltest du vielleicht jemand anderen zitieren? Denn weder enthält mein Posting Ansätze von Hating noch bietet der Nickname irgendeinen Bezug...falsch aber das einer mit dem namen hated kein wunder.
Das wäre sicher interessant, unbestreitbar. Ich war aber schon froh, dass ich das Crysis-Video noch halbwegs in der Arbeitszeit hinbekommen hab (nachdem das Netzteil abgeschmiert ist und ich mein System dann auseinandernehmen und wieder zusammensetzen musste - da kommt man eventuell sogar ein bisschen ins Schwitzen)
Das ist ja alles ganz nett und einleuchtend...
Aber dann ist Raff's neues 850-Watt-Netzteil abgekratzt.
Gruß,
Phil
Also eigentlich brauchen GPUs wie CPUs nach einer gewissen Zeit mehr Strom, das durch Softwareanpassungen der Verbrauch sinkt, die Effizienz maßgeblich steigt ist mir neu.1. Ne Ampere braucht in nem Game bei gleichen einstellungen und gleichen Frames weniger strom als Turing
2.Neue Architektur. Geb dem ganzen doch zeit zu reifen. den Leistungsschub haben wir bekommen die Effizienz der Architektur wird folgen
Du hast gesagt ampere liefert keinen Fortschritt in Effizienz was einfach komplett Falsch ist es sind die effizientesten Karten am markt. meisten fps in relation zum verbrauch. Daneben sieht eine 5700 XT extrem ineffizient aus nur mal so nebenbei.Wolltest du vielleicht jemand anderen zitieren? Denn weder enthält mein Posting Ansätze von Hating noch bietet der Nickname irgendeinen Bezug...
Du hast gesagt ampere liefert keinen Fortschritt in Effizienz was einfach komplett Falsch ist es sind die effizientesten Karten am markt. meisten fps in relation zum verbrauch. Daneben sieht eine 5700 XT extrem ineffizient aus nur mal so nebenbei.
Bei turing wurde dasselbe gesagt aber eine 2070 ist extrem effizient. Wer bei diesen Leistungen der Karten erwratet das die aufnahme sinkt und die Leistung massiv steigt wie bei Pascal der sollte nochmal zurück in den Physikunterricht.
Navi 2 wird auch die 300 Watt brauchen ausser sie wollen sich weiter mit Turing prügeln wäre überrascht wenn sie eine 2080ti oc schlagen tbh.
Habe ich nicht und dass ich das nicht geschrieben habe, wurde auch nochmal in dem von dir zitierten Posting wiederholt: Ich habe von einem schwachen Effizienzfortschritt gesprochen. Von nichts mehr.Du hast gesagt ampere liefert keinen Fortschritt in Effizienz
geschrieben hast, hast du übrigens immer noch nicht aufgelöst.das einer mit dem namen hated kein wunder
Also eigentlich brauchen GPUs wie CPUs nach einer gewissen Zeit mehr Strom, das durch Softwareanpassungen der Verbrauch sinkt, die Effizienz maßgeblich steigt ist mir neu.
Das ist NICHT ein Anwachsen der Effizienz über Zeit durch neue Software-Revisionen, sondern durch ein anders gewähltes PowerTarget. → es liegt kein Bezug zum Kern des Postings von PCTom vor.Nvidia GeForce RTX 3080 FE im Test: Effizienz, PCIe 4.0 vs. 3.0, FE-Kühler, Fortnite RTX und Async DLSS
GeForce RTX 3080 FE im Test: Effizienz, PCIe 4.0 vs. 3.0, FE-Kühler, Fortnite RTX und Async DLSS / RTX 3080 vs. RTX 2080 Ti bei 270 Wattwww.computerbase.de
Ich erwarte auch keine Wunder, aber die 5700XT ist RDNA, nicht RDNA2, ergo noch der Hybrid aus RDNA und GCN. Erst RDNA2 wird eine eigenständige Generation ohne Altlasten.Mich wundert nur mit welcher Sicherheit die Menschen die massive Effizienzsteigerung bei BigNavi erwarten.
Die 5700XT ist ja schon kein Effizienzwunder, hat aber die selbe Basis-Architektur (RDNA2) und auch die selbe Strukturbreite wie BigNavi. Wo soll denn die Effizienzsteigerung bei BigNavi herkommen?
Klar, ich erwarte eine Verbesserung, die gibt es immer und alles andere wäre ja auch eine absolute Enttäuschung. Aber damit BigNavi die selbe Effizienz wie Ampere erreichen kann, muss es eine gewaltige Steigerung geben. Und die würde mich ernsthaft überraschen.
Mich wundert nur mit welcher Sicherheit die Menschen die massive Effizienzsteigerung bei BigNavi erwarten.
Die 5700XT ist ja schon kein Effizienzwunder, hat aber die selbe Basis-Architektur (RDNA) und auch die selbe Strukturbreite wie BigNavi. Wo soll denn die Effizienzsteigerung bei BigNavi herkommen?
Klar, ich erwarte eine Verbesserung, die gibt es immer und alles andere wäre ja auch eine absolute Enttäuschung. Aber damit BigNavi die selbe Effizienz wie Ampere erreichen kann, muss es eine gewaltige Steigerung geben. Und die würde mich ernsthaft überraschen.