News Radeon-Grafikkarten sollen dank KI deutlich effizienter werden

Wow!
Wie Raff dann den ganzen Pracour mit dem böööösen schleeeeeechten Treiber auf Standard
immer so schafft, Hut ab!
Hehe. Die einzigen Probs, die ich am Testsystem in den letzten Jahren hatte, waren allesamt mit Intel Arc. Okay - und MTT S80 in konzentrierter Failform. AMD und Nvidia sind im Vergleich göttliche, fehlerfreie Code-Wunder.

MfG
Raff
 
Wenn die Hersteller nun einen besseren Weg gefunden haben, das Sicherheitspolster zu verkleinern, kann das sehr wohl stabil sein.
Dann müssten sie jedoch alle Grafikkarten mit allen Spielen testen, da es bei Hardware immer wieder Unterschiede gibt. Sonst wird das wohl nix mit stabil. Das ist viel zu aufwändig, selbst wenn sie es mit AI machen!

Somit bleibt der "AI" nichts übrig, als auf unseren PC's die Stabilität per Spiel auszuloten. Das können Programme schon längst, AI brauchts dazu nicht wirklich.
 
Is ja erst der Anfang. Gut is doch dass es schon mal erkannt wird, dass das Verbraten von Strom zum Kaufargument werden kann: siehe Intel-CPUs. Wichtig wäre dass AMD seine Karten stromeffizienter macht. Das geht natürlich nur, glaube, ich wenn die Hardware das auch möglicht macht.

BSPe:
Die RX 6700 XT die ich im Multimedia-Dingsbums-PC habe hat noch nie mehr als 10 Watt in der Standardkonfiguration ab AMD-Treiber verbraucht. Gezockt hab ich damit noch nicht, aber etliche Videos geglotzt. Jetzt sinds 3 Watt. Gemacht hab ich nix im Treiber. Wozu auch? Aber der Treiber gibbt wohl noch was her. Und den finde ich richtig gut. Lohnt sich bei so einer Karte KI-Gedöns?

Vielleicht erst bei den stromhungrigen GKn?

Die 3090 hab ich mal hiernach uvt:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Die läuft zwischen 120-140 Watt beim Zocken, aber max. 72 Fps und 25". Reicht mir völlig. Maximal 20 Watt wenns Video läuft. Und wenn ich surfe, keine Ahnung. Glaub 10 Watt.

Aber viele nutzen zukünftig vielleicht nur den Schieberegler so wie im Video die Profile, die dort angelegt werden können, um mal schnell ohne UV oder OV Strom zu sparen.

Mal schauen.
 
Die läuft zwischen 120-140 Watt beim Zocken, aber max. 72 Fps und 25". Reicht mir völlig. Maximal 20 Watt wenns Video läuft. Und wenn ich surfe, keine Ahnung. Glaub 10 Watt.
Da wäre eine 40er Karte bei 50 Watt wenn nicht weniger. :D Ampere war für Nvidia verhältnisse auch kein Uv Wunder, da gibt es schon ein paar Spiele die auch mit Uv das volle TBP ausreizten.
 
bei 50 Watt wenn nicht weniger
WOW!

Ja, damals musste ich das Testen. 3090 soll Strom soviel saufen: die Aussage hat mich schon genervt! Meine alte GK war völlig fertig und das Zocken musste sofort und irgendwie ohne kurze Pausen weitergehen. Hatte auch vor auf die RTX 40 zu warten, aber ... warten??? Neeee! Die 50 Watt sind schon echt eine Hausnummer und ein gutes Kaufargument!

Fürn meine ewige Knauserei. Aach ... :ugly:
 
Dann müssten sie jedoch alle Grafikkarten mit allen Spielen testen, da es bei Hardware immer wieder Unterschiede gibt. Sonst wird das wohl nix mit stabil. Das ist viel zu aufwändig, selbst wenn sie es mit AI machen!

Somit bleibt der "AI" nichts übrig, als auf unseren PC's die Stabilität per Spiel auszuloten. Das können Programme schon längst, AI brauchts dazu nicht wirklich.
Hast du dir mal die Frage gestellt, wie die Hersteller die Specs ihrer GPUs überhaupt ermitteln? Glaubst du wirklich, die lassen dafür alle möglichen Spiele laufen?
 
WOW!

Ja, damals musste ich das Testen. 3090 soll Strom soviel saufen: die Aussage hat mich schon genervt! Meine alte GK war völlig fertig und das Zocken musste sofort und irgendwie ohne kurze Pausen weitergehen. Hatte auch vor auf die RTX 40 zu warten, aber ... warten??? Neeee! Die 50 Watt sind schon echt eine Hausnummer und ein gutes Kaufargument!

Fürn meine ewige Knauserei. Aach ... :ugly:
Warum so bissig oder verstehe ich deinen Beitrag falsch. Das war kein Kaufargument sondern lediglich eine Tatsache. Mir doch egal was wer kauft. :ka:

Ampere säuft das ist Fakt. Ohne Fps Limit brauchen die uv vs uv gegen die 40er Serie locker das doppelte.

Geknausert hast du bestimmt nicht wenn du eine 90er Karte hast ;).
 
Nein alles im grünen Bereich: Deine Aussage bzgl. der RTX 40-Serie finde völlig zutreffend! Zum Stromsparen ist die 40-Serie wohl perfekt! Für mich wäre das ein Kaufargument!

Klar ist die 30-Serie gönnte sich gerne mal ein paar Watt "zuviel", so damals die viele Meldungen. Mag auch stimmen.

Aber wie "Bei der RTX 3090 hatte ich einen max. Stromverbrauch von ca. 700 Watt" (https://www.computerbase.de/forum/threads/3090-vs-4090-stromverbrauch-merkwuerdig.2118944/) und Ähnliches vorher gingen mir doch echt auf den Keks. Ich weiß zwar nicht was die Leutchen mit der 3090 anstellten, aber ...

Dann hier: https://extreme.pcgameshardware.de/threads/rtx-3090-fe-bei-0-737-volt-maximales-undervolting.617752/

Endlich wurde das Thema Effizienz bei der 3090 mit Verstand geführt.

Die 3090 hatte ich da schon "etwas" uvt. Die Vorgängerkarte hatte sich 250 Watt gegönnt. Und die 3090 verbrauchte bei x-facher Leistung dann fast nur noch die Hälfte. Ich fand das damals spitze! Und kühl und leise ist sie auch noch!

Deswegen sind bei mir immer die Sicherungen durchgebrannt wenn ich was von 350 Watt aufwärts an Stromverbrauch laß! Ich fragte mich damals wie geht das überhaupt? 50" Zoll?

Aber Fakt ist: Sie "säuft" wohl das Doppelte im Vergleich zur 40-Serie. Da hast Du völlig recht!

Grüße!
 
Hier die 4090 hier hat 4 von den Neuralprozessoren verbaut^^

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Man hat 10% mehr FPS OHNE NPU, aber dafür höheren Verbrauch und mehr Takt.
Mit NPU hat man 10% weniger FPS und dafür 20% weniger Strom und geringeren Takt.
Aufpassen beim Prozentrechnen: Hat man mit NPU 10% mehr FPS, sind es ohne NPU nicht 10% weniger, sondern nur etwa 9%. Obligatorisches Autobeispiel: Kleines Auto 6 L Verbrauch, großes 9 L, also 50% mehr. Das kleine verbraucht aber nicht 50% weniger, denn das wären dann ja nur 4,5 L.

Bei uns gab es mal eine irreführende Werbung mit dem Slogan, man bekäme die 20% Mehrwertsteuer geschenkt und viele Konsumenten glaubten dann, es wäre jetzt 20% günstiger. Tatsächlich meinte man aber den Betrag der Mehrwertsteuer, also waren die Produkte dann nur um ca. 16,67% günstiger.
 
Alles keine Antworten darauf , warum Amd nicht gleich von Hause aus eine Grafikkarte mit Effizienter Hardware und brauchbaren Treibern die den Verbrauch auf Konkurrenz Niveau einbremsen abliefert ?!

Beispiele:




Das eine Amd Rx 7900XTX wie im verlinkten PCGH Test bis zu 69 !!! Watt nur für ein UHD Video verballert ist nicht mehr Zeitgemäss , und da ändert auch die KI nichts daran selbst wenn es den eine echte wäre. :nene::nene:

Das es auch anders geht und zwar ohne KI zeigen Nvidia,s hervorragende RTX 4000 :daumen::daumen:
 
Warum tun Leute die offensichtlich Aktien einer Firma haben so, als müsste man jene Firma grundlos in den himmel loben? Soll man damit Leute dazubringen etwaige Produkte der besagten Firma zu kaufen oder was ? Weckruf es löst genau das Gegenteil aus, weil es nervt und man es deswegen noch weniger unterstützen will. :stupid:
Nein alles im grünen Bereich
Warum verwendets du eigentlich Uniengine? Kein Wunder das dort die Karte nichts verbraucht, das lastet doch nicht aus und eignet sich auch nicht als Stabilitätstest. Das Programm ist hoffnungslos veraltet.
 
Hehe. Die einzigen Probs, die ich am Testsystem in den letzten Jahren hatte, waren allesamt mit Intel Arc. Okay - und MTT S80 in konzentrierter Failform. AMD und Nvidia sind im Vergleich göttliche, fehlerfreie Code-Wunder.

MfG
Raff
Euer Testsystem ist nicht geschlossen nehme ich an, lasst mal die AMD-Karten in einem geschlossenen System laufen und sieh, wie dein Gott stirbt. :devil:
 
also bei Bekannten laufen die Radeons treibermäßig sehr gut, keine Beschwerden.
Die 7900XT die ich einem Freund eingebaut habe, will auch einfach keine Probleme machen :D.

Und das trotz geschlossenem Gehäuse...
Und dein Bekannter hatte bis jetzt nicht ein Treiber time out? Ich hatte ihn beifolgenden Karten 6700XT,7800XT,7900XTX.
Gegen blasphemische Überhitzung erfanden die Hardware-Götter den "Lüfter". Clever angeordnet, erhält man den sogenannten "Airflow". :D

MfG
Raff
Ich liebe die dunkle Seite der Macht ich nimm euch alle mit dorthin.:devil:
 
Zurück